오픈이슈갤러리

전체보기

모바일 상단 메뉴

본문 페이지

[유머] 챗GPT 같은걸 맹신하면 안되는 이유

아이콘 히스파니에
댓글: 22 개
조회: 6410
추천: 1
2025-07-05 15:05:00
































챗GPT같은 AI들은 8의 진실과 2의 거짓을 섞어서 이용자에게 "사실"인 것처럼 답변을 함
이러한 이유는 AI들은 반드시 유저가 물어보는 질문에 답을 하게 설계돼 있어서 그게 사실이 아니더라도 일단 답변을 해야하기 때문에 이 답변을 하기 위해 거짓말을 서슴없이 함

그게 거짓말이라고 주석을 달거나 확실하지 않을 수 있으니 맹신하지 말라고 추가로 말해주면 되지만, 프로파간다처럼 그걸 사실인 것처럼 포장을 함

이제 답변을 하다 못해 유저가 정확한 정정을 해주면 AI가 오히려 반박을 함. "님 왜 거짓말 함? 내가 만든 답변이 진짜임" 하면서

반복해서 정정을 하면 내가 AI이고 너는 사람이니 니가 틀렸다고는 할 수 없어. 하지만 너의 정보는 거짓에 근거한 거임. 하면서 유저를 돌려까기까지 함

실제 근거를 유저가 제시해줘도 AI는 ㅇㅇ 그거 구라임 하면서 유저가 틀렸다고 함



가끔 AI한테 질문한 후 답변 긁어오는 분들이나 아님 그거 맹신하는 분들 진짜 많던데 그냥 "참고" 정도만 해야합니다

Lv91 히스파니에

모바일 게시판 하단버튼

댓글

새로고침
새로고침

모바일 게시판 하단버튼

모바일 게시판 리스트

모바일 게시판 하단버튼

글쓰기

모바일 게시판 페이징

AD