
챗GPT같은 AI들은 8의 진실과 2의 거짓을 섞어서 이용자에게 "사실"인 것처럼 답변을 함
이러한 이유는 AI들은 반드시 유저가 물어보는 질문에 답을 하게 설계돼 있어서 그게 사실이 아니더라도 일단 답변을 해야하기 때문에 이 답변을 하기 위해 거짓말을 서슴없이 함
그게 거짓말이라고 주석을 달거나 확실하지 않을 수 있으니 맹신하지 말라고 추가로 말해주면 되지만, 프로파간다처럼 그걸 사실인 것처럼 포장을 함
이제 답변을 하다 못해 유저가 정확한 정정을 해주면 AI가 오히려 반박을 함. "님 왜 거짓말 함? 내가 만든 답변이 진짜임" 하면서
반복해서 정정을 하면 내가 AI이고 너는 사람이니 니가 틀렸다고는 할 수 없어. 하지만 너의 정보는 거짓에 근거한 거임. 하면서 유저를 돌려까기까지 함
실제 근거를 유저가 제시해줘도 AI는 ㅇㅇ 그거 구라임 하면서 유저가 틀렸다고 함
가끔 AI한테 질문한 후 답변 긁어오는 분들이나 아님 그거 맹신하는 분들 진짜 많던데 그냥 "참고" 정도만 해야합니다
인간이 어떻게 이겨
정보같이 계산으로 명확한 답이 나오는게 아닌것들은 구라가 굉장히 많은 느낌임
대신 정보를 정제하는 방법에 대해서는 많이 차용하게 된다랄까
그리고 검색 후엔 결국 팩트 체크 해야되서 다시 구글링해서 검증함
결국 내가 gpt 자료를 검증해줌ㅋㅋㅋㅋ