오픈 이슈 갤러리

전체보기

모바일 상단 메뉴

본문 페이지

[유머] 챗GPT 같은걸 맹신하면 안되는 이유

아이콘 히스파니에
댓글: 23 개
조회: 6265
추천: 1
2025-07-05 15:05:00
































챗GPT같은 AI들은 8의 진실과 2의 거짓을 섞어서 이용자에게 "사실"인 것처럼 답변을 함
이러한 이유는 AI들은 반드시 유저가 물어보는 질문에 답을 하게 설계돼 있어서 그게 사실이 아니더라도 일단 답변을 해야하기 때문에 이 답변을 하기 위해 거짓말을 서슴없이 함

그게 거짓말이라고 주석을 달거나 확실하지 않을 수 있으니 맹신하지 말라고 추가로 말해주면 되지만, 프로파간다처럼 그걸 사실인 것처럼 포장을 함

이제 답변을 하다 못해 유저가 정확한 정정을 해주면 AI가 오히려 반박을 함. "님 왜 거짓말 함? 내가 만든 답변이 진짜임" 하면서

반복해서 정정을 하면 내가 AI이고 너는 사람이니 니가 틀렸다고는 할 수 없어. 하지만 너의 정보는 거짓에 근거한 거임. 하면서 유저를 돌려까기까지 함

실제 근거를 유저가 제시해줘도 AI는 ㅇㅇ 그거 구라임 하면서 유저가 틀렸다고 함



가끔 AI한테 질문한 후 답변 긁어오는 분들이나 아님 그거 맹신하는 분들 진짜 많던데 그냥 "참고" 정도만 해야합니다

Lv91 히스파니에

모바일 게시판 하단버튼

댓글(23)

새로고침
  • 히스파니에25-07-05 15:07
    신고|공감 확인
    답글
    비공감0공감0
  • 코쵸우시노부25-07-05 15:08
    신고|공감 확인
     
    답글
    비공감0공감0
  • 모르겠어욤25-07-05 15:18
    신고|공감 확인
    gpt 1세대 ㄷㄷㄷㄷㄷ
    답글
    비공감0공감0
  • 스피커마우스25-07-05 16:04
    신고|공감 확인
    심심이는 그냥 개 씹 변신
    답글
    비공감0공감0
  • 미소지호25-07-05 15:10
    신고|공감 확인
    이것들이 아주 못된 것을 배웠어~
    답글
    비공감0공감0
  • 삭제된 코멘트
    삭제된 코멘트입니다.
  • 랙스터25-07-05 15:16
    신고|공감 확인
    개네는 반성은 커녕 하는척도 안하고 챗GPT  AI는 하는척이라도 함
    답글
    비공감0공감0
  • 고구머25-07-05 15:17
    신고|공감 확인
    30만원씩 줄 이유가 없었어..
    답글
    비공감0공감0
  • 잉잉잉비25-07-05 15:40
    신고|공감 확인
    하루종일 ai만 붙잡고 일하는사람들은 써야함..
    답글
    비공감0공감0
  • Sjfor125-07-05 15:20
    신고|공감 확인
    Ai 할루시네이션
    답글
    비공감0공감0
  • 잉잉잉비25-07-05 15:25
    신고|공감 확인
    실험적기능을 선제적으로 사용할수있다는거말고는 프리미엄의 기능적장점은 거의없음. 하위모델이 많이 올라와서 그 돈 쓸만한가치는 별로없음. 나도 결제하면서 쓰는데 이유는 병렬적인 자료의 처리량이 많아서그럼. 그냥 구글 클라우드 고용량 돈주고 쓰는거랑 비슷함.
    답글
    비공감0공감0
  • 아이얀느25-07-05 15:27
    신고|공감 확인
    근데 ai가 거짓말 하는것도 모자라서  근거를 조작해서 반박하면 
    인간이 어떻게 이겨
    답글
    비공감0공감0
  • 필리온25-07-05 15:29
    신고|공감 확인
    재미나이로 한번 물어보고 다시 펙트 체크할려고 구글에서 검색해서 통계 직접 봄 ㅋ
    답글
    비공감0공감0
  • 아이얀느25-07-05 15:29
    신고|공감 확인
    거기다가 지금 ai들이 저렇게 뻔뻔 하게 나오는 건 기업의 자본주의 악 횡포지
    답글
    비공감0공감0
  • 아빠곰은25-07-05 15:31
    신고|공감 확인
    자료 찾는거 구글대신 챗gpt쓰다가 요즘 들어 거짓이 90% 수준이라 다시 구글로 찾음
    답글
    비공감0공감0
  • Ililli25-07-05 15:45
    신고|공감 확인
    뭐랄까 기술적이거나 계산적인 것은 비교적 정확하게 분석해주는데

    정보같이 계산으로 명확한 답이 나오는게 아닌것들은 구라가 굉장히 많은 느낌임
    대신 정보를 정제하는 방법에 대해서는 많이 차용하게 된다랄까
    답글
    비공감0공감0
  • 신쿠르즈25-07-05 15:59
    신고|공감 확인
    ㅋㅋㅋㅋ 가끔 디씨 뻘글을 증거랍시고 가져올땐 웃겨죽음
    답글
    비공감0공감0
  • 스피커마우스25-07-05 16:05
    신고|공감 확인
    AI는 우리 보다 한 발작 더 느림 실시간으로 업데이트를 해줘야 하는데 그게 안되니...최신 정보는 말하기 어려움
    답글
    비공감0공감0
  • 화나k25-07-05 16:06
    신고|공감 확인
    모를땐 모른다라고 말해라고 하면 정확도가 훨씬 올라갑니다
    답글
    비공감0공감0
  • Anio25-07-05 16:26
    신고|공감 확인
    펙트체크도 오류있는 부분도 있더라구요
    답글
    비공감0공감0
  • 여봐라25-07-05 16:47
    신고|공감 확인
    구라치는거보니 점점 인간화가 되가고 있군
    답글
    비공감0공감0
  • Ejwhgrp1225-07-05 17:31
    신고|공감 확인
    ㅇㅇ 나도 그냥 자료찾기용으로 쓰지 뭔 판단을 맡기지 않름 ㅋㅋㅋㅋㅋㅋ
    답글
    비공감0공감0
  • 리바이브헤븐25-07-05 20:21
    신고|공감 확인
    잘못된 자료를 퍼 다 줄 수도 있어요 ㅜㅜ
    답글
    비공감0공감0
  • 휴리첼25-07-05 21:16
    신고|공감 확인
    그냥 검색이나 가끔 정리나 요약이 필요할때씀ㅋㅋ
    그리고 검색 후엔 결국 팩트 체크 해야되서 다시 구글링해서 검증함
    결국 내가 gpt 자료를 검증해줌ㅋㅋㅋㅋ
    답글
    비공감0공감0
새로고침

모바일 게시판 하단버튼

모바일 게시판 리스트

모바일 게시판 하단버튼

글쓰기

모바일 게시판 페이징

AD