AI가 틀릴 때가 있다? GPT의 '할루시네이션' 현상과 줄이는 법

 요즘은 ChatGPT 같은 AI가 글을 써주고, 질문에 답해주고, 번역까지 척척 해주는 시대죠.

그런데… 

AI가 전혀 사실이 아닌 말을 진짜처럼 말할 때가 있다는 걸 알고 있었나요?


🤖 AI도 실수를 한다고? ‘할루시네이션’이란?

이런 걸 ‘할루시네이션(hallucination)’이라고 해요.
사람이 헛것을 보는 환각과 비슷한 뜻인데, AI에선 사실이 아닌 내용을 마치 사실처럼 말하는 것을 뜻하죠.

📚 예를 들어 볼게요!

“홍길동은 2020년 노벨문학상을 받았습니다.”
→ ❌ 틀린 말이에요. 홍길동은 실존 인물도 아니고, 노벨문학상도 받지 않았어요.

그런데 AI는 이런 식으로 그럴싸한 ‘거짓’을 만들기도 해요.


이유는 간단해요. 

AI는 인터넷에 있는 수많은 글을 배워서 ‘다음에 올 말’을 예측하는 방식으로 작동해요.


정보가 부족하거나 질문이 애매하면, 그럴듯하게 지어내는 거예요.


귀여운 로봇이 말풍선 안에서 "홍길동은 2020년 노벨 문학상을 받았습니다."라고 잘못된 정보를 말하고 있으며, 말풍선 아래에는 빨간색 X 표시가 있습니다.


📉 왜 문제일까?

  • 시험 공부에 사용하면 큰일! 틀린 정보를 외울 수도 있어요.
  • 뉴스나 기사 작성 시 잘못된 정보가 퍼질 수 있어요.
  • 진로·진학 상담에 사용했을 때 잘못된 조언을 들을 수도 있어요.

✅ 할루시네이션을 줄이는 5가지 팁!

  1. 질문을 구체적으로 하기
    → "미국 대통령이 누군가요?"보다 "2024년 현재 미국 대통령은 누구인가요?"처럼!

  2. 출처를 요구하기
    → “이 답변에 근거가 되는 기사나 링크도 알려줘.”

  3. 다시 한번 요약 요청하기
    → “방금 내용 중 확실한 사실만 정리해줘.”

  4. 같은 질문을 다르게 묻기
    → 표현을 바꿔 두세 번 반복해 질문해보세요.

  5. 모르면 모른다고 말하는 AI가 좋은 AI!
    → 확신을 가지고 말해도, 항상 의심하고 검증하기!

의심스러운 표정을 지은 남학생이 노트북 화면 속 AI 로봇을 확대경으로 유심히 들여다보며 진위를 확인하는 모습의 일러스트


🧠 AI는 도구, 판단은 나에게 있어요

AI는 정말 똑똑한 도구지만, ‘판단력’은 사람에게 있어요.
중요한 정보를 얻을 땐 꼭 여러 번 확인하고, AI가 말하는 걸 진짜인지 확인하는 습관을 들이세요.


“AI는 ‘그럴듯한 말’을 한다.
우리는 ‘진짜인지’를 묻는 사람이 되어야 한다.”