요즘은 ChatGPT 같은 AI가 글을 써주고, 질문에 답해주고, 번역까지 척척 해주는 시대죠.
그런데…
AI가 전혀 사실이 아닌 말을 진짜처럼 말할 때가 있다는 걸 알고 있었나요?
🤖 AI도 실수를 한다고? ‘할루시네이션’이란?
이런 걸 ‘할루시네이션(hallucination)’이라고 해요.
사람이 헛것을 보는 환각과 비슷한 뜻인데, AI에선 사실이 아닌 내용을 마치 사실처럼 말하는 것을 뜻하죠.
📚 예를 들어 볼게요!
“홍길동은 2020년 노벨문학상을 받았습니다.”
→ ❌ 틀린 말이에요. 홍길동은 실존 인물도 아니고, 노벨문학상도 받지 않았어요.
그런데 AI는 이런 식으로 그럴싸한 ‘거짓’을 만들기도 해요.
이유는 간단해요.
AI는 인터넷에 있는 수많은 글을 배워서 ‘다음에 올 말’을 예측하는 방식으로 작동해요.
정보가 부족하거나 질문이 애매하면, 그럴듯하게 지어내는 거예요.
📉 왜 문제일까?
- 시험 공부에 사용하면 큰일! 틀린 정보를 외울 수도 있어요.
- 뉴스나 기사 작성 시 잘못된 정보가 퍼질 수 있어요.
- 진로·진학 상담에 사용했을 때 잘못된 조언을 들을 수도 있어요.
✅ 할루시네이션을 줄이는 5가지 팁!
- 질문을 구체적으로 하기
→ "미국 대통령이 누군가요?"보다 "2024년 현재 미국 대통령은 누구인가요?"처럼! - 출처를 요구하기
→ “이 답변에 근거가 되는 기사나 링크도 알려줘.” - 다시 한번 요약 요청하기
→ “방금 내용 중 확실한 사실만 정리해줘.” - 같은 질문을 다르게 묻기
→ 표현을 바꿔 두세 번 반복해 질문해보세요. - 모르면 모른다고 말하는 AI가 좋은 AI!
→ 확신을 가지고 말해도, 항상 의심하고 검증하기!
🧠 AI는 도구, 판단은 나에게 있어요
AI는 정말 똑똑한 도구지만, ‘판단력’은 사람에게 있어요.
중요한 정보를 얻을 땐 꼭 여러 번 확인하고, AI가 말하는 걸 진짜인지 확인하는 습관을 들이세요.
“AI는 ‘그럴듯한 말’을 한다.우리는 ‘진짜인지’를 묻는 사람이 되어야 한다.”