AI/AI 관련 재밌는 이야기

[AI 재밌는 이야기] AI가 농담을 진지하게 받아들인 순간들: 피자에 풀?! ‘웃픈’ AI 사고 모음

AIThinkLab 2026. 2. 14. 16:01
SMALL

안녕하세요! AI Think Lab입니다!

오늘은 가볍게 웃으면서 읽을 수 있지만, 한편으로는 “아 이건 좀 무섭다…” 싶기도 한 AI의 웃픈 오답 사례를 모아서 소개해보겠습니다. 🤖😅

핵심은 한 가지입니다. AI는 ‘그럴듯하게 말하는 능력’이 뛰어나서, 농담/오류도 진짜처럼 보이게 만들 수 있다는 점입니다.

 

1) “환불 규정”을 새로 만들어버린 사건 (Air Canada 챗봇)

캐나다에서 실제 분쟁으로 이어진 사례로, 에어캐나다 웹사이트의 챗봇이 장례 할인(beravement fare) 관련 안내에서 공식 정책과 어긋나는 정보를 제공한 것으로 알려졌습니다.

  • 승객은 챗봇 안내를 신뢰하고 항공권을 구매/절차를 진행했습니다.
  • 이후 항공사는 정책상 불가로 처리했고, 분쟁으로 확대되었습니다.
  • 결정문에서는 “웹사이트 정보 제공 주체로서 책임”이 핵심 쟁점으로 다뤄졌습니다.

교훈: 고객 응대용 AI는 “말을 잘하는 것”보다 정확한 정책 링크와 근거를 먼저 보여주는 설계가 중요합니다.

 

2) “피자에 풀 넣으세요” 사건 (Google AI 요약 기능)

구글의 AI 요약(검색 결과 요약) 기능이 “치즈가 피자에서 잘 안 붙을 때”라는 질문에 대해, 소스에 무독성 풀을 섞으면 점성이 생긴다는 식의 답변을 제시해 논란이 된 바 있습니다.

  • 커뮤니티 농담/비꼼이 섞인 글이 요약 과정에서 사실처럼 보이게 변형될 수 있다는 점이 포인트입니다.
  • 요약 형태는 사람에게 ‘공식 가이드’처럼 느껴질 수 있어 더 위험합니다.

교훈: 요약형 AI는 특히 출처 품질이 생명입니다. “많이 언급됐다”와 “사실이다”는 다릅니다.

 

3) 왜 이런 일이 생길까? (핵심 원인 3줄)

  • AI는 ‘진실/거짓’을 아는 존재라기보다, 그럴듯한 다음 단어를 예측하는 시스템입니다.
  • 웹에는 농담/패러디/풍자가 많고, AI가 이를 문맥 없이 섞어버릴 수 있습니다.
  • 특히 ‘요약’은 원문 대비 권위 있어 보이는 문장으로 바뀌기 쉬워 위험합니다.

 

✅ 현실에서 바로 써먹는 “AI 오답 방지” 체크리스트

  • 출처 링크가 있는가? (없으면 신뢰도 급락)
  • 공식 문서/정책/1차 자료인가? (2차 요약만 믿지 않기)
  • 의학/법/금융은 반드시 교차검증 (AI 단독 판단 금지)
  • 이상하게 단정적인 문장이면 한 번 더 의심

 


🔗 참고(출처)

LIST