공항에서 비행기 놓친 이유, 챗GPT 때문이라고?…황당 사연 들어보니

안예은 기자
수정 2025-08-17 13:30
입력 2025-08-17 13:30

한 여행객이 대화형 인공지능(AI) 챗GPT(ChatGPT)의 잘못된 정보 때문에 비행기를 놓쳤다고 주장했다.
14일(현지시간) 영국 데일리메일 등은 한 커플이 카리브해 푸에르토리코 여행을 위해 스페인 바르셀로나 공항에 왔지만 챗GPT가 잘못 안내한 비자 정보로 인해 비행기 탑승이 거부됐다고 보도했다.
소셜미디어(SNS) 틱톡에 공개한 영상을 보면, 여성은 눈물을 흘리며 “여행 전 많은 조사를 했는데 챗GPT에 물어보니 비자가 필요 없다고 했다”며 AI를 이용해 여행 계획을 세웠다고 말했다.
실제로 스페인 시민은 푸에르토리코 비자가 필요 없지만, 전자여행허가(ESTA)를 발급받아야 한다. 그렇지 않으면 항공편 탑승이 거부되거나 도착 후 입국 심사를 거부당할 수 있다고 알려졌다.
여성은 “가끔 챗GPT에게 욕을 하거나 쓸모없다고 말했는데, 이제 복수하는 것 같다”라고 덧붙였다.
영상을 본 네티즌들은 다양한 반응을 보였다. “여행 정보를 제대로 알아보지 않은 잘못”, “챗GPT가 알려준 정보는 꼭 다시 확인해야 한다”며 AI에 전부 의존한 이들의 잘못을 지적했다.
결국 두 사람은 서류를 갖추고 푸에르토리코 항공편을 탑승했다고 전해졌다.

챗GPT가 사용자에게 잘못된 정보를 제공해 피해를 본 사례는 이번이 처음이 아니다.
최근 한 미국 남성이 챗GPT의 건강 조언을 믿고 소금 대신 브롬화나트륨을 섭취했다가 정신 질환에 걸려 병원에 입원하는 사건이 발생했다.
브롬화물은 과거 진정제로 사용됐으나 과다 섭취 시 신경 기능 손상 및 피부 발진, 정신 질환을 유발하는 부작용 등이 발생해 섭취가 중단된 바 있다. 특히 19세기 미국 정신병원에서는 8~10% 환자가 브롬중독으로 입원했다고 알려졌다.
전문가들은 챗GPT가 과학과 대중을 연결하는 가교 역할을 할 수 있다는 점은 긍정적이지만, 맥락에서 벗어난 정보를 알려 줄 위험이 있으니 AI를 통해 얻은 정보를 반드시 검증해야 한다고 말한다.
안예은 기자
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지