[OK AI] 그럴듯한 ‘오답’의 시대…AI ‘환각’, 검색·뉴스 신뢰 흔든다

마이데일리

[편집자 주] 인공지능(AI)이 우리의 일상의 편의를 넘어 인간의 '판단' 영역까지 침투하기 시작했다. 이로 인한 불안과 부작용도 함께 커지는 모습이다. 1997년 발매된 라디오헤드의 3집 앨범 ‘OK Computer’가 포착했던 세기말적 혼란이 2026년 AI 시대에 다시 소환되는 이유다. 이에 마이데일리는 기술이 일상에 깊숙이 들어오던 당시 인간이 느꼈던 불안과 혼란을 2026년 현재 AI 광풍 시대에 비춰보는 ‘OK AI’를 시작한다. 기술 진보 뒤에 숨은 변화와 균열, 이에 따른 우리가 마주한 질문 등을 짚어볼 예정이다.

AI 환각. /AI 생성 이미지

[마이데일리 = 박성규 기자] AI(인공지능)는 점점 더 정확해지고 있지만, 동시에 더 뻔뻔해지고 있다. 문제는 AI의 뻔뻔함 속에 가려진 오류다. 생성형 AI가 만들어내는 ‘환각(할루시네이션)’은 검색과 뉴스의 신뢰 체계를 구조적으로 흔들고 있다.

29일 AI업계에 따르면 생성형 AI 확산으로 정보 탐색 방식이 빠르게 바뀌고 있다. 이용자는 더 이상 여러 링크를 비교하지 않는다. 질문을 던지고, 하나의 답을 받는다. 편의성은 높아졌지만, 검증 과정은 사라지고 있다.

AI 환각은 기술적 결함이라기보다 설계 구조에 가깝다. 대형언어모델(LLM·방대한 데이터를 학습해 문장을 생성하는 AI)은 사실 여부를 확인하기보다 가장 그럴듯한 문장을 예측하는 방식으로 작동한다. 이 과정에서 존재하지 않는 정보나 잘못된 사실도 자연스럽게 만들어낸다.

문제는 ‘틀린 답’보다 ‘그럴듯한 답’이다. 완전히 틀린 정보는 걸러지지만, 일부만 틀린 정보는 오히려 더 쉽게 받아들여진다. 환각이 위험한 이유도 여기에 있다. 오류가 아니라 신뢰를 침식시키는 방식으로 작동하기 때문이다.

검색 구조 변화는 이 문제를 더 키운다. 기존 검색은 다양한 출처를 비교하며 정보를 검증하는 구조였다. 반면 AI 검색은 하나의 요약된 답을 제시한다. 이용자는 탐색 대신 수용을 선택하게 된다. 정보 유통 구조 자체가 ‘검증’에서 ‘의존’으로 이동하고 있는 셈이다.

뉴스 영역에서는 영향이 더 직접적이다. AI는 기사 내용을 요약하고 재구성하는 과정에서 맥락을 바꾸거나 사실 일부를 왜곡하기도 한다. 특히 출처를 혼합하거나 오래된 정보를 최신 정보처럼 제시하는 사례가 반복되면서, 정보 신뢰도에 대한 우려가 커지고 있다.

네이버 AI 브리핑. /네이버 검색 화면 캡처

플랫폼 기업들도 이 흐름에 올라타고 있다. 네이버는 검색 결과 상단에 ‘AI 브리핑’을 확대 적용하고 있으며, 쇼핑·지도 등 서비스 전반으로 확장을 준비하고 있다. 카카오 역시 메신저 기반 AI를 통해 이용자 접점을 넓히고 있다.

문제는 AI가 더 많은 행동을 대신할수록, 오류의 영향도 함께 커진다는 점이다. 기존에는 틀린 정보를 다른 링크로 교정할 수 있었지만, AI는 첫 답변이 곧 의사결정의 출발점이 된다. 잘못된 정보가 구매·예약·이동 등 후속 행동으로 이어질 경우 피해 규모도 커질 수밖에 없다.

플랫폼의 딜레마도 분명하다. AI는 체류시간과 수익을 동시에 끌어올리는 핵심 도구다. 그러나 환각 문제가 해결되지 않은 상태에서 서비스가 확장될수록, 잘못된 정보에 대한 책임도 플랫폼으로 집중된다. 특히 뉴스처럼 사실성이 중요한 영역에서는 책임 문제를 피하기 어렵다.

업계에서는 AI 경쟁의 기준이 ‘성능’에서 ‘신뢰’로 이동하고 있다는 분석이 나온다. 답변 속도나 자연스러움보다 정확성과 오류 관리 능력이 플랫폼 경쟁력을 가르는 핵심 요소로 떠오르고 있다는 것이다.

한 AI 업계 관계자는 “AI는 이미 충분히 유용하지만 완전히 정확하지는 않다”며 “앞으로는 잘 답하는 AI보다, 틀린 답을 통제하고 책임질 수 있는 AI가 더 중요한 경쟁력이 될 것”이라고 말했다.

Copyright ⓒ 마이데일리 무단 전재 및 재배포 금지
alert

댓글 쓰기 제목 [OK AI] 그럴듯한 ‘오답’의 시대…AI ‘환각’, 검색·뉴스 신뢰 흔든다

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중