[OK AI] 진짜보다 더 정교한 가짜…AI 영상·이미지, 사회 기반 흔든다

마이데일리

[편집자 주] 인공지능(AI)이 우리의 일상의 편의를 넘어 인간의 ‘판단’ 영역까지 침투하기 시작했다. 이로 인한 불안과 부작용도 함께 커지는 모습이다. 1997년 발매된 라디오헤드의 3집 앨범 ‘OK Computer’가 포착했던 세기말적 혼란이 2026년 AI 시대에 다시 소환되는 이유다. 이에 마이데일리는 기술이 일상에 깊숙이 들어오던 당시 인간이 느꼈던 불안과 혼란을 2026년 현재 AI 광풍 시대에 비춰보는 ‘OK AI’를 시작한다. 기술 진보 뒤에 숨은 변화와 균열, 이에 따른 우리가 마주한 질문 등을 짚어볼 예정이다.

X에 퍼진 미군 포로 장면 이미지. 미군 특수부대가 이란군에 붙잡힌 것처럼 묘사됐지만 로이터 통신은 해당 이미지들이 인공지능으로 제작된 가짜 콘텐츠라고 보도했다. /X 캡처

[마이데일리 = 박성규 기자] AI가 만든 ‘진짜 같은 가짜’가 사회 기반을 흔들고 있다. 영상과 이미지마저 믿기 어려워지면서 딥페이크는 범죄와 시장 교란을 넘어 신뢰 체계 자체를 위협하는 수준으로 확산됐다.

1일 AI 업계에 따르면 생성형 AI 확산으로 이미지·영상 위조 비용은 급격히 낮아졌다. 과거 전문 장비와 인력이 필요했던 합성 작업이 이제는 공개 모델과 앱만으로 가능해졌다. 기술 장벽이 낮아진 만큼 허위정보 확산 속도는 빨라졌고, 피해 범위도 개인을 넘어 시장과 공적 신뢰까지 확대되고 있다.

가짜 이미지는 이미 전쟁 현장에서 확산되고 있다. 중동 분쟁 이후 소셜미디어에는 실제 전투처럼 보이는 AI 생성 영상과 이미지가 대량 유통됐다. 텔아비브 대규모 폭격 장면이나 미군 포로 영상 등 사실로 확인되지 않은 콘텐츠가 엑스(X), 틱톡, 페이스북 등에서 빠르게 퍼졌다.

뉴욕타임스(NYT) 등 외신에 따르면 최근 2주 동안 확인된 전쟁 관련 AI 생성 콘텐츠만 110건 이상이다. 해당 영상과 이미지는 수백만 회 이상 조회되며 확산된 것으로 파악됐다.

NYT는 “정교한 AI 도구의 등장으로 비용을 거의 들이지 않고도 실감 나는 가짜 영상 제작이 가능해졌다”며 “우크라이나 전쟁 당시보다 훨씬 더 많은, 그리고 더 정교한 AI 영상을 접하고 있다”고 진단했다.

미국과 이란 간의 군사적 충돌이 격화되는 가운데, 온라인상에 인공지능(AI)으로 조작한 가짜 전쟁 영상과 이미지가 확산돼 우려를 낳고 있다. /X 갈무리

실제 피해도 빠르게 늘고 있다. 지난해 홍콩에서는 회사 임원을 사칭한 딥페이크 화상회의로 거액 송금이 이뤄진 사건이 발생했다. 국내에서는 학생과 교원을 겨냥한 딥페이크 성범죄가 학교 현장을 뒤흔들었다. 교육당국 집계 기준 관련 피해 신고는 수백건 단위로 발생했고, 누적 피해 규모는 더 커진 것으로 파악된다. 경찰도 별도 특별단속에 착수했다.

딥페이크의 위협은 기술 정교화보다 유통 구조 변화에서 더 크게 나타난다. 메신저와 숏폼 플랫폼, 온라인 커뮤니티를 거치는 동안 검증보다 확산이 먼저 이뤄진다. 한 번 퍼진 콘텐츠는 삭제 이후에도 피해가 남는다. 특히 선거, 재난, 기업 평판, 금융 거래처럼 속도가 중요한 영역에서는 ‘확인 전 확산’이 가장 큰 리스크로 작용한다.

문제는 사회가 여전히 이미지와 영상을 가장 강력한 증거로 받아들인다는 점이다. 텍스트보다 시각과 청각 정보에 대한 신뢰가 높기 때문이다. 생성형 AI는 이 지점을 정교하게 파고든다. 완전히 새로운 거짓보다 실제 인물과 상황을 일부 변형하는 방식이 더 큰 혼란을 만든다.

제도 정비도 시작됐다. 지난 1월 22일 시행된 인공지능 기본법은 생성형 AI 결과물에 대한 표시 의무를 도입했다. 선거 분야에서는 공직선거법이 딥페이크 영상의 사용을 선거일 전 90일부터 제한하고, 그 외 기간에도 표시 의무를 규정하고 있다. 성범죄 영역에서도 허위영상물 제작과 유포에 대한 처벌이 강화됐다.

딥페이크. /게티이미지뱅크

다만 현재 제도의 중심이 ‘표시’에 머물러 있다는 점은 한계로 지적된다. 워터마크는 제거될 수 있고, 비가시성 표식은 이용자가 직접 확인하기 어렵다. 표시 의무만으로는 유통 과정에서 발생하는 혼란을 막기 어렵고, 책임 주체 역시 명확하지 않다는 지적이 이어진다.

이에 따라 기술적 대응도 다층 구조로 전환되는 흐름이다. 생성 단계의 워터마킹, 유통 단계의 라벨링, 사후 탐지와 차단, 그리고 제작 이력을 기록하는 출처 인증 기술이 함께 논의되고 있다. 대표적으로 콘텐츠 생성·수정 이력을 기록하는 표준 기술인 C2PA와, AI 생성물에 보이지 않는 표식을 삽입하는 기술 등이 확산되고 있다. 단순 탐지를 넘어 콘텐츠 이력 전체를 검증하는 구조로 전환해야 한다는 방향이 제시된다.

플랫폼 책임도 강화되는 흐름이다. 네이버와 카카오 등 국내 플랫폼은 AI 생성 콘텐츠 표시를 확대하고 있으며, 글로벌 플랫폼 역시 합성 콘텐츠에 대한 라벨링과 공개 의무를 강화하고 있다. 다만 업계에서는 표시 자체보다 차단 속도와 재유통 방지, 피해자 대응 체계가 핵심 경쟁 요소로 떠오르고 있다는 평가가 나온다.

업계에서는 AI 경쟁의 기준도 ‘얼마나 정교하게 만들 수 있느냐’에서 ‘얼마나 투명하게 밝히고 통제할 수 있느냐’로 이동하고 있다는 분석이 나온다.

한 AI 업계 관계자는 “딥페이크는 기술 문제가 아니라 신뢰를 겨냥한 정보 범죄로 진화했다”며 “앞으로는 AI 성능보다 결과물의 출처와 책임을 끝까지 설명할 수 있는 능력이 기업 경쟁력을 좌우하게 될 것”이라고 말했다.

Copyright ⓒ 마이데일리 무단 전재 및 재배포 금지
alert

댓글 쓰기 제목 [OK AI] 진짜보다 더 정교한 가짜…AI 영상·이미지, 사회 기반 흔든다

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중