연합뉴스

[K-VIBE] 임기범의 AI혁신 스토리…AI 생성물 표시제, 플랫폼을 디지털검문소로

입력 2026-03-31 14:00:07

다음 내용이 궁금하다면?

불편하시다면 뒤로 가기를 눌러주세요



[※ 편집자 주 = 한국국제교류재단(KF)의 2024년 발표에 따르면 세계 한류 팬은 약 2억2천500만명에 육박한다고 합니다. 또한 시간과 공간의 제약을 초월해 지구 반대편과 동시에 소통하는 '디지털 실크로드' 시대도 열리고 있습니다. 바야흐로 '한류 4.0'의 시대입니다. 연합뉴스 동포·다문화부 K컬처팀은 독자 여러분께 새로운 시선으로 한국 문화를 바라보는 데 도움이 되고자 전문가 칼럼 시리즈를 준비했습니다. 시리즈는 매주 게재합니다.]




임기범 서울과학종합대학원 대학교 객원교수

[본인 제공]



지난 2024년 8월, 국내 학교를 중심으로 학생 얼굴을 합성한 딥페이크 음란물이 텔레그램을 통해 순식간에 퍼져 나갔다. 피해 학생들과 학부모들 사이에서는 자신의 사진이 악용된 것은 아닌지 불안이 급속히 확산됐다. 경찰 수사가 시작됐을 때는 이미 해당 콘텐츠가 여러 대화방과 이용자들을 거치며 빠르게 퍼진 뒤였다. 이 사건이 보여준 것은 단순하다. 문제의 핵심은 AI 생성물이 만들어지는 순간이 아니라 그것이 유통되는 순간 사회적 재난이 된다는 사실이다.


지난 칼럼에서 필자는 AI 생성물에 대한 의무적 표시제 도입이 필요하다고 주장했다. 기술이 인간의 눈을 속이기 시작한 시대에 최소한의 정직함을 담보할 법적 장치가 필요하다고 봤기 때문이다. 그러나 이제는 그 논의를 한 단계 더 밀어붙여야 한다. 생성 단계에서 워터마크를 넣는 것만으로는 충분하지 않다. 보이지 않는 신호는 일반 이용자가 확인할 수 없고, 눈에 보이는 표시는 악의적인 사용자에 의해 잘리거나 지워질 수 있다. 파일 안에 흔적을 심는 것만으로는 사회를 지킬 수 없다.


이제 논의의 중심을 '생성'에서 '유통'으로 옮겨야 한다. 딥페이크나 가짜 뉴스가 실제로 독이 되는 지점은 그것이 만들어지는 순간이 아니라 SNS와 메신저 등의 유통채널을 통해 기하급수적으로 퍼져나가는 순간이기 때문이다. 우리는 이제 카카오톡, 페이스북, 인스타그램, 유튜브와 같은 거대 플랫폼에 '디지털 검문소' 역할을 요구해야 한다. 생성자의 양심에만 기대는 시대는 이미 끝났다.


핵심은 플랫폼의 자동 검사 의무화다. 사용자가 이미지, 영상, 음성을 업로드하거나 전달하려는 순간 플랫폼은 AI 생성 여부를 자동으로 확인하고, 그 결과를 사용자 인터페이스에 즉시 반영해야 한다. 여기서 중요한 것은 특정 기술 하나를 강제하는 일이 아니다. C2PA와 같은 출처·이력정보, SynthID와 같은 디지털 워터마크, 콘텐츠 특징값 분석, 업로더의 자기고지, 그리고 자체 탐지 기술 등 가능한 수단을 종합적으로 활용해 가장 신뢰할 수 있는 판단을 하라는 것이다. 법이 강제해야 할 것은 기술의 종류가 아니라 결과의 책임이다.


표시 방식 또한 지금보다 훨씬 직관적이어야 한다. 장황한 경고문 몇 줄로는 이용자의 주의를 붙잡기 어렵다. 카카오 알림톡의 공식 채널인증 마크처럼 신뢰 상태를 한눈에 알 수 있는 배지를 붙이거나, 영상과 이미지에 별도의 테두리 색상을 적용하는 방식이 훨씬 효과적이다. 이용자는 콘텐츠를 읽기 전에 이미 그 콘텐츠의 위험도와 검증 상태를 시각적으로 인지할 수 있어야 한다.


이를 위해 나는 '3단계 식별 체계' 도입을 제안한다. 플랫폼은 콘텐츠를 'AI 생성물임이 거의 확실한 경우', 'AI 생성물일 가능성이 있는 경우', 'AI 생성물이 아닐 확률이 높은 경우'의 세 단계로 구분해 표시할 수 있다. 오늘날의 기술로 모든 콘텐츠를 흑백처럼 단정하기는 어렵다. 따라서 중요한 것은 완벽한 판정 그 자체가 아니라, 이용자가 해당 콘텐츠의 위험성과 신뢰 수준을 한눈에 가늠할 수 있도록 돕는 것이다. 지금 필요한 것은 파일 속에 숨겨진 표식이 아니라, 화면 위에서 누구나 즉시 이해할 수 있는 명확한 신호다.


물론 오류 가능성은 있다. 실제 사람이 만든 콘텐츠가 AI 생성물로 잘못 표시될 수도 있고, 반대로 AI 생성물이 사람의 창작물처럼 빠져나갈 수도 있다. 그러나 그렇다고 해서 표시 의무 자체를 포기하자는 것은 무책임한 결론이다. 오탐(잘못된 탐지)과 누락은 제도를 멈춰야 할 이유가 아니라 제도를 더 정교하게 설계해야 할 이유다. 이의제기와 정정 절차를 두고, 검출 정확도가 반복적으로 문제 되는 플랫폼에는 개선 의무와 법적 책임을 부과하면 된다. 완벽하지 않다는 이유로 아무 장치도 두지 않는 편이 훨씬 위험하다.


굳이 이런 내용을 법으로 강제할 필요가 있느냐는 의문을 제기할 수도 있을 것이다. 플랫폼이 알아서 경쟁하고, 이용자들이 더 안전한 서비스를 선택하면 되는 것 아니냐는 시각이다. 하지만 이 문제는 그렇게 단순하지 않다. 이용자는 어떤 플랫폼이 무엇을 얼마나 잘 걸러내는지 정확히 알기 어렵고, 카카오톡과 같은 대형 플랫폼은 네트워크 효과가 워낙 강해 마음에 들지 않는다고 해서 쉽게 떠나기도 어렵다. 게다가 딥페이크 피해는 특정 이용자 개인의 선택으로만 끝나는 문제가 아니다. 피해자는 그 플랫폼을 쓰지 않는 사람일 수도 있고, 이미 콘텐츠가 돌고 난 뒤에는 회복 자체가 거의 불가능하기 때문이다. 이런 문제를 시장의 자율 정화만 믿고 맡겨두는 것은 지나치게 낙관적이다.


카카오톡 같은 사적 메시징 공간에 대해서는 프라이버시 우려가 제기될 수도 있다. 그러한 우려를 가볍게 넘길 수는 없다. 그러나 국내 최대 메신저 플랫폼을 제도 밖에 그대로 두는 것이야말로 더 큰 위험을 내재하는 것이다. 필요한 것은 제외가 아니라 정교한 설계다. 사람이 내용을 들여다보는 감시가 아니라 기계판독 가능한 출처 신호와 기술적 단서를 자동으로 확인하고 그 결과를 시각적으로 표시하는 방식으로 설계해야 한다. 사생활 보호와 피해 예방은 양자택일의 문제가 아니라 함께 조정해야 할 과제다.


AI 생성물 시대에 정말 필요한 것은 파일 속에 숨겨진 종이 방패가 아니다. 콘텐츠가 네트워크를 타고 퍼져나가는 바로 그 순간, 이용자에게 "이것은 AI가 만든 것일 수 있다"고 명확히 알려주는 디지털 검문소다. 완벽한 기술이 준비될 때까지 기다릴 여유는 없다. 딥페이크 피해자는 누군가의 판단이 유보되는 그 시간에도 계속 늘어나고 있기 때문이다. 지금 당장 시작할 수 있는 가장 현실적인 규제는 이 검문소를 법으로 세우는 일이다.


임기범 인공지능 전문가


▲ 서울과학종합대학원 대학교(aSSIST) 객원교수 ▲ 현 AI경영학회 상임이사 겸 학술분과 위원장 ▲ ㈜컴팩 CIO ▲ 신한 DS 디지털 전략연구소 근무



인기상품 확인하고 계속 읽어보세요!

5

원치 않을 경우 뒤로가기를 눌러주세요.

연합뉴스 콘텐츠 더보기

해당 콘텐츠 제공사로 이동합니다.

많이 본 최근 기사

관심 많은 기사