결의 통해 AI 견제하는 UN, 한국 ‘AI 범죄’ 규제 손질은 언제쯤

160X600_GIAI_AIDSNote
UN, 신흥국의 AI 활용·AI 기술 악용 위험에 주목
범람하는 딥페이크 피해, AI도 잘못 쓰면 독이다
AI 범죄에 너그러운 한국, 규제 재정비 필요해
AI_UN_20240322

UN(국제연합)에서 인공지능(AI) 관련 결의가 최초 공식 채택됐다. UN 회원국들은 21일(현지시간) 미국 뉴욕 유엔본부에서 총회를 열고, 미국 주도로 제출한 AI 관련 결의안을 표결 없이 컨센서스(전원동의)로 채택했다. 해당 결의는 딥페이크 등 부작용은 최소화하는 한편, 저개발국도 AI의 긍정적 효과를 누릴 수 있도록 노력하는 것을 골자로 한다.

UN의 사상 최초 ‘AI 결의’

UN 측의 결의에는 안전하고 신뢰할 수 있는 AI 시스템을 구축하기 위해 △모든 국가와 지역 △국제기구 △기술 커뮤니티 △시민사회 △언론 △학계 △연구기관 △개인 등이 나서야 한다는 내용이 담겼다. 선진국과 신흥국 간 디지털 격차 해소 역시 결의의 핵심으로 지목됐다. AI 관련 논의에서는 모든 회원국이 참여해야 하며, 신흥국도 △질병 진단 △홍수 예방 △농업 생산성 향상 △직업 교육 등 다방면에서 AI의 혜택을 누릴 수 있도록 도와야 한다는 것이다.

UN은 적절한 안전장치 없이 AI를 사용하거나, 국제법을 위배해 관련 기술을 사용해서는 안 된다고 강조했다. AI를 부적절하거나 악의적으로 설계·개발·배포·사용해선 안 된다는 경고의 메시지도 전했다. 단 AI 사용을 둘러싼 최대 우려 사항으로 꼽히는 군사기술 접목에 관해서는 직접적으로 언급하지 않았다. 이번 유엔총회 결의에는 국제법상 구속력이 없으나, 차후 국제사회의 AI 관련 규제 체계 확보의 ‘기준점’ 역할을 수행하게 될 것으로 보인다.

한편 린다 토머스-그린필드 주유엔 미국대사는 총회 연설에서 “딥페이크와 같은 AI가 생성한 콘텐츠는 정치적 논쟁의 진실성을 훼손할 가능성이 있고, 알고리즘의 편향은 사회 분열과 소수자 차별을 심화시킬 수 있다”며 안전한 AI 사용에 관한 국제적인 합의 마련이 필요하다고 짚었다. 채택 후 회견에서는 “오늘 총회에서 193개 회원국 모두가 한목소리로 AI가 우리를 지배하는 게 아니라, 우리가 AI를 지배하기로 결정했다”며 “획기적인 결의”라고 강조하기도 했다.

AI 기술 발전의 그림자

UN 측이 AI 기술의 ‘위험성’을 주시하는 이유는 무엇일까. 최근 세계 곳곳에서는 AI 기술 발전에 따른 피해 사례가 잇따르고 있다. 특정인의 얼굴과 목소리를 활용해 ‘가짜 콘텐츠’를 만들어내는 딥페이크(Deepfake) 범죄가 대표적인 예다. 딥페이크는 AI와 딥러닝을 활용한 인간 이미지·음성 합성 기술로, 생성형 AI의 발전과 함께 새로운 사회적 문제로 거론되고 있다. 특정인의 이미지를 활용한 음란물, 정치인의 얼굴을 합성한 가짜 뉴스 등 유해한 딥페이크 콘텐츠가 범람하고 있기 때문이다.

최근에는 조르자 멜로니 이탈리아 여성 총리가 딥페이크 음란물 관련 피해를 입기도 했다. 범인으로 지목된 두 명의 남성은 특정 소프트웨어를 사용해 음란물 여배우의 몸에 멜로니 총리의 얼굴을 합성, 미국 포르노 사이트에 공개한 것으로 확인됐다. 해당 동영상은 지난 몇 달 동안 포르노 사이트 내에서 수백만 건의 조회 수를 기록했다. 멜로니 총리는 가해자들을 대상으로 10만 유로 규모의 손해배상 청구 소송을 제기한 상태다.

지난 1월에는 X(옛 트위터) 등 SNS에서 미국의 유명 팝 가수 테일러 스위프트(Taylor Swift)의 사진을 악용한 불법 딥페이크 포르노 영상이 무차별 확산되는 사건이 벌어졌다. 해당 영상을 게재한 특정 게시물은 삭제되기 전까지 2만4,000회가량 공유됐고, 4,500만 회 이상의 조회수를 기록했다. AI 관련 기술 활용이 익숙하지 않은 일반인도 손쉽게 딥페이크 콘텐츠를 만들 수 있는 환경이 구축된 가운데, 업계에서는 차후 관련 피해가 유명인을 넘어 일반인 대상으로 빠르게 확대될 수 있다는 전망이 흘러나온다.

deepfake_20240320-1

한국, AI 관련 범죄 사실상 방치?

AI 기술 발전에 대한 국제적 경각심이 높아지는 가운데, 전문가들은 한국의 딥페이크 규제가 사실상 무의미한 수준이라는 지적이 제기된다. 2020년 6월 도입된 ‘딥페이크 처벌법(개정 성폭력처벌법 제14조의2)’에 따르면, 반포 등의 목적으로 사람의 얼굴·신체·음성을 대상으로 한 영상물을 제작한 자는 5년 이하의 징역 또는 5,000만원 이하의 벌금형에 처해질 수 있다. 영리 목적으로 제작한 자는 7년 이하의 징역으로 가중 처벌된다.

문제는 해당 법안이 ‘반포’ 등 딥페이크 영상 제작 목적에 초점을 맞추고 있다는 점이다. 타인의 사진을 무단으로 이용한 딥페이크 음란물을 의뢰·소지·보관하는 행위 자체는 사실상 처벌 대상이 아니라는 의미다. 법조계에 따르면, 올해 초 기준 국내 딥페이크 처벌 사례는 약 70건 남짓이다. 이중 절반 이상은 집행유예 처벌을 받았으며, 징역 등 실형을 선고받은 이는 5~6명에 그친다. 처벌을 위한 법적 근거가 부족해 솜방망이 처벌이 이어지고 있는 것이다. 피해자의 정신적 피해 등은 이미 논의 대상에서 제외된 지 오래다.

딥페이크와 같은 AI 악용 사례는 사회를 갉아먹는 어엿한 범죄다. IT 업계에서는 딥페이크와 같은 AI 발전의 ‘그림자’를 걷어낼 때라는 주장이 제기된다. 딥페이크 범죄의 특징과 관련 피해를 정확히 이해하고, 보다 실효성 있는 대책을 마련해야 한다는 지적이다. 일각에서는 UN의 결의안에 이렇다 할 구속력이 없는 만큼, 정부가 해당 결의안을 기준 삼아 새로운 규제 체계를 구축할 필요가 있다는 비판도 흘러나온다.