상세 컨텐츠

본문 제목

"혹시 우리 학교도?" 전국을 덮친 딥페이크 성범죄

디지털콘텐츠/이슈리포트

by 디지털콘텐츠기업 성장지원센터 2024. 9. 24. 09:51

본문

  유명인의 얼굴을 다른 영상물에 합성시킨 딥페이크 영상, 유튜브에서 한 번쯤 접해보신 적 있으신가요? 딥페이크는 딥러닝(Deep learning)과 가짜(Fake)의 합성어로, 인공지능(AI) 기술을 기반으로 진짜 같은 가짜 사진·동영상을 만드는 기술입니다. 다양한 이미지와 영상을 손쉽고 빠르게 만들 수 있다는 장점이 있지만, 최근 텔레그램 등 SNS에서 얼굴 사진에 음란물을 합성해 유포하는 성범죄가 확산되고 있습니다. 우리의 일상에 파고든 딥페이크와, 디지털 성범죄를 해결하기 위한 움직임, 그리고 예방법에는 무엇이 있는지 함께 알아보겠습니다.

 

1) 일상을 위협하는 딥페이크: 알고 보면 주변에도 가해자가?

  최근 일반인의 얼굴을 다른 사람 신체와 합성한 딥페이크 피해 사례가 급부상하고 있습니다. 수도권의 한 대학생들이 텔레그램 대화방에서 여대생을 대상으로 딥페이크물을 제작·유포한 사례를 시작으로 디지털 성범죄가 연이어 수면 위로 드러나고 있습니다.

  직장 동료를 비롯한 지인 20여명의 얼굴 사진으로 딥페이크 성착취물을 만들고 다른 성착취물과 교환을 한 사례가 나타났습니다. 30A씨는 지난해 12월부터 올해 7월까지 텔레그램 AI 합성 프로그램을 통해 지인 24명의 얼굴 사진을 합성해서 딥페이크 성착취물 128개를 제작한 것으로 알려졌습니다. 피해자 중에는 직장 동료와 학교 동문 등 지인과 고등학생인 미성년자도 포함돼 있으며 가족도 있는 걸로 밝혀졌습니다. A씨는 지난달까지 텔레그램에 교환방을 개설해 운영했는데 여기서는 아동과 청소년 성착취물을 150여개를 유포하고 성착취물 9천여개를 수집한 것으로 전해졌습니다.

  10대 청소년과 교직원의 피해 사례가 잇따라 알려지며 학교를 덮친 딥페이크의 어둠이 큰 충격을 주고 있습니다. 교육부는 지난달 28일부터 이달 6일까지 전국 17개 시도교육청을 통해 집계한 학교 딥페이크 성범죄 피해 조사 결과 238건이 추가 접수됐다고 밝혔습니다. 현재까지 피해자는 누적 617명으로 학생이 95.3%588명이었으며 교원은 27(4.4%), 직원 등은 2(0.3%)이었습니다.

  AI 기술이 점점 발전하며 가짜와 진짜를 구분하기 어려워지고, 누구나 간단한 기술만 익히면 접근할 수 있다는 특성 때문에 우려가 더욱 커지고 있습니다. 방송통신심의위원회는 올해 1월부터 7월까지 성적 허위 영상물 6434건에 시정을 요구했지만, 피해자가 관련 사실을 인지하지 못해 신고로 이어지지 않는 경우가 있어 본격적인 조사가 시작되면 피해 사례는 크게 늘어날 전망입니다.

 

2) 오랜 디지털 성범죄의 역사: 1970년대 청계천에서 시작되다

  이러한 딥페이크 성범죄는 인공지능(AI) 기술을 이용한 신종 범죄처럼 보이겠지만, 영상을 매개로 한 디지털 성범죄는 사용 기술 등의 차이만 있을 뿐 과거부터 있었던 범죄입니다. 디지털 성범죄의 역사는 1970년대로 거슬러 올라갑니다. 당시 포르노 비디오등을 유통하는 암시장은 서울 청계천 등을 중심으로 형성됐습니다. 1990년대에는 여성 연예인뿐 아니라 일반인을 대상으로 한 불법 촬영물이 비디오 등으로 빠르게 유통됐습니다. 이후 초소형 카메라가 등장하는 등 기술이 고도화되며 몰카(몰래카메라)’로 불렸던 불법 촬영물 범죄가 성행하기도 했습니다.

  사회관계망서비스(SNS)로 주요 유통 플랫폼이 이동하면서 불법 성착취물은 더 광범위하게 퍼져갔습니다. 2019텔레그램 n번방 사건은 사회에 큰 파장을 일으켰는데요, 텔레그램을 통해 아동·청소년 성착취물·불법 촬영물, 지인의 얼굴을 딴 음란물을 조직적으로 제작하고 유포한 정황이 드러났습니다. 당시 ‘n번방에 참여해 불법 영상물을 보거나 유포한 사람은 최대 26만명인 것으로 추정됩니다.

 

3) 규제 밖에 숨은 딥페이크: 피해자는 있지만 가해자는 없습니다

  디지털 성범죄, 그 오랜 역사와 달리 아직까지 처벌 관련 규제는 미비하다는 점이 지적되고 있습니다. 최근 37개월간 아동 성착취물 제작 및 유포 혐의로 덜미를 잡힌 인원이 4,000명에 달하는 가운데 구속 상태로 검찰에 넘겨진 피의자는 260명 정도인 것으로 밝혀졌습니다. ‘아동성착취물 발생·검거·송치 현황'에 따르면 지난 2021년부터 올해 7월까지 아동·청소년의성보호에관한 법률 위반(아동성착취물의 제작·배포) 혐의로 경찰에 붙잡힌 인원은 총 4,057명입니다. 이 가운데 구속 상태로 검찰에 넘겨진 경우는 261명(6.4%)에 불과했습니다. 동일 기간 ’혐의 없음‘ 불송치 결정을 받은 인원583(14.3%)이었으며 지난해를 제외하고 100명 이상이 최종 무혐의 처분을 받았습니다.

  2011년 제정된 개인정보보호법은 개인정보 처리 및 보호 사항을 규정해 개인의 존엄과 권리를 보호하는 게 목적입니다. 정보 주체의 권리나 개인정보처리자의 의무를 규정하고 있으며, 처벌보다는 권리 보호가 주목적인 만큼 큰 틀에서만 금지 행위를 규정합니다. 하지만 딥페이크 음란물은 이 규제의 범위 밖에 있습니다. 딥페이크 음란물이 개인정보에 해당하더라도 이를 만들고 유포한 개인을 개인정보처리자로 볼 수 없기 때문입니다. 개인정보보호법은 개인정보처리자를 업무 목적으로 개인정보파일을 운용하기 위해 개인정보를 처리하는 공공기관, 법인, 단체, 개인으로 정의합니다. 일반인이 소유하거나 지인에게 공유할 목적으로 딥페이크 영상을 만들경우 처벌 범주에 포함되지 않습니다.

  현 시점에서 딥페이크 범죄를 처벌할 수 있는 조항은 이른바 N번방 방지법(성폭력범죄의 처벌 등에 관한 특례법)과 공직선거법뿐입니다. 이 역시 영상물을 배포할 목적을 입증하지 않으면 처벌이 어렵거나 선거운동이라는 특별한 경우에만 해당됩니다. 따라서 정보처리자의 범위를 넓히는 것보다 딥페이크 관련 별도 처벌 근거를 만들어야 한다는 지적이 나오고 있습니다.

 

4) 딥페이크 성범죄를 막기 위한 움직임: 정치권, 기업, 그리고 개인의 노력

#입법 논의

 

  정치권에서는 딥페이크 성범죄와 관련한 입법 논의를 진행하고 있습니다. 국민의힘 딥페이크 디지털 성범죄 대응 특별위원회는 지난 111차 회의를 열어, 딥페이크를 활용한 성착취물을 소지하거나 2차 가해 행위가 이뤄졌을 경우에 대한 처벌 방안을 마련하기로 했습니다. 더불어민주당은 지난 11일 딥페이크성범죄·디지털성폭력근절대책 특별위원회를 구성했습니다. 1차 회의를 통해, 딥페이크 영상물의 처벌 범위를 넓히고 범죄수익을 반드시 몰수하게 하는 성폭력처벌법 개정과 2차 피해 확산을 막는 성폭력방지법 개정, 통신서비스 제공자 책임을 강화하는 정보통신망법 개정을 이달에 추진하기로 했습니다.

#플랫폼 업체와 인공지능 기업의 사회적 책임

  정보기술(IT) 업계에서는 플랫폼 업체들이 적극적으로 나서서 이용자 개인정보가 범죄에 악용되는 걸 막아야 한다는 목소리가 나오고 있습니다. 범죄 행위가 벌어질 수 있는 곳곳에 기술적 안전장치를 둬서, 이용자가 위험에 노출될 가능성을 최대한 줄여야 한다는 요구입니다. 대표적인 장치로는 프로필 사진을 누구에게 노출할지 이용자가 직접 정하도록 하는 것입니다. 세계 최대 구인·구직 및 경력관리 사회관계망서비스(SNS) ‘링크트인은 이용자가 자신의 프로필 사진과 실명, 소속 기업 등 개인정보의 공개 범위를 설정할 수 있도록 했습니다. 한편 카카오는 카카오톡 이용자들의 지속적인 요구를 받아들여, 지난해 전화번호를 저장해도 자동으로 친구 추가가 되지 않도록 하는 기능을 도입했습니다. 앞서 2020년에는 상대에 따라 카카오톡 프로필을 다르게 보여주는 멀티 프로필기능을 도입하기도 했습니다.

  또한 인공지능 기업의 사회적 책임을 강화해야 한다는 지적도 잇따라 나오고 있습니다. 최근 인기 카메라 애플리케이션 소다가 여성 이용자의 의사와 상관없이 성적 불쾌감을 일으키는 사진을 인공지능으로 생성한다는 것이 알려졌습니다. 하지만 소다를 만든 네이버의 자회사 스노우인공지능 생성물을 100% 통제할 수 없다는 입장을 내놓았는데요. 이에 한 시민단체는 인공지능 기술 기업은 성착취라는 매우 중대한 사회적 문제를 방지하기 위한 주의 의무를 다해야 하며, 특히 구체적 피해 사례가 발생했을 때 적극적인 조치를 취해야 한다며 주장했습니다. 이들은 결과물 생성이 최종 이용자의 조작 또는 오남용에 따른 문제라 하더라도 해당 AI 도구를 제공한 기업의 책임도 존재한다는 점을 강조했습니다.

#딥페이크 성범죄 예방법

  그렇다면 일상 속에서 딥페이크 범죄를 예방하기 위한 방법에는 무엇이 있을까요? 우선 SNS상에서 만난 사람과 학교, 연락처 등의 개인정보를 공유하지 말아야 합니다. 또 개인정보를 유추할 수 있는 게시물은 비공개로 하는 것이 좋습니다. 만약 자신을 비롯한 지인들의 딥페이크 피해가 발생했을 경우 곧바로 경찰청(112)으로 연락해야 합니다. 여성가족부 산하 한국여성인권진흥원 내 설치된 디지털성범죄피해자지원센터에서는 성적 허위영상물 관련 상담, 삭제지원 및 유포 여부 모니터링, ·법률·의료(심리상담치료 등) 지원 연계 등 종합적인 서비스를 지원하고 있습니다. 피해 지원 상담이 필요한 경우, 365일 운영되는 상담전화(02-735-8994) 또는 홈페이지(d4u.stop.or.kr)을 통해 피해상담을 신청하면 됩니다.

  유네스코는 지난해 낸 보고서에서 기술이 촉진한 성별 기반 폭력은 아주 오래된 학대’(chronic abuse)의 또 다른 형태라며 일시적인 피해 예방 도구는 꾸준히 대규모로 이뤄지는 학대 앞에 무력해지기 쉽다고 짚었습니다. 그러면서 포털, 사회관계망서비스 등이 비속어나 성적 불쾌감을 유발하는 단어를 걸러내는 필터를 도입하자 악성 이용자들이 철자를 일부러 틀리게 적는 등 우회로를 금세 찾아낸 것을 예로 들었습니다.

이처럼 딥페이크 음란물과 같은 디지털 범죄를 막기 위해서는 기술적인 노력만으로는 부족합니다. 적절한 처벌 규제를 마련하고, 관련 기업은 사회적 책임을 다하며, 시민단체 및 개인은 이들을 감시하며 올바른 자세로 기술을 이용하는 태도가 필요합니다. 우리 모두의 노력으로 발전된 기술을 모두가 행복하게 사용할 수 있는 디지털 세상이 되기를 기원합니다. 이상으로 디지털콘텐츠기업 성장지원센터 제9SNS 기자단이었습니다.

 

* 참고자료

https://www.newsis.com/view/NISX20240917_0002890065

https://news.bizwatch.co.kr/article/mobile/2024/09/13/0026

https://www.newsis.com/view/NISX20240909_0002880883

https://www.khan.co.kr/national/incident/article/202409161646001

https://view.asiae.co.kr/article/2024091117120536333

https://biz.sbs.co.kr/article/20000191898?division=NAVER

https://www.hani.co.kr/arti/society/women/1158642.html

https://www.womennews.co.kr/news/articleView.html?idxno=252137

https://www.hani.co.kr/arti/society/women/1158642.html

https://www.womennews.co.kr/news/articleView.html?idxno=252137

https://www.munhwa.com/news/view.html?no=2024091601039910314001

관련글 더보기

댓글 영역