상세 컨텐츠

본문 제목

딥페이크 기술로 인한 디지털 휴먼 시대 속 양날의 검

디지털콘텐츠/이슈리포트

by 디지털콘텐츠기업 성장지원센터 2022. 4. 22. 14:27

본문

가상인간은 우리에게 가깝고도 먼존재이다. 가속화되는 디지털 혁신 시대 속에서, AI를 기반으로 한 디지털 휴먼의 대중화가 이루어지고 있다. 현재 디지털 휴먼은 다양한 분야에서 지속적으로 혁신 기술을 선보이며 우리 일상 속 밀접한 관계를 맺고 있다.

 

현대사회에서는 AI 아나운서가 새로운 뉴스를 알리고, 버추얼 아티스트가 음반을 발매한다. 사람들은 가상 인플루언서와 소통하고, AI 금융 안내원 지시에 따라 자산을 관리하기도 한다. 객 응대, 교육, 엔터테인먼트 등 다양한 분야에서 가상인간이 활용되고 있는 것이다.

 

최근 여러 분야 기업들이 디지털 휴먼 제작 기술 활용으로 버추얼 휴먼(가상인간)을 발표하고 있다. 해당 버추얼 휴먼들은 외관상 현실세계 모델과 매우 흡사하여 구분이 어려울 정도이다. ICT 기술 발전과 함께 버추얼 휴먼의 외모가 실제 인간과 매우 흡사해진 것을 알 수 있다. 이처럼 기술의 발전으로 진짜가짜를 구별해내기 어려운 수준까지 이르렀다.

 

< 출처 : "코트라, 해외시장정보 소개 'AI 아나운서' 도입",<중소기업신문>,2022.04.13. >

 

< 출처 : "CJ ENM, 디지털 신사업 박차 '가상인간 한유아 가수 데뷔'",<JTBC뉴스>,2022.04.11. >

 

버추얼 휴먼의 외적인 모습은 딥페이크 기술로 설명될 수 있다. 딥페이크(deepfake)는 딥러닝(deep learning)과 페이크(fake)의 합성어로, 적대관계생성신경망(GAN: Generative Adversarial Network)이라는 기계학습 기술을 활용하여, 기존 사진이나 영상을 원본에 겹쳐서 만들어낸다. 생성적 대립 신경망은 생성모델과 판별모델로 구성되어있다. 생성모델은 가짜 예제를 만들어 판별모델을 최대한 속일 수 있도록 훈련되고, 판별모델은 생성모델이 제시하는 가짜 예제와 실제 예제를 최대한 정확하게 구분할 수 있도록 훈련된다. 이러한 대립적 프로세스를 통해 반복적인 훈련을 거치며 생성적 대립 신경망은 생성모델과 판별모델을 발전시키고, 실제 예제와 매우 비슷한 유사품(실제 같은 가짜)을 생성한다.

 

, 실제 생성하고자 하는 모델과 데이터를 기반으로 하여 진위여부를 판별하는 모델 사이의 끊임없는 기계학습을 통하여, 정교하고 실제 인간과 똑같은 모습을 만들어내는 것이다.

 

< 출처 : 생성적 대립 신경망(GAN) - 디지털콘텐츠기업 성장지원센터 제7기 SNS 기자단 제작 >

 

딥페이크 기술은 영상 제작 업계에서 활발히 활용되고 있다. 딥페이크 기술 이전에는 CG(Computer Graphics)기술을 활용하였으나, 제작비용이 많이 들고 전문적인 기술 활용이 가능한 전문가가 필요하였다. 이러한 경제적, 기술적 부담이 딥페이크 기술 보급을 통하여 완화될 수 있었다. 또한 이는 의료분야에서도 활용되고 있다. 실제로 뤼벡 연구진은 딥러닝 알고리즘의 이미지 패턴매칭 기능을 활용해 질병 진단용 기술을 개발하였다. 이 기술은 다양한 종류의 암 진단을 할 수 있도록 학습하고, 영상의학 자료를 분석하여 암을 진단하는데 활용된다.

 

이렇듯 딥페이크 기술은 무궁무진한 발전가능성을 보여주지만, 그만큼 악용된다면 매우 위험한 기술일 것이다. 최근 SNS에서는 딥페이크 기술을 활용한 앱으로 사진, 영상을 합성하는 일명 인싸놀이가 유행하고 있다. 이는 페이스플레이’, ‘리페이스등 합성 앱만 다운로드해 실행시키면 별다른 기술 없이 누구나 딥페이크 기술로 영상과 사진을 만들어낼 수 있다.

 

하지만 손쉽게 접할 수 있는 이 딥페이크 기술은 양면의 칼날과 다름이 없다. 버추얼 휴먼의 대상이 자신이 된다면 어떠할까? 자신도 모르는 사이 타인이 나와 똑같은 버추얼 휴먼을 만들어 사진과 영상을 유포한다면 이는 초상권 침해와 명예훼손으로, 범죄에 해당할 것이다. 이처럼 온라인에서는 본인이 아닌 타인에 의해 자신이 찍지 않은 사진이나 영상이 만들어지는 행위가 벌어지고 있다. 최근에는 이러한 행위의 대상이 연예인을 넘어서 일반인들에게까지도 자주 나타나 그 피해자가 늘고 있으며, 이에 대한 부정적인 시각 또한 늘고 있다.

디지털성범죄 피해자지원센터가 20209월부터 12월까지 18,191건의 불법합성물을 직접 추적한 결과, 아이돌 및 가수(71%), 배우(5.5%) 등 유명인이 피해가 컸지만, 학생·직장인을 대상으로 한 딥페이크 영상도 19.5%를 차지했다.

 

딥페이크 범죄의 시작이 유명 연예인의 성착취물이었던 만큼, 이 기술은 교묘하고 다양한 디지털 범죄를 유발하고 있다. 이에 따라 디지털 범죄에 대한 합당한 처벌이 대두되고 있다.

과거에는 딥페이크 기술과 관련된 피해를 입어도 제대로 손해배상을 받을 수 없어 위자료 청구로 결말짓는 피해자가 대부분이었다. 하지만 늘어나는 디지털 범죄로 인하여 법무부는 민법에 인격권 조항을 새로 만들고, 손해배상 청구가 가능한 근거를 만들어 강력한 대응이 가능하도록 주장하였다.

최근 정부는 초··고등학생별 맞춤형 디지털 성범죄 예방교육 온라인 플랫폼을 구축하였다. 온라인 기반 디지털 성범죄 예방사이트를 통하여 접속한 학생별 눈높이에 맞춘 콘텐츠 학습이 가능하도록 구성되었다. 콘텐츠를 통하여 청소년들이 디지털 환경에서 발생하는 성범죄를 이해하고 알맞은 대응법을 학습할 수 있도록 제작한 것이다. 디지털 성범죄 유형이 다양해지고 있는 요즘, 예방교육의 중요성이 부각되고 있기에 안전한 환경에서 디지털 매체를 이용할 수 있는 방법을 내놓은 것이다.

 

< 출처 : 디클, https://dicle.kigepe.or.kr/kigepe/intro.do >

 

딥페이크 기반 가짜뉴스와 가짜영상은 많은 사람들을 속여 사회적 혼란을 만들 수 있다. 요즘은 영상 매체를 통해 뉴스를 접하는 것이 대중화되었기 때문에, 이러한 가짜뉴스와 영상들은 잘못된 정보를 불러일으킬 뿐만 아니라 뉴스 자체에 대한 신뢰도까지 저해시킬 수 있다.

나아가 잘못된 정보의 소비는 개인정보 유출 피해까지도 유발할 수 있다. 이렇듯 가짜와 진짜를 구별할 수 없는 세상이 사람들의 불안을 야기시키는 것이다.

 

디지털 휴먼 시대 속, 우리는 다양한 영역에서 AI 디지털 휴먼을 통하여 가상세계 콘텐츠와 현실세계 콘텐츠가 서로 융합되는 것을 쉽게 볼 수 있다. 하지만 기술의 혁신이 누군가에게는 획기적인 기술로, 다른 누군가에게는 범죄의 대상으로 쓰여질 수 있음을 유념해야 한다. 빠르게 변화하는 디지털콘텐츠의 성장과 발전에 맞추어, 이를 규제할 수 있는 법이 필요하다. 기술의 악용을 막기 위하여 앞으로 일어날 범죄를 해결할 법률과 딥페이크 같은 인공지능 기술을 어떻게 만들어야 할지, 지속적인 관리 시스템이 필요할 것이다.

 

양날의 검인 딥페이크 기술, 하지만 칼도 부엌에서 쓰면 꼭 필요한 요리 도구가 되듯이 해당 기술도 적법한 콘텐츠로 활용된다면 편리한 미래를 꿈꿀 수 있을 것이다.

현대사회는 디지털 혁신기술을 기반으로 누구나 디지털콘텐츠를 제작할 수 있고, 자신의 창작물을 업로드 할 수 있다. 하지만 기술의 발전과 동시에 우리의 디지털 윤리 또한 함께 발전되어야 할 것이다.

 

[출처]

- “코트라, 해외시장정보 소개 ‘AI 아나운서’ 도입”,<중소기업신문>,2022.04.13.

- “딥페이크·악플도 손해배상 물린다…민법 '인격권' 도입”,<JTBC뉴스>,2022.04.05.

- 네이버지식백과, https://terms.naver.com/entry.naver?docId=5911924&cid=42346&categoryId=42346

- “CJ ENM, 디지털 신사업 박차…가상인간 한유아 가수 데뷔”,<JTBC뉴스>,2022.04.11.

- “‘초·중·고 맞춤형’ 디지털 성범죄 예방사이트 연다.”,<뉴시스>,2022.04.05.

- “딥페이크 어플 '인싸놀이'에 아른거리는 디지털 성범죄”,<PD저널,손지인기자>,2021.09.10.

- 디클 홈페이지, https://dicle.kigepe.or.kr/kigepe/intro.do

- AI가 만드는 감쪽같은 가짜 ‘딥페이크’, 뭘 할 수 있지?,<벤처스퀘어>,2021.04.06.

 

관련글 더보기

댓글 영역