오피니언

오피니언 > 칼럼 > 한마당

[한마당] 딥페이크 국민청원

김의구 논설위원


스페인 궁정화가 프란시스코 고야는 1800년 ‘옷 벗은 마하’란 작품을 그렸다. 당시 재상이었던 마누엘 고도이의 의뢰로 제작한 이 누드화는 외설 논란에 휩싸였다. 후대엔 최초로 신화가 아닌 현실 여성을 그렸다거나 강인한 스페인 여성을 솔직하게 조명했다는 평가도 나온다. 하지만 보수적 가톨릭 분위기가 강했던 당대에선 거센 비판을 면키 어려웠다.

3년 뒤 고야는 같은 크기에 포즈와 배경이 동일한 ‘옷 입은 마하’를 또 그렸다. 외설 논란을 피하려는 목적이었는지, 원래 연작으로 구상한 것인지는 불분명하다. 어쨌든 고야는 후에 두 작품 때문에 종교재판에 회부됐지만 간신히 신성모독의 형은 피할 수 있었다.

고야는 두 작품을 그리기 위해 같은 작업을 두 번 해야 했다. 당시엔 디지털 프린트나 딥페이크(deep fake) 기술이 없었기 때문이다. 딥페이크는 인공지능의 심층학습을 의미하는 딥러닝(deep learning)과 가짜를 뜻하는 페이크(fake)를 조합한 용어다. 특정 인물의 사진이나 동영상 자료를 통해 변화나 움직임을 분석해서 다른 화상물에 합성하는 기술이다. 대표적 영상물로는 오바마 전 미국 대통령이 집무실에 앉아 트럼프 대통령을 “머저리”라 욕하는 동영상이 꼽힌다. 한 온라인매체가 딥페이크 위험성을 경고하기 위해 2018년 제작한 작품이다. 낸시 펠로시 미 하원 의장, 마크 저커버그 페이스북 CEO 등은 실제 희생물이 되기도 했다.

딥페이크가 풍자 수준을 넘어서면 애꿎은 정치인을 매장할 수 있고 선거판세를 뒤흔들 수도 있다. 더 큰 문제는 딥페이크의 90% 이상이 포르노 제작에 쓰인다는 점이다. 한 조사에 의하면 악용된 인물 가운데 한류스타 등 한국인이 25%나 된다고 한다. 청와대가 10일 딥페이크 범죄를 강력 처벌해 달라는 국민청원에 “끝까지 추적해 엄단하겠다”는 답변을 올렸다. 기술에는 선악이 없다. 악용될 수도 선용될 수도 있다. ‘못된 송아지 엉덩이에 뿔 난다’고 기술의 진보가 나쁜 쪽으로 먼저 쏠리는 현상은 유감스럽다.

김의구 논설위원

GoodNews paper ⓒ 국민일보(www.kmib.co.kr), 무단전재 및 수집, 재배포금지


국민일보 신문구독
트위터페이스북구글플러스