포르노 영상과 여성의 얼굴을 합성해 가짜 포르노 영상을 제작하는 이른바 ‘딥페이크(Deepfake·인공지능 영상조작) 포르노’가 유명인을 넘어 일반인에게까지 피해를 미치고 있다.
30일(현지시간) 워싱턴포스트(WP)는 미 일반인들의 딥페이크 포르노 피해 실태에 대한 상세 분석 기사를 실었다.
딥페이크 포르노의 초기 피해자들은 엠마 왓슨과 스칼릿 조핸슨 등 할리우드 여배우들이었다. 조핸슨의 경우 지난 1년 동안에만 수십 번의 합성 피해를 입었으며, ‘실제 유출 비디오’로 묘사된 한 비디오의 경우 조회수가 150만번 이상이었다.
그러나 WP에 따르면 이같은 ‘딥페이크 포르노’ 가해는 최근엔 유명인뿐만아니라 일반인들을 상대로 성행하고 있다. 특히 피해자의 지인을 자칭하는 사람들이 딥페이크 포르노 제작을 의뢰하는 경우가 적지 않다.
수요자들은 스스로를 피해자의 친구, 직장 동료 등으로 칭하며 딥페이크 포르노 제작을 의뢰한다고 WP는 보도했다. 보도에 따르면 몇몇 제작자들은 진행률에 따라 딥페이크 영상 하나당 20달러(약 2만2000원)를 받기도 한다.
특정인에 대한 비난, 공격의 수단으로 딥페이크 포르노를 악용하는 경우도 있다. 대중문화에 대한 페미니즘적 비판으로 온라인에서 공격 대상이 된 비평가 어니타 사키지언은 올해 포르노사이트 ‘폰허브’에 3만번 이상 노출됐다.
‘잇츠오케이투비화이트(Its-Okay-To-Be-White)’라는 이름을 쓰는 한 SNS 이용자는 사키지언의 피해에 대해 “이게 바로 우리에게 필요하고, 우리가 당연히 쓸 수 있는 딥페이크”라고 주장했다.
‘하이퍼사이버파스텔고트(Hypercyberpastelgoth)’라는 이름을 쓰는 또 다른 SNS 이용자는 오히려 “그녀가 먼저 우리를 공격했다”며 사키지언에게 책임을 돌리기도 했다.
사키지언은 “이것(딥페이크 포르노)은 평범한 사람들의 직업적 전망, 대인관계, 평판, 정신건강을 해칠 수 있다”며 “이는 여성을 침묵하게 하고, 비하하며, 힘을 과시하고, 성적 대상으로 폄하하는 무기로 이용된다”고 비판했다.
문제는 딥페이크 포르노 제작이 갈수록 손쉬워진다는 것이다.
보도에 따르면 딥페이크 포르노 제작자들은 작업을 단순화하기 위해 여성의 성관계 동영상들을 수집한다. 이들은 이 동영상을 ‘기증자의 몸’이라고 부른다. 이들은 아울러 SNS에 올려진 동영상이나 사진에서 자동으로 여성의 얼굴을 추출하기 위해 소프트웨어를 이용하기도 한다.
피해 여성이 딥페이크 포르노 제작 요청자를 찾으려 해도 온라인 공간에선 여의치 않은 게 현실이다. 구글은 지난 9월 합성 포르노 이미지를 차단 목록에 추가할 수 있도록 했지만, AI 기술 제약이 기술 개발을 저해할 수 있다는 이유로 윤리적 책임 이상의 책임에는 소극적이다.
마이애미대 법학 교수 메리 앤 프랭크스는 “이 기술은 최악의 여성혐오 남성들이 원하는 것은 무엇이든 성취하게 해준다”고 비판했다.
딥페이크 기술은 현직 구글 연구과학자인 이언 굿펠로의 연구팀이 2014년 개발한 알고리즘에서 유래됐다. 이 알고리즘은 같은 표정 찾기, 매끄러운 표정 변환, 초당 60회 작업 반복 등을 자동화했다.
그러나 지난해 온라인에서 ‘딥페이크’라는 이름을 쓰던 이용자가 이 기술을 사용해 여배우의 얼굴과 합성한 포르노를 제작해 게시하면서 이른바 ‘딥페이크 포르노’가 성행하기 시작됐다.
댓글 0