몇 개월 전까지만 해도 무한한 가능성의 보고로 기대를 모으던 딥페이크(Deep fake) 기술이 공공의 적으로 몰리는 형국이다. 미국 인기 가수 테일러 스위프트의 얼굴을 음란한 사진에 합성한 가짜 이미지 사건, 기시다 후미오(岸田文雄) 일본 총리가 성적 발언을 하는 가짜 영상 사건이 잇따르면서 딥페이크 기술을 규제해야 한다는 목소리가 들끓고 있는 것이다.
총선을 70일 앞둔 우리 사회도 예외는 아니다. 중앙선거관리위원회는 딥페이크 영상을 이용한 선거운동을 금지하고 수십 명 규모의 특별 전담반을 꾸려 단속 활동을 벌이기 시작했다. 딥페이크를 활용한 가짜 뉴스가 선거 결과에 치명타가 될 수 있어서다.
정치권은 누군가 작정하고 딥페이크 영상물을 퍼트릴 경우 속수무책으로 당할 가능성이 크다며 발을 동동 구르고 있지만 딥페이크 영상물의 피해를 줄이는 열쇠는 콘텐츠 유통 과정에서 적절한 조치를 취하는 데 있다. 딥페이크가 사회적 문제가 되는 것은 딥페이크 기술 자체보다 딥페이크 이미지가 소셜서비스 플랫폼을 타고 빠르고 광범위하게 전파되기 때문이다.
테일러 스위프트의 합성 사진은 소셜미디어 X(옛 트위터)에 게시되자마자 순식간에 온라인에 퍼졌다. X 측이 원본 삭제 조치를 취한 시점엔 이미 4700만 회 이상 조회된 상태였다. 기시다 총리 동영상은 일본 동영상 사이트인 ‘니코니코’에 올라왔다가 몇 시간 뒤 X에도 게재되며 하루 만에 조회수 232만 회를 찍었다. 피드가 약한 플랫폼에서 머물렀다면 파급력이 크지 않았을 것이다.
에릭 슈밋 전 구글 CEO는 과학기술 전문 매거진 ‘MIT 테크놀로지 리뷰’ 최신호에 소셜미디어 플랫폼이 잘못된 선거 정보에 맞설 수 있는 방법 6가지를 제시했다.(원제: ‘Eric Schmidt has a 6-point plan for fighting election misinformation’)
가장 먼저 할 일은 악성 계정을 파악하는 것이다. 슈밋 전 CEO에 따르면 콘텐츠가 네트워크에 유입된 시간과 IP주소를 알면 악성 계정 정보는 적잖이 확보할 수 있다. 이런 계정들은 알고리즘 우선순위를 낮춰 해당 계정이 올린 콘텐츠가 확산될 여지를 주지 않는 편이 안전하다.
AI로 만든 이미지를 판별하는 기능을 갖추는 것은 꼭 필요해 보인다. ‘스팸 위험’ 표시가 뜨는 전화번호에 대해 미리 조심하게 되는 것처럼 어떤 이미지가 딥페이크의 결과물일 가능성이 높은 경우 이를 미리 알려주면 피해를 줄일 수 있다.
시스템적 접근만으로 해결하기 힘든 부분에 대해선 인력을 투입해 해결하려는 노력도 기울여야 한다. 추가 고용이 필요한 일이라 회사는 부담스럽겠지만 진정성을 보여주기에 좋은 방법이다.
잇따른 딥페이크 사건의 여파로 X나 구글 등 해외 업체는 딥페이크 탐지 구상을 밝히며 신뢰를 높이려 애쓰는 데 반해 네이버, 카카오, 네이트 같은 국내 소셜미디어 플랫폼은 강 건너 불구경하는 듯한 태도다. 딥페이크 사건이 해외에서 주로 일어나고 있으니 아직 괜찮다고 생각하는 것일까. 곧 닥쳐올 미래의 일에 손놓고 있는 것만큼 무책임한 일도 없다. 국내 회사들도 AI 시대에 걸맞은 설계가 무엇인지 고민하고 정보 유통망으로서 책임 있는 모습을 보여주길 기대한다.
댓글 0