4·10총선 선거운동 과정에서 인공지능(AI) 기술로 만든 딥페이크 영상 등을 이용한 사례가 쏟아졌다. 중앙선거관리위원회가 9일까지 적발한 딥페이크를 이용한 선거법 위반 사례는 384건에 달한다. 1월 29일 시행된 개정 선거법에 따라 선거일 90일 전부터 선거운동에 딥페이크 영상, 이미지, 음향 사용을 금지하고 있는데도 하루 평균 약 5.3건씩 불법 행위가 적발된 셈이다.
AI 기술의 발전으로 누구든 마음만 먹으면 손쉽게 딥페이크물을 만들 수 있게 된 것이 딥페이크 확산의 주된 요인이다. 6500원을 내면 10초 만에 간단한 딥페이크 영상을 만들어 주는 애플리케이션이 나와 있고, 메신저를 통해 전문업체에 의뢰할 수도 있다. 정치인들은 공개된 영상과 사진이 많아 딥페이크 제작이 더 쉽다. 이렇다 보니 주요 정치인이 특정 정당 또는 후보자를 비난하거나 조롱하는 것처럼 조작한 영상도 등장했다. 실제 인물과 얼굴, 목소리가 거의 똑같아 일반 시민들로서는 진위를 분간하기 어렵다.
선거에서 딥페이크물이 특히 문제가 되는 것은 소셜네트워크서비스(SNS)를 통해 빠르고 광범위하게 퍼진다는 특성 때문이다. 선관위는 72명으로 딥페이크 전담팀을 구성해 대응하고 있지만, 이들이 수많은 딥페이크물을 모니터링하고 감별해 적발하기까지는 시간이 걸린다. 불법 딥페이크 영상을 확인해도 X(옛 트위터) 등 해외 SNS 업체에 요청해서 삭제하기까지는 상당한 시간이 필요하다. 그 사이에 딥페이크 영상은 온라인에서 걷잡을 수 없이 확산되기 때문에 삭제가 이뤄져도 허위 정보 차단 효과는 제한적이다.
이미 해외에서는 딥페이크물이 선거에 직접적인 영향을 미친 사례가 속속 나타나고 있다. 지난해 튀르키예 대선에서는 선거일 직전 테러 집단이 야당 후보를 지지한다는 딥페이크 영상이 퍼졌고, 이는 여당 후보가 승리하는 데 중요한 요인이 된 것으로 분석됐다. AI 시대에 딥페이크 제작은 계속 늘어날 가능성이 크다. 관건은 정부와 민간업체들이 협력해 불법 딥페이크물을 신속하게 찾고 차단하는 시스템을 구축하는 것이다. 그래야 허위 정보가 유권자의 판단을 흐리게 하는 일을 막을 수 있다.
댓글 0