“딥페이크 음성, 4명중 1명은 구분 못해”

  • 동아일보
  • 입력 2023년 8월 4일 03시 00분


코멘트

英 연구진, 영어-중국어로 AI 실험
“가짜 음성 포함 알아도 못 골라내”

4명 중 1명은 생성형 인공지능(AI)으로 만들어낸 가짜 음성을 가려내지 못한다는 연구 결과가 나왔다. 2일(현지 시간) 영국 유니버시티 칼리지 런던(UCL) 연구진은 529명의 참가자에게 딥페이크 음성을 들려준 결과 73%만이 가짜 음성을 찾았다고 국제학술지 ‘플로스 원’에 게재했다.

연구진은 이번 실험에서 영어와 북경어 등 두 가지 언어로 50개의 딥페이크 음성 샘플을 제작했다. 영어가 아닌 다른 언어 음성을 딥페이크로 제작해 실험에 활용한 건 이번이 처음이다. 그만큼 딥페이크 기술이 정교해졌다는 의미다. 연구진은 “이번 실험의 참가자들은 딥페이크로 만들어진 음성이 나올 수 있다는 사실을 알고 있었음에도 속았다”며 “실제 상황에서는 더 구분하기 어려울 것”이라고 했다.

딥페이크는 실제와 구분이 어려울 만큼 정교하게 조작한 사진이나 영상, 음성 등을 뜻한다. 최근 AI 기술이 빠르게 발전하며 딥페이크로 만들어진 콘텐츠들이 범죄에 악용되는 사례가 늘고 있다. 올 5월 중국에서는 한 과학기술회사 법인 대표가 돈을 빌려달라는 친구와 영상 통화를 한 뒤 8억 원을 송금한 사례가 있었는데 친구의 얼굴 및 목소리는 모두 딥페이크로 만들어진 가짜였다.

연구진은 논문을 통해 “이번 연구는 딥페이크 음성 탐지가 어렵고, 잘못 사용할 가능성이 크다는 것을 보여준다. 이 위협에 대한 방어가 필요하다”고 밝혔다. 딥페이크 탐지 기술을 개발 중인 우사이먼성일 성균관대 교수는 “정부나 기업 모두 탐지 기술보다는 생성형 AI 기술 개발에 열중하고 있다”며 “탐지 기술도 균형을 맞춰 개발하고 투자해야 한다”고 강조했다.

#플로스 원#딥페이크 음성#4명중 1명은 구분 못해
  • 좋아요
    0
  • 슬퍼요
    0
  • 화나요
    0
  • 추천해요

댓글 0

지금 뜨는 뉴스