3일 뉴스1이 인공지능으로 생성한 가상 인물 사진을 탐지 솔루션에 의뢰한 후 받은 결과 화면. 해당 사진을 100% 확률로 ‘가짜’로 판별됐다. (딥브레인AI 제공)
“위 이미지의 변조 확률은 100%입니다.”
1분. 인공지능(AI) 기술로 얼굴이나 신체 부위를 합성한 가짜 콘텐츠를 뜻하는 ‘딥페이크’(Deepfake) 사진의 진위를 확인하는 데 걸린 시간이다.
실제 인물을 대상으로 합성한 합성물이라도 예외는 없다. 일론 머스크가 엑스(X·옛 트위터)에 올려 화제가 됐던 트럼프와 춤추는 영상도 마찬가지다. 해당 영상을 탐지 프로그램에 돌리자 몇 분 내로 진위 안에 가짜임을 나타내는 ‘Fake’ 표시가 떴다. 변조율은 99.63%다.
5일 뉴스1 취재를 종합하면 최근 SNS 프로필 사진 등 개인 얼굴과 음란물 합성으로 논란이 된 ‘딥페이크 봇’ 등의 경우 페이스 스와프 등 기술이 주로 사용되는 것으로 알려졌다. 가장 많이 사용되는 딥페이크 합성 기술은 가상 인간 얼굴을 제작하는 ‘페이스 제너레이션’(Face Generation), 원하는 얼굴 등 신체 일부를 교체하는 ‘페이스 스와프’(Face Swap)다.
이를 구별하는 원리는 원본 이미지의 화소(픽셀), 음성의 주파수 패턴을 학습한 뒤 이를 바탕으로 위조 이미지에서 변조된 패턴을 대조하는 식이다. 프로그램 개발 업체인 딥브레인AI에 따르면 사진 등 이미지의 경우 장당 1~2분, 인스타그램 등 사회관계망서비스(SNS)에서 흔히 보이는 1분 내외의 짧은 영상(숏폼) 콘텐츠는 5~7분 이내에 판독이 완료된다.
해당 프로그램은 경찰청 등 수사기관에서도 활용되고 있다. 일반 딥페이크 탐지 모델이 서양인 위주 데이터로 구성된 점을 감안해 한국인 데이터 100만점 등을 포함하는 등 개선도 이뤄지고 있다. 딥브레인AI 관계자는 “피해 사진 유출 등을 우려해 경찰청에서 쓰는 프로그램은 좀 더 보안성이 강화된 버전”이라면서 “최근엔 관공서 등으로부터 프로그램 문의가 늘고 있다”고 답했다.
다만 탐지 프로그램이 있다고 해서 안심하긴 이르다. 이와 같은 프로그램은 수사기관이나 기업 등 기관 위주로 사용돼 개인에 대한 접근성이 떨어지기 때문이다. 불법 딥페이크 성 착취물 유포가 크게 주목받자 일부 업체에선 탐지 프로그램을 무료로 지원하겠다고 나섰다. 하지만 기업, 관공서 등 B2B 서비스에 국한돼 개인이 이를 활용하긴 어려운 상황이다.
최병호 고려대 인공지능연구소 교수는 “최근 알려진 딥페이크 성 착취물을 보면 적용된 기술 수준이 그렇게 높진 않다. 고도화된 기술을 보여주기보단 개인을 모욕하고 수치심을 주는 데 초점이 맞춰져 있기 때문”이라면서도 “최근 생성 AI로 만들어진 이미지는 전문가가 아닌 시민이 보기엔 구분이 거의 불가능할 것”이라고 말했다.
진위 탐지 수준이 80%대에 머물러 있는 것도 풀어야 할 숙제다. AI 업계에선 기술 보안 등을 이유로 정확한 탐지율을 밝히고 있진 않다. 하지만 경찰은 이들 프로그램을 활용하면 10건 중 8건 정도의 딥페이크 합성물의 진위를 판별할 수 있다고 보고 있다.
이에 따라 일선에서도 해당 프로그램은 아직 거짓말탐지기처럼 수사 참고 자료 정도로만 활용되는 실정이다. 경찰은 최근 발표한 ‘딥페이크 성범죄 근절 대책’에서 최신 AI 기법에도 대응할 수 있게 탐지율을 제고하는 등 고도화를 지속 추진할 방침이라고 밝혔다.
(서울=뉴스1)