자녀 얼굴 합성해 부모에 돈 요구 AI이용, 실제 목소리까지 똑같아 홍콩선 회삿돈 수백억 보내기도 “SNS에 사진 공개 등 조심해야”
“아빠, 살려줘!”
지난달 중국인 A 씨는 익명의 사람으로부터 딸이 울면서 소리치는 영상이 담긴 문자메시지를 받았다. 며칠 전 그의 딸은 제주 여행을 떠났다. 한창 여행 중인 줄 알았던 딸이 좁은 방에서 손발이 테이프로 묶인 채 울며 소리치는 모습을 보자 충격에 빠졌다. 메시지를 보낸 이들은 자기들이 딸을 납치했다며 우리 돈으로 8억 원가량을 보내면 풀어준다고 협박했다.
A 씨는 제주에 있는 중국영사관에 이 사실을 알렸고, 영사관은 제주경찰청에 신고했다. 신고를 받고 출동한 경찰은 멀쩡하게 관광을 즐기고 있는 A 씨의 딸을 발견했다. 중국인이 받은 영상은 보이스피싱 조직이 만든 딥페이크(인공지능 이미지 합성) 영상이었다.
올 5월 경기 남양주시에 사는 30대 남성은 모르는 번호로 전화 한 통을 받았다. 전화를 건 사람은 “형 나야, 막냇동생”이라고 한 뒤 사정이 급하니 돈을 보내 달라고 부탁했다. 동생의 목소리와 똑같아 별다른 의심 없이 6000만 원을 송금한 그는 뒤늦게 사기라는 사실을 깨달았다. 보이스피싱 조직이 ‘딥보이스’라고 불리는 음성 합성 기술을 통해 동생의 목소리를 재현한 것이었다. 사기범들은 목표물의 주변 지인에게 전화를 걸어 목소리를 녹음하고, 이를 합성해 가짜 음성을 만든다.
해외에서도 이런 방식의 사기가 기승을 부리고 있다. 올 2월 홍콩에선 다국적기업 직원이 최고재무책임자(CFO)의 이메일을 받고 회삿돈 약 2500만 달러(약 334억 원)를 송금했다. 갑자기 거금을 보내라는 지시에 처음엔 의심했지만 이메일에 첨부된 영상에 CFO와 자신의 동료들이 나와 있어 의심을 거뒀다. 하지만 이 역시 보이스피싱 일당이 만든 딥페이크 영상이었다.
● 인스타에 올린 얼굴 사진, 범죄 악용
최근 피싱 사기에 대한 경찰의 홍보, 국민 인식 증가 등 덕분에 관련 피해는 감소하는 추세지만 한층 정교한 딥페이크, 딥보이스 사기가 퍼지면 피해 역시 다시 늘어날 수 있다는 우려가 나온다. 경찰 관계자는 “최근 범죄에 악용되는 딥페이크는 실제와 구분할 수 없을 정도로 정교하다”며 “시민들의 피해가 늘어날 수 있다”고 우려했다.
전문가들은 SNS에 신상 정보를 되도록 공개하지 말아야 한다며 주의를 당부했다. 오윤성 순천향대 경찰행정학과 교수는 “지인이나 주변 사람이 갑자기 모르는 번호로 전화를 걸어와 금전을 요구하는 경우 일단 전화를 끊고, 상대방의 원래 전화번호로 전화를 걸어 그 사람이 맞는지 신원 확인을 거쳐야 한다”며 “범죄에 악용되는 사진과 영상은 대부분 SNS를 통해 얻는 만큼 계정을 비공개하는 습관을 들이는 것도 중요하다”고 당부했다. 이수정 경기대 범죄심리학과 교수는 “딥페이크 영상물에 워터마크 적용을 의무화하는 방안을 도입해 제작자를 특정할 수 있게 해야 한다”고 말했다.
이수연 기자 lotus@donga.com
이상환 기자 payback@donga.com