뉴스 트렌드 생활정보 International edition 매체

“할머니, 돈 필요”…전화기 너머 손주 목소리, AI로 만든 ‘가짜’였다

입력 | 2023-03-06 16:45:00


“할머니, 제가 지금 유치장에 갇혔는데 보석금이 필요해요. 지갑도 없고 휴대전화도 없어요.”

캐나다 중서부 서스캐쳐원주의 주도인 레지나에 사는 루스 카드(73)는 수화기에서 손자 브랜든의 목소리가 흘러나오자 손이 떨리기 시작했다. 수화기 너머에선 “친구 대니얼과 차를 타고 가다 급제동을 해서 추돌사고가 났다. 변호사인 대니얼의 아버지와 통화해 달라”는 목소리가 들려왔다. 카드는 “수화기에서 나오는 음성이 손자 목소리와 섬뜩할 만큼 똑같아서 의심할 생각을 전혀 못했다”고 현지 매체에 말했다.


● 유튜브·SNS 상 음성 샘플로 목소리 복제
카드는 ‘대니얼의 아버지이자 변호사’라는 사람에게 바로 연락했다. 그는 카드에게 “나중에 보험금으로 9400캐나다달러(약 900만 원)가 나올 테니 일단 현금으로 그 액수를 보내 달라”고 했다. 카드는 통화를 마치자마자 남편과 함께 은행으로 달려갔다. 하루 인출 한도인 3000캐나다달러(약 300만 원)을 인출한 뒤 곧바로 다른 은행에 찾아가 다급하게 소리쳤다. “빨리 돈을 뽑아주세요.”

이상한 낌새를 느낀 지점장은 노부부를 사무실로 불러들였다. “어제도 어떤 부부가 와서 당신들과 똑같은 말을 했어요. 당신이 들은 그 목소리가 가짜일 수도 있어요.”

카드는 그제야 정신이 들었다. 손자가 그런 사고로 유치장에 갇힌 것도, 보험금 액수가 그렇게 빨리 정해진 것도, 굳이 현금을 가져오라는 것도, 생각해보니 모두 이상했다. 부부는 손주 브랜든에게 전화를 걸었다. 브랜든이 되물었다. “저는 무사해요. 근데 다니엘이 누구예요?”

미국 워싱턴포스트(WP)에 따르면 카드 부부는 인공지능(AI)으로 음성을 복제하는 일명 ‘딥보이스’를 활용한 보이스피싱 피해를 당할 뻔했다. 경찰이나 검사 등을 사칭하며 돈을 요구하는 일반적인 수법과 달리 피해자와 신뢰 관계에 있는 당사자의 목소리를 복제하기 때문에 속아 넘어가기 쉽다.

WP는 “음색과 억양 등 말투를 재현하는 기술이 정교해지고 기술을 이용하는 비용도 싸지면서 범죄 피해의 위험은 커지고 있다”고 지적했다. UC버클리대의 디지털 포렌식 전문가인 해니 패리드 교수는 “1년 전만 해도 음성을 복제하려면 많은 샘플이 필요했지만 이제는 유튜브나 틱톡 같은 소셜미디어에서 가져온 30초짜리 음성만 있어도 복제가 가능하다”라고 설명했다.

벤자민 퍼킨(39)도 비슷한 피해를 당했다. 퍼킨의 부모는 정체불명의 전화를 받고 “자동차 사고로 미국 외교관을 죽였다. 돈이 필요하다. 사랑한다”고 말하는 아들의 음성을 들었다. 곧바로 은행 계좌에 있던 수천만 원을 비트코인으로 바꿔 송금했다. 얼마 뒤 보이스피싱을 당한 것을 깨닫고 당국에 신고했지만 돈을 돌려받을 방법은 없었다. 퍼킨은 자신의 음성이 어떤 경위로 합성된 것인지 확실하지 않지만 유튜브에 올렸던 스노모빌 관련 영상에 담긴 목소리가 샘플로 활용됐을 가능성이 있다고 했다.



● 한국 경찰 “발생 가능성 높아 예의주시 중”
전문가들은 AI 음성 복제 기능을 악용한 보이스피싱 범죄가 확산될 가능성이 커지고 있지만 대비책이 미흡하다고 지적하고 있다. WP는 “AI 음성 서비스를 제공하는 회사가 법적 책임을 진 사례도 아직 없다”고 전했다. 올해 초에는 배우 엠마 왓슨이 히틀러의 ‘나의 투쟁’을 낭독한 듯한 오디오클립 등 유명인의 목소리를 활용한 불법 복제물이 온라인에 확산되기도 했다.

국내에선 딥보이스를 활용한 보이스피싱 신고 및 검거 사례는 없는 것으로 알려졌다. 경찰 관계자는 동아일보에 “현재 국내 범죄 조직이 딥보이스를 활용할 만큼의 기술력을 확보하진 못한 것으로 파악하고 있으나 이른 시일 내에 충분히 발생 가능성이 있는 범죄”라며 “대응책 마련을 위해 예의주시하고 있다”고 말했다. 레지나 시 경찰은 “의심스러운 전화를 받으면 메모를 하면서 발신자의 전화번호를 물어본 뒤 전화를 끊고 공식 기관에 연락하라”라고 조언했다.


홍정수 기자 hong@donga.com
김기윤 기자 pep@donga.com