게티이미지뱅크
최근 딥페이크 기술로 자녀의 얼굴을 합성한 가짜 영상을 제작해 부모에게 금전을 요구한 외국인 대상 전화금융사기가 발생하고 있다.
7일 경찰청은 올해 1~9월 발생한 납치 빙자 전화금융사기 사건이 174건이라고 밝혔다.
지난 10월 외국에 거주하는 부모(외국인) A 씨는 한국을 여행하던 딸이 방 안에 감금된 채 울면서 “살려달라”고 하는 영상을 받았다.
이에 A 씨는 곧바로 영사관에 이 같은 사실을 알렸다.
신고를 받고 출동한 한국 경찰은 즉각 딸의 안전을 확인했다. 알고 보니 영상에서 울부짖던 딸의 모습은 딥페이크로 만든 가짜였던 것으로 드러났다.
경찰은 이 사건을 공개하면서 “국내에서도 유사한 사건이 발생할 가능성이 있으므로 각별히 주의해달라”고 강조했다.
딥페이크는 AI 기술을 활용해 얼굴은 물론 실제 인물처럼 표정·움직임까지 재현할 수 있는 것으로 알려졌다.
경찰은 무조건 경찰에 신고하는 것이 중요하다고 당부했다.
또 소셜네트워크서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등은 범죄조직의 표적이 될 수 있다고 밝혔다. 공개 설정으로 게시물을 올리는 것은 주의해야 한다.
경찰청 마약조직범죄수사과장은 “인공지능(AI) 기술의 발전이 일상을 더 편리하게 만들었지만, 동시에 범죄에 악용될 수 있으므로 국민께서 항상 조심하셔야 한다”고 전했다.
김예슬 동아닷컴 기자 seul56@donga.com