“엄마, 살려줘” 딸 영상, 딥페이크였다
자녀 얼굴은 물론 목소리까지 복제
경찰, 사건 공개하고 피싱 주의 당부
“살려달라”며 우는 자녀의 영상을 딥페이크로 제작하고, 부모 등에게 해당 허위 영상을 보내며 금전을 요구하는 ‘딥페이크 사기’ 사례가 발견돼 경찰이 각별한 주의를 당부하고 있다.
지난 10월 외국인 A씨는 스마트폰에 한국을 여행하던 딸이 방 안에 감금된 채 울면서 “살려달라”고 하는 영상을 전송받았다.
영상을 보낸 상대방은 “당신 딸을 납치했다. 딸을 살리고 싶으면 합의금을 보내라”고 부모를 협박했다.
부모는 이 사실을 영사관에 알렸고, 영사관에서는 한국 경찰에 신고했다. 신고를 받고 출동한 한국 경찰은 즉각 딸의 안전을 확인했다.
경찰청 관계자는 “다행히 이 사건에서 피해는 발생하지 않았지만, 해당 영상에 등장한 딸의 모습이 딥페이크 기술로 만들어진 가짜였다는 것이 확인됐다”면서 “인공지능(AI) 기술이 범죄에 악용될 수 있다는 심각성을 보여준 사례”라고 설명했다.
경찰청 국가수사본부도 7일 이번 사건을 공개하면서 “국내에서도 유사한 사건이 발생할 가능성이 있으므로 각별히 주의해달라”고 당부했다.
딥페이크는 AI 기술을 활용해 단순히 영상 속 얼굴을 바꾸는 것을 넘어서 실제 인물처럼 표정·움직임 등도 재현 가능하다. 또 가짜 음성을 생성하는 딥보이스도 유의해야 한다. 범인이 자녀 목소리를 복제해 납치 범죄에 악용할 가능성이 있기 때문이다.
기존 피싱범죄가 목소리를 흉내내는 데 그쳤다면, 이제는 실제에 가까운 자녀의 목소리와 얼굴을 보여주면서 즉각적 송금을 요구하는 범행이 이뤄질 수도 있다.
특히 부모도 상황을 판단할 여유가 없이 심리적 압박에 내몰릴 가능성이 크다.
딥페이크와 딥보이스는 실제 인물을 학습해야 하므로 사회관계망 서비스(SNS) 등에 공개된 본인과 가족의 영상, 사진, 목소리 등은 범죄조직의 표적이 될 수 있다. 특히 딥페이크 기술이 고도화돼 전문가들조차도 육안만으로 진위를 판단하기 어려운 만큼, SNS 등에 불특정 다수가 볼 수 있는 공개 설정으로 게시물을 올리는 것을 지양해야 한다는 것이 경찰의 설명이다.
경찰청에 따르면 올해 9월까지 납치를 빙자한 전화금융사기가 174건 발생했다.
안찬수 경찰청 마약조직범죄수사과장은 “AI 발전이 일상생활을 더 편리하게 만들었지만, 동시에 범죄에 악용될 환경을 제공했다”고 주의를 당부했다.
이어 “납치 전화가 전화금융사기일 가능성을 항상 염두에 두어야 한다”면서 “범죄조직은 ‘가족이나 지인을 납치했다’는 협박 전화를 받으면 두려움과 걱정 때문에 피해자들이 신고를 주저한다는 점을 노리기 때문에 무조건 경찰에 신고해야 한다”고 강조했다.
장세풍 기자 spjang@naeil.com