"오빠 바빠?" 영상 통화에 5000만원 보냈는데…'날벼락' [조아라의 IT's fun]

입력 2023-11-25 16:30   수정 2023-11-25 17:03


"오빠 바빠? 나 000(친척 동생 이름)인데 친구 추가 해줘."

지난 5월 황모 씨는 소셜네트워크(SNS)에서 숏폼(짧은 동영상) 시청 중 이같은 메시지를 받았다. 사촌은 급히 대금을 보내야 할 일이 있는데 자신의 이름으로 직접 이체하기 어려운 상황이라며 황 씨에게 대리 이체를 부탁했다. 사촌은 황 씨의 계좌번호를 묻고 이체할 금액을 송금하겠다고 했으나 황 씨의 계좌에는 돈이 들어오지 않았다. 약 20분 뒤 사촌은 황 씨에게 '영상 통화'를 걸었다. 10초가량 짧은 영상통화로 사촌의 얼굴과 목소리를 확인한 황 씨는 경계심을 풀고 요청한 금액 30만위안(약 5470만원)을 보내줬다. 이후 사촌을 또다시 송금 요청을 했다.

수상함을 느낀 황 씨는 직접 '진짜' 사촌에게 전화를 걸어 확인했다. 전화 받은 사촌이 이 사실을 전혀 모른다는 것을 확인한 그는 즉시 경찰에 신고했고, 경찰은 용의자 7명을 체포했다. 지난 22일 중국 산둥성 지난시 상허현 공안국 경찰은 이같은 사건을 현지 언론에 공개하면서 "AI 합성을 활용한 사기꾼들은 대부분 통화 시간이 길면 허점이 노출될까 봐 걱정한다"라며 "영상 통화 중 상대방이 움직이지 않는 등 자세히 관찰하면 (정체를)알아낼 수 있다"고 밝혔다.
하마터면 2억 날릴 뻔…아들에게 감쪽같이 속은 '70대 아버지'

25일 업계에 따르면 인공지능(AI) 기술로 얼굴을 바꾸는 페이스 스와핑(face swapping)을 악용한 사기가 잇따르고 있어 주의가 요구된다. 특히 AI 기술 발달이 빠르게 이뤄지는 중국과 미국 등에서 AI 페이스 스와핑 사기 사례가 두드러지고 있다.

지난 6월 한 70대 노인 역시 다른 지역에서 사업을 하던 아들이 "사업에 실패했다"며 급전 100만위안(약 1억8200만원)을 송금해달라는 전화를 걸어왔다고 중국 펑파이신문은 지난 6일 보도했다. '아들'의 목소리를 들은 데다 영상 속 남성이 아들임을 확인한 노인은 즉시 이체를 시도했다. 다행이 이체 과정에서 은행 직원의 도움을 요청했던 그는 젊은 직원의 '눈썰미' 덕분에 영상이 가짜임을 깨달았고, 사기 당할뻔한 퇴직금 100만위안을 지켜낼 수 있었다.

펑파이신문은 "기술 발달로 화상채팅 중 실시간으로 얼굴을 바꾸는 것은 어렵지 않다"며 "고사양의 컴퓨터를 이용하면 10초 분량의 영상 합성은 1~2분밖에 소요되지 않으며, 합성된 영상의 실제 유사도는 80%에 달한다"고 전했다.


지난 19일 미국 폭스 뉴스 역시 미국에서도 정보기술(IT) 취약 계층인 노인들을 대상으로 비슷한 사기 수법이 성행하고 있다고 보도했다. 미국 연방거래위원회(FTC) 보고서에 따르면 지난해 미국 노인들의 사기 피해 금액은 16억달러(약 2조900억원)로 1년 전(2021년) 10억달러에서 60% 증가했다. AI 기술을 활용해 지인들의 목소리 등을 도용한 사기가 대부분인 것으로 파악됐다. 가족이나 친구로부터 다쳤거나, 납치돼 인질로 붙잡혔다는 내용 등이 주된 수법이다.

지난 16일(현지시간) 미국 상원에서 열린 AI 사기 대응 관련 청문회에서 증인으로 나선 필라델피아 변호사 게리 쉴드혼(Gary Schildhorn) 역시 "출근길에 울먹이는 아들로부터 전화가 왔다. 사고를 냈는데 코 뼈가 부러졌고, 임산부를 다치게 해 감옥에 왔다. 국선 변호사가 석방 조건으로 9000달러(약 1170만원)를 송금해야 한다고 했다. 송금 직전 며느리에게 전화한 결과 사기였다는 사실을 알았다"고 말했다. 그는 "전화 속 목소리는 의심할 여지가 없이 아들의 목소리였다"며 "내가 내릴 수 있는 유일한 결론은 그들이(사기꾼) AI를 사용해 아들의 목소리를 복제했다는 것"이라고 덧붙였다.
AI 합성 허점 존재…사기 예방 '꿀팁' 살펴 보니
중국과 미국은 AI 기술 발달이 빠르게 이뤄지는 국가라는 점에서 신종 사기가 두드러지는 것으로 풀이된다. 영국 데이터 분석업체 토터스인텔리전스가 조사한 '글로벌 AI 지수'에 따르면 미국과 중국은 각각 1(100점)·2(61.5점)위를 기록했다. 이어 싱가포르(49.7점), 영국(41.8점), 캐나다(40.3점) 순으로 나타났다. 중국 내 조직과 연계된 보이스피싱 범죄가 국내에서도 빈번하게 일어나는 만큼, AI를 악용한 신종 사기가 국내에서도 퍼질 수 있다는 우려가 나온다.

중국 난징대학교 컴퓨터공학과 교수는 현지 매체 지누신문에 "사진 이미지부터 방송 프로그램 제작까지 페이스 스와핑 기술을 통해 편집이 가능하다. 인공지능 생성 콘텐츠(AIGC)의 급속한 발전으로 AI, 특히 딥러닝 기술을 통해 사실적인 이미지와 동영상까지 생성할 수 있게 됐다"며 "비전문가가 보기에 실물을 원본인 것처럼 위조하는 것도 가능하다"고 설명했다.

전문가들의 의견에 따르면 AI 페이스 스와핑으로 인한 사기를 예방하려면 통화 시 상대방에게 손가락 또는 물건을 들고 흔들어 달라고 요청하는 것이 좋다. 이때 화면이 비정상적으로 움직이면 상대방이 페이스 스와핑을 하고 있을 가능성이 높다. 상대방의 음성과 입모양이 동일하게 움직이는지, 눈을 깜빡이는 지 여부도 확인하면 좋다. 가짜로 합성된 얼굴의 경우 눈의 움직임이 현저히 적다는 특징이 있다.


또한 상대방에게 진짜 본인만이 알 수 있는 사적 정보를 묻어보는 것도 좋다. 생일, 전화번호, 취향, 에피소드 등을 물어보는 방식으로 신분을 확인하는 방법도 있다. 시간적 여유가 된다면 직접 만나서 송금하는 방법도 권장되고 있다. 대부분 AI 사기 피해자들의 얼굴과 음성 자료가 개인 SNS에서 공유된 사진과 숏폼 등에서 얻어지는 경우가 많아 개인정보보호를 위한 노력도 신경 써야 하는 부분으로 꼽힌다.

현지 경찰은 "최근 사기 피해 사례는 중·장년층에만 국한되지 않고 금융 사무직, 변호사, 대학생 대상으로도 나온다"며 "얼굴과 지문 등 개인 생체정보를 타인에게 쉽게 제공하지 말고, 개인 영상 등을 과도하게 널리 공개하거나 공유하는 일을 자제하라"고 조언했다.


조아라 한경닷컴 기자 rrang123@hankyung.com


관련뉴스

    top
    • 마이핀
    • 와우캐시
    • 고객센터
    • 페이스 북
    • 유튜브
    • 카카오페이지

    마이핀

    와우캐시

    와우넷에서 실제 현금과
    동일하게 사용되는 사이버머니
    캐시충전
    서비스 상품
    월정액 서비스
    GOLD 한국경제 TV 실시간 방송
    GOLD PLUS 골드서비스 + VOD 주식강좌
    파트너 방송 파트너방송 + 녹화방송 + 회원전용게시판
    +SMS증권정보 + 골드플러스 서비스

    고객센터

    강연회·행사 더보기

    7일간 등록된 일정이 없습니다.

    이벤트

    7일간 등록된 일정이 없습니다.

    공지사항 더보기

    open
    핀(구독)!