사진=미리캔버스/디자인=안지호 기자
사진=미리캔버스/디자인=안지호 기자

"OO 은행입니다. 고객님의 카드가 잘못 발급되어 통장에서 돈이 빠져나갈 수 있으니, 안전한 계좌로 이체해야 합니다."

"금융감독원입니다. 귀하의 개인정보가 유출되어 통장의 돈을 모두 지정된 계좌로 이체해야 안전합니다."

"수취인 부재로 우편물이 반송될 예정입니다. 확인하시려면 메시지 링크를 클릭해 주시고, 주민등록번호를 입력해 주세요."

"따님이 교통사고로 너무 다쳐서 긴급히 수술을 해야합니다. 계좌로 수술비를 빨리 보내주세요."

지금까지 알려진 보이스피싱 유형이다. 대부분 검찰, 경찰을 사칭해 개인정보 유출을 막아야 한다고 말하거나, 휴대전화 메시지로 링크 클릭을 유도하는 경우가 많았다.

기존 이러한 보이스피싱의 대처가 미흡했던 노인층이 피해가 컸지만, 점차 수법이 다양해지고 고도화됨에 따라 연령을 가리지 않고 피해자가 발생하고 있다.

특히 딥페이스,  딥보이스를 이용한 보이스피싱 범죄에 대한 우려가 커지고 있다. 

실제로 밝혀진 AI를 활용한 범죄 악용 사례는 목소리를 복제하는 '딥보이스'다. 목소리뿐만 아니라 얼굴까지 AI를 이용해 원하는대로 바꿀 수 있다. 해외 여러 나라에서는 이미 AI로 복제한 보이스피싱이 확산되고 있는 것으로 나타났다.

미국 컴퓨터 바이러스 백신 업체 맥아피(McAfee)가 진행한 연구결과에 따르면 AI기술이 3초 만에 사람의 목소리를 복제할 수 있다고 밝혔다.

맥아피가 7개국 7054명을 대상으로 조사를 진행한 결과 응답자 중 77%가 금전적 손해를 봤다고 응답했다. 그중 약 33% 이상이 1000달러(한화 약 130만원) 이상 피해를 봤고, 7%는 5000달러(한화 약 652만원)에서 1만5000달러(한화 약 1957만원)사이에서 금전적 피해를 본 것으로 나타났다.

AI복제 목소리를 통해 주로 가족, 친구 등에게 교통사고를 당했다고 하거나, 강도를 당했다는 등의 이유로 금전을 요구하는 사례가 많았다.

AI음성을 악용할 수 있었던 이유에 대해 소셜미디어 플랫폼을 이용한 녹음 기능을 예로 들었다. 조사 응답자 중 성인 53%가량이 적어도 일주일에 한 번 온라인 플랫폼을 통해 목소리를 공유하고 있었다. 49%는 일주일에 최대 10번까지 공유하는 것으로 조사됐다. SNS에 게시된 목소리를 AI음성으로 복제하여 보이스피싱에 활용하는 경우다.

맥아피 관계자는 "출처를 알 수 없는 발신번호인 경우 항상 의심 해야 한다. 가족이나 지인이 위급하다며 금전을 요구하는 경우를 예방하기 위해 기존에 가족들만 알고 있는 암호어를 정해놓는 것이 좋다"면서 "소셜네트워크서비스(SNS)사용에도 주의를 기울여야 한다"라고 조언했다. [1코노미뉴스 = 안지호 기자]

 

저작권자 © 1코노미뉴스 무단전재 및 재배포 금지