행사/뉴스


“엄마, 돈 좀 보내줘”…AI 음성 복제 이용한 사기 급증

작성자 정보

  • 차기자 작성
  • 작성일

컨텐츠 정보

본문

단 10초 음성으로도 목소리 복제 가능…가족 간 ‘비밀 확인 문구’ 필요


인공지능(AI) 음성 복제 기술을 악용한 사기가 샌디에고를 비롯한 미국 전역에서 빠르게 증가하고 있어 각별한 주의가 요구되고 있다. 범죄자들이 AI 기술을 이용해 가족의 목소리를 흉내 내 긴급 상황을 가장하고 돈을 보내도록 속이는 사례가 늘고 있다는 것이다.


전문가들은 범죄자들이 소셜미디어 게시물이나 동영상, 음성 메시지 등에서 확보한 짧은 음성만으로도 누구의 목소리든 복제할 수 있다고 경고한다.


AI 전략가인 Roberto Moutal은 온라인에서 무료로 제공되는 기술만으로도 음성 복제가 가능하다고 설명했다. 그는 단 약 10초 분량의 음성만으로도 목소리를 재현할 수 있었으며, 음성을 복제하는 것이 이미지 생성보다 더 쉬울 수 있다고 말했다.


Federal Trade Commission은 최소 2023년부터 이러한 사기 수법에 대해 소비자들에게 경고해 왔지만, 기술이 발전하면서 상황이 더욱 심각해지고 있다고 전문가들은 지적한다.


Moutal은 “전문적인 AI 지식이 없어도 가능하다”며 “단 10초 정도의 음성만 있으면 누구의 목소리든 만들 수 있다”고 설명했다.


그는 실제로 짧은 음성 샘플을 이용해 AI가 생성한 음성을 만들었고, 그 목소리는 매우 자연스럽게 들리는 메시지를 전달했다. 예를 들어 “은행에 있는데 ATM이 작동하지 않는다. 비밀번호를 다시 알려줄 수 있느냐”는 식의 요청이었다.


이 같은 기술은 최근 급증하고 있는 ‘가상 납치(virtual kidnapping)’나 가족 긴급 상황 사기에 활용되고 있다. Federal Bureau of Investigation은 범죄자들이 AI로 조작된 음성이나 영상으로 몸값을 요구하는 사례가 늘고 있다며 경고를 발표했다.


연구에 따르면 일반인들은 AI로 생성된 음성을 구분하는 데 매우 어려움을 겪는다. University of California, Berkeley 연구팀이 600명 이상을 대상으로 실시한 조사에서는 참가자들이 AI 음성을 80% 이상 확률로 잘못 판단한 것으로 나타났다.


전문가들은 이러한 사기를 예방하기 위해 가족 간에 비상 상황을 확인할 수 있는 ‘비밀 확인 문구(pass-phrase)’를 미리 정해 두는 것이 중요하다고 조언한다. 예를 들어 가족만 알고 있는 개인적인 질문을 통해 상대가 실제 가족인지 확인할 수 있다는 것이다.


또한 전문가들은 전화 한 통만 믿고 돈이나 기프트 카드, 암호화폐를 보내지 말고 반드시 전화를 끊은 뒤 저장된 연락처로 다시 전화해 사실 여부를 확인할 것을 권고했다. 특히 상대방이 긴급함이나 공포를 강조하며 즉각적인 송금을 요구할 경우 사기일 가능성이 매우 높다고 강조했다.


관련자료

댓글 0
등록된 댓글이 없습니다.

f83148628a08561001d749731390d01c_1772136828_7868.jpg