최근 제너레이티브 AI(Generative AI) 기술은 급속도로 발전해 사람들의 삶에 많은 편리함을 가져다 주었지만 새로운 보안 위험도 가져왔다. 최근 IBM 연구원들은 생성 AI 도구를 사용해 음성 통화를 가로채는 새로운 사기 수법을 공개해 큰 관심을 끌었습니다. 이 새로운 유형의 사기는 저렴한 AI 도구를 사용하여 극도로 충실도가 높은 다른 사람의 목소리를 모방함으로써 피해자의 신뢰를 쉽게 속이고 사기를 저지르는 것입니다. 이러한 움직임은 전화 신원 확인에 의존하고 심각한 주의가 필요한 금융 기관 및 기타 조직에 심각한 위협이 됩니다.
최근 IBM 연구원들은 생성 AI 도구를 사용하여 음성 통화를 가로채서 새로운 위협을 가하는 비교적 간단한 방법을 발견했습니다. 이제 사기꾼은 저렴한 AI 도구를 활용하여 쉽게 다른 사람의 목소리를 사칭하고 진행 중인 대화를 가로채서 자금과 기타 민감한 정보를 훔칠 수 있습니다. 이에 따라 금융기관 등 전화통화를 통해 신원을 확인하는 기관들이 우려된다. 이 보고서는 의심스러운 전화를 받은 사람에게 자신의 말로 설명하고 내용을 반복하여 정확성을 확인하라고 조언합니다.
AI 기술이 가져온 새로운 도전에 직면하여 우리는 더욱 경계하고 안전 예방 조치를 강화해야 합니다. 대중은 보안 인식을 높이고 의심스러운 전화에 주의하며 이러한 새로운 유형의 사기를 식별하고 예방하는 방법을 적극적으로 배워야 합니다. 동시에, 관련 기관은 AI 기술로 인한 보안 위험에 대처하고 사용자 정보의 보안을 보장하기 위해 보다 진보된 보안 기술을 적극적으로 탐색하고 채택해야 합니다. 이런 방법으로만 우리는 AI 기술을 더 잘 활용하는 동시에 잠재적인 위험을 효과적으로 피할 수 있습니다.