인공지능 기술의 급속한 발전으로 음성복제 기술은 점점 성숙해지고 있지만, 그에 따른 위험성도 무시할 수 없습니다. 최근에는 음성복제 기술을 이용한 사기 사건이 많아 유명인사들이 피해를 입는 등 해당 기술에 대한 국민적 우려가 커지고 있어 법적 감독 강화가 요구되고 있다. 다운코드 편집자는 사운드 복제 기술이 가져오는 과제와 대책에 대해 자세히 설명합니다.
인공지능 기술이 지속적으로 발전하면서 음성복제 기술이 점차 대중의 눈에 들어오고 있지만 잠재적인 위험성도 대두되고 있습니다. 최근에는 많은 유명인의 목소리가 범죄자들에 의해 악의적으로 복제되어 사기의 도구로 사용되고 있습니다. 유명 자연 다큐멘터리 진행자 데이비드 애튼보로(David Attenborough)를 비롯한 많은 유명인들이 이에 대해 우려를 표명하고 보다 강력한 법적 보호를 촉구했습니다.
사진 출처 참고: 사진은 AI가 생성한 것이며, 사진 인증 서비스 제공업체 Midjourney가 제공한 것입니다.
최근 David Attenborough는 자신의 목소리가 정치 뉴스를 퍼뜨리는 데 사용되었다는 사실을 알고 "심각한 불안"을 느꼈습니다. 그는 진실을 전파하는 데 평생을 바쳤지만, 이제 자신의 신분이 다른 사람들에게 도용당했다는 사실을 알게 되자 화가 나고 실망했다고 말했습니다. 또한 제니퍼 애니스톤, 오프라 윈프리, 카일리 제너 등 유명인의 목소리도 범죄자들에 의해 복제되어 이러한 현상의 보편성을 시사하고 있다.
최근 조사에 따르면 영국의 AI 음성 복제 사기가 지난 1년 동안 30% 증가했습니다. 설문 조사에 따르면 약 28%의 사람들이 지난 1년 동안 AI 음성 복제 사기를 한 번 이상 경험한 것으로 나타났습니다. 이러한 사기는 종종 모호한 전화 통화와 가짜 목소리를 특징으로 하여 피해자가 차이점을 구별하기 어렵게 만듭니다. 전문가들은 의심스러운 전화를 받으면 즉시 전화를 끊고 신뢰할 수 있는 전화번호로 전화하여 확인하는 것이 가장 좋습니다.
음성 복제 기술이 지속적으로 향상됨에 따라 전문가들은 기술로 인해 발생하는 법적 문제에 초점을 맞추기 시작했습니다. Dominic Lees 박사는 현재의 개인 정보 보호 및 저작권법이 아직 이 새로운 기술의 개발에 적응하지 못하여 Attenborough와 같은 많은 피해자가 사실상 무력하다고 말했습니다. 그는 영화 및 TV 제작에서 AI 기술의 윤리적 사용에 관해 영국 의회의 문화, 미디어 및 스포츠 위원회에 조언하고 있습니다.
뿐만 아니라 Li Si는 AI가 소리 합성 분야에서 상당한 발전을 이루었지만 여전히 감정 변화를 완전히 이해하지 못하여 소리의 현실성에 영향을 미친다고 지적했습니다. 또한, 더빙 업계도 이러한 변화에 빠르게 대응하고 있으며, 일부 기업에서는 시장 수요를 충족시키기 위해 일부 아티스트의 목소리를 복제하기 시작했습니다.
전반적으로 음성 복제 기술의 등장으로 특히 개인 정보 보호 및 평판 보호 측면에서 광범위한 우려가 제기되었습니다. 전문가들은 정부가 AI 기술이 가져온 새로운 과제에 대처하고 이 기술이 범죄자의 도구가 되는 것을 방지하기 위해 가능한 한 빨리 조치를 취할 것을 촉구합니다.
음성 복제 기술은 양날의 검이며, 이를 개발하려면 기술 진보와 윤리적 규범 간의 균형이 필요합니다. 앞으로는 입법 강화, 예방에 대한 대중의 인식 제고, 기술 자체의 안전한 개발 촉진이 음성 복제 기술의 위험성을 다루는 열쇠가 될 것입니다.