隨著人工智慧技術的快速發展,聲音克隆技術日益成熟,但也帶來嚴重的社會問題。這項技術被不法分子利用,進行詐騙等違法活動,對大眾造成極大的困擾和經濟損失。許多知名人士,包括大衛·阿滕伯勒等,都成為了聲音克隆詐騙的受害者,他們呼籲加強法律監管,以應對這一新興的犯罪手段。
隨著人工智慧技術的不斷進步,聲音克隆技術逐漸走入公眾視野,然而其潛在的風險也隨之顯現。最近,多位知名人士的聲音被不法份子惡意克隆,成為詐騙的工具。包括著名自然紀錄片主持人大衛・阿滕伯勒在內的多位名人,紛紛對此表示擔憂,並呼籲加強法律保護。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
近期,大衛・阿滕伯勒在發現自己的聲音被用於傳播政治新聞後,感到「深感不安」。他表示,自己一生致力於傳播真相,現在卻發現身分被他人盜用,這種情況讓他感到憤怒與失望。此外,珍妮佛・安妮斯頓、歐普拉・溫芙瑞和凱莉・詹納等明星的聲音也遭到不法分子的克隆,顯示這一現象的普遍性。
根據最新的調查,英國的AI 聲音克隆詐騙案件在過去一年中增加了30%。調查顯示,約28% 的人在過去一年中至少遇到過一次AI 聲音克隆的詐騙。這些詐騙往往以模糊的電話和仿冒的聲音為背景,使得受害者難以分辨真偽。專家建議,接到可疑電話時,最好立即掛斷並撥打可信任的電話號碼進行確認。
隨著聲音克隆技術的不斷提升,專家們開始關注這項技術所帶來的法律挑戰。多明尼克・李斯博士表示,目前的隱私和版權法律尚未適應這項新技術的發展,導致許多受害者如阿滕伯勒幾乎無能為力。他正在為英國議會文化、媒體和體育委員會提供諮詢,研究如何在影視製作中道德使用AI 技術。
不僅如此,李斯還指出,儘管AI 在聲音合成方面取得了顯著進展,但它仍然無法完全理解情感變化,從而影響聲音的真實感。此外,配音產業也在快速回應這項變化,部分公司開始複製一些藝術家的聲音,以便滿足市場需求。
總的來說,聲音克隆技術的興起引發了廣泛的關注,尤其是在保護個人隱私和聲譽方面。專家呼籲政府盡快採取措施,以應對AI 技術帶來的新挑戰,避免讓這項技術成為犯罪分子的工具。
劃重點:
名人聲音被惡意克隆,阿滕伯勒等人表示深感不安。
英國AI 聲音複製詐騙案件增加30%,民眾警覺性提升。
專家呼籲更新法律,以應對AI 技術對隱私和版權的挑戰。
總而言之,聲音克隆技術的濫用已成為一個嚴重的社會問題,需要政府、企業和個人共同努力,加強監管,提高公眾防範意識,才能有效遏制此類犯罪行為的發生,並保障公眾利益和安全。