隨著人工智慧技術的快速發展,聲音克隆技術也日益成熟,然而其帶來的風險不容忽視。近年來,利用聲音克隆技術進行詐騙的案例屢見不鮮,許多知名人士都成為了受害者,引發了公眾對這項技術的擔憂以及對加強法律監管的呼籲。 Downcodes小編將為您詳細解讀聲音複製技術帶來的挑戰與應對之策。
隨著人工智慧技術的不斷進步,聲音克隆技術逐漸走入公眾視野,然而其潛在的風險也隨之顯現。最近,多位知名人士的聲音被不法份子惡意克隆,成為詐騙的工具。包括著名自然紀錄片主持人大衛・阿滕伯勒在內的多位名人,紛紛對此表示擔憂,並呼籲加強法律保護。
圖源備註:圖片由AI生成,圖片授權服務商Midjourney
近期,大衛・阿滕伯勒在發現自己的聲音被用於傳播政治新聞後,感到「深感不安」。他表示,自己一生致力於傳播真相,現在卻發現身分被他人盜用,這種情況讓他感到憤怒與失望。此外,珍妮佛・安妮斯頓、歐普拉・溫芙瑞和凱莉・詹納等明星的聲音也遭到不法分子的克隆,顯示這一現象的普遍性。
根據最新的調查,英國的AI 聲音克隆詐騙案件在過去一年中增加了30%。調查顯示,約28% 的人在過去一年中至少遇到過一次AI 聲音克隆的詐騙。這些詐騙往往以模糊的電話和仿冒的聲音為背景,使得受害者難以分辨真偽。專家建議,接到可疑電話時,最好立即掛斷並撥打可信任的電話號碼進行確認。
隨著聲音克隆技術的不斷提升,專家們開始關注這項技術所帶來的法律挑戰。多明尼克・李斯博士表示,目前的隱私和版權法律尚未適應這項新技術的發展,導致許多受害者如阿滕伯勒幾乎無能為力。他正在為英國議會文化、媒體和體育委員會提供諮詢,研究如何在影視製作中道德使用AI 技術。
不僅如此,李斯還指出,儘管AI 在聲音合成方面取得了顯著進展,但它仍然無法完全理解情感變化,從而影響聲音的真實感。此外,配音產業也在快速回應這項變化,部分公司開始複製一些藝術家的聲音,以便滿足市場需求。
總的來說,聲音克隆技術的興起引發了廣泛的關注,尤其是在保護個人隱私和聲譽方面。專家呼籲政府盡快採取措施,以應對AI 技術帶來的新挑戰,避免讓這項技術成為犯罪分子的工具。
聲音克隆技術是一把雙面刃,其發展需要在技術進步和倫理規範之間取得平衡。未來,加強立法、提升公眾防範意識以及推動技術本身的安全發展,將是應對聲音複製技術風險的關鍵。