Downcodes小編獲悉,微軟近期發佈白皮書,深入探討生成式AI的惡意利用問題。該報告揭示了AI被用於詐騙、製作兒童性虐待材料、操縱選舉以及製造非自願的私人影像等嚴重犯罪活動,強調這些問題不僅是技術挑戰,更對社會構成重大威脅。微軟呼籲全球合作,共同因應AI帶來的風險。
微軟近日發布了一份白皮書,深入分析了生成式人工智慧(AI)被惡意利用的情況,包括詐騙、兒童性虐待材料、選舉操控以及非自願的私人影像等問題。該公司強調,這些問題不僅是技術挑戰,更是對社會的重大威脅。
根據微軟的白皮書,犯罪者正愈發利用生成式AI 的能力來實施惡行。這些惡性行為包括利用AI 產生的虛假資訊進行詐騙、創建兒童性虐待材料、透過深度偽造技術進行選舉操控,以及製造非自願的親密影像,這些影像尤其會針對女性。微軟外部事務副總裁休・米爾沃德表示:“我們永遠不能忘記,濫用AI 對真實的人產生深遠影響。”
這本白皮書特別針對英國的政策制定者,提出了一套基於六個核心要素的綜合解決方案,以應對上述問題。這六個要素包括:強而有力的安全架構、媒體的永久來源和水印工具、現代化的法律以保護公眾、產業與政府和民間社會之間的強有力合作、對服務的濫用保護,以及公眾教育。
在針對英國政策制定者的具體建議中,微軟呼籲要求AI 系統提供者在使用者與AI 系統互動時,必須告知使用者該內容是由AI 產生的。此外,微軟建議實施先進的來源標記工具來標記合成內容,政府也應透過對其媒體內容進行真實性驗證,樹立榜樣。微軟也強調,需要新法律來禁止透過AI 工具進行的詐欺行為,以保護選舉的公正性。同時,保護兒童和女性免受網路剝削的法律框架也應加強,包括將性深度偽造的製作行為定為犯罪。
微軟也指出,儲存指示媒體是否由AI 產生的元資料技術非常重要。類似的項目已經由Adobe 等公司在推進,這些項目旨在幫助人們識別圖像的來源。然而,微軟認為像「內容憑證」 這樣的標準需要政策措施和公眾意識才能發揮效果。
此外,微軟與StopNCII.org 等組織合作,開發檢測和移除濫用影像的工具。受害者可以透過微軟的中央報告入口網站進行維權。而針對年輕人,失蹤與被剝削兒童國家中心提供的「Take It Down」服務也提供了額外支持。米爾沃德表示:“濫用AI 的問題可能會長期存在,因此我們需要加倍努力,與科技公司、慈善夥伴、民間社會和政府進行創造性合作,以應對這一問題。我們無法單打獨鬥。”
微軟這份白皮書為因應生成式AI的惡意應用提供了寶貴的參考,並強調了科技、法律和社會合作的重要性,為未來AI治理提供了重要的方向。只有多方攜手,才能有效應對AI帶來的風險,並保障社會安全與穩定。