谷歌最新發布的AI模型PaliGemma2聲稱能夠透過影像分析識別人類情緒,引發了廣泛爭議。該模型基於Gemma開放模型,能夠產生詳細的圖像描述,包括人物行為和情感。然而,專家們對此技術的科學性和安全性提出了強烈質疑,認為其基礎理論薄弱,且可能存在嚴重的偏見和倫理風險。
谷歌近日推出了全新的AI模型家族PaliGemma2,其最引人注目的功能是聲稱能夠透過影像分析"識別"人類情緒。這項宣稱迅速引發了學術界和技術倫理專家的廣泛討論和嚴重質疑。
這款基於Gemma開放模型的AI系統能夠產生詳細的圖像描述,不僅停留在簡單的物體識別,還試圖描述圖像中人物的行為和情感。然而,多位權威專家對這項技術的科學性和潛在風險提出了嚴重警告。
來自牛津互聯網研究所的數據倫理教授桑德拉·瓦赫特直言不諱地指出,試圖通過AI"讀取"人類情緒如同"問魔法八號球尋求建議"。這一比喻生動地揭示了情緒辨識技術的荒謬之處。
事實上,情緒辨識的科學基礎本身就極為脆弱。早期由心理學家保羅‧艾克曼提出的六種基本情緒理論已經被後續研究廣泛質疑。不同文化背景的人表達情感的方式有顯著差異,這使得通用的情緒辨識幾乎成為不可能的任務。
來自瑪麗女王大學的AI研究員麥克庫克更直接地表示,情緒檢測在普遍意義上是不可能的。儘管人類常常相信自己能夠透過觀察判斷他人的情緒,但這種能力遠比想像的複雜和不可靠。
更令人擔憂的是,這類AI系統往往存在著嚴重的偏見。多項研究顯示,臉部分析模型可能會對不同膚色的人產生不同的情緒判斷,這無疑會加劇現有的社會歧視。
儘管Google聲稱對PaliGemma2進行了廣泛的測試,並在一些基準測試中表現良好,但專家們對此仍持嚴重懷疑態度。他們認為,僅憑有限的測試根本無法全面評估這種技術可能帶來的倫理風險。
最危險的是,這種開放模式可能被濫用於就業、教育、執法等關鍵領域,對弱勢族群造成實際傷害。正如瓦赫特教授所警告的,這可能導致一個可怕的"失控"未來:人們的就業、貸款和教育機會將由一個不可靠的AI系統的"情緒判斷"決定。
在人工智慧快速發展的今天,科技創新固然重要,但倫理和安全同樣不可忽視。 PaliGemma2的出現,再次凸顯了我們需要對AI技術保持清醒和批判性的審視。
PaliGemma2的爭議,提醒我們需謹慎對待AI技術,尤其是涉及人類情感和社會公平的領域。 未來的AI發展,應將倫理考量置於優先地位,避免技術被濫用,造成不可挽回的社會後果。