近期,兩篇關於生成式人工智慧(AI)的論文引發熱議,直指AI生成的文本常常是「胡說八道」。這兩篇論文分別從AI的本質特性以及現行法律法規的不足角度,深入剖析了AI產生的錯誤訊息對社會帶來的潛在危害,並呼籲採取更有效的措施來規避風險。論文作者認為,簡單地將AI錯誤歸結為「幻覺」是誤導性的,應該用更準確的術語來描述這種現象,從而提升公眾對AI技術的認知和理解,並推動相關法律法規的完善。
最近,兩支研究團隊發布的論文引發了廣泛關注,直言生成式人工智慧(AI)產品的內容基本上可以被視為「胡說八道」。這篇名為「ChatGPT 是胡說八道」 的論文指出,生成式AI 在產出資訊時,對準確性的漠視為公眾服務者帶來了許多挑戰,尤其是那些有法律責任必須說實話的官員。
作者Michael Townsen Hicks、James Humphries 和Joe Slater 強調,生成式AI 產生的錯誤訊息,不能簡單地用「謊言」 或「幻覺」 來形容。與故意欺騙的謊言不同,胡說八道是指一種不在乎真相的表達方式,企圖給人一種特定的印象。他們認為,將AI 的錯誤稱為「幻覺」 只會誤導大眾,讓大家覺得這些機器在某種程度上仍然試圖傳達他們所「相信」 的東西。
他們表示:“稱這些錯誤為'胡說八道'而不是'幻覺',不僅更準確,也有助於提升公眾對科技的理解。” 這段話突顯了用更精準的術語來描述AI 錯誤的重要性,尤其是在當前科技傳播亟需改善的背景下。
同時,另一篇關於大型語言模型(LLMs)的研究論文則集中探討了歐盟在此議題上的法律與倫理環境。論文的結論是,目前關於AI 的法律法規仍然不夠完善,無法有效防止由這些AI 所產生的「胡說八道」 帶來的危害。作者Sandra Wachter、Brent Mittelstadt 和Chris Russell 建議引入類似於出版領域的法規,強調避免可能造成社會危害的「隨意發言」。
他們指出,這種義務強調,沒有任何單一實體,無論是公部門或私部門,應該成為真理的唯一裁決者。他們也表示,生成式AI 的「隨意發言」 可能將真理轉變為頻率和多數意見的問題,而不是真實的事實。
總而言之,這兩篇論文共同揭示了生成式AI潛在的風險,並呼籲社會各界共同關注並採取行動,完善相關法律法規,規範AI技術發展,確保AI技術能夠更好地服務於人類社會。