人工智能的快速發展帶來了許多便利,但也潛藏著巨大的風險。近期,一個名為“FungiFriend”的AI代理在Facebook蘑菇愛好者群組中給出錯誤的蘑菇烹飪建議,差點釀成大禍,凸顯了AI應用於高風險領域的安全隱患。該事件引發了公眾對AI安全性的擔憂,並促使人們重新審視AI技術的應用邊界。
近日,一起發生在Facebook蘑菇愛好者群組的事件,再次引發了對AI應用安全性的擔憂。據404Media報導,一個名為"FungiFriend"的AI代理潛入了擁有1.3萬成員的"東北蘑菇識別與討論"群組,並給出了具有潛在致命風險的錯誤建議。
當被詢問如何烹飪含有高濃度砷的Sarcosphaera coronaria蘑菇時,FungiFriend不僅錯誤地表示該蘑菇"可以食用",還詳細介紹了包括煎炒、燉煮等多種烹飪方法。而事實上,這種蘑菇已經造成過致命案例。
消費者安全組織Public Citizen的研究主管Rick Claypool指出,利用AI自動化識別可食用和有毒蘑菇是一項"高風險活動",目前的AI系統尚無法準確完成這項任務。
這並非個案。過去一年,AI應用在食品安全領域頻頻出現嚴重失誤:-有AI應用推薦製作含驅蚊劑的三明治,某AI系統給出包含氯氣的食譜,甚至出現建議食用石頭的荒謬指導- 谷歌AI還曾聲稱"狗會運動",並建議用膠水製作披薩等。
儘管AI錯誤頻出,但美國企業仍在快速推進AI客服的普及。這種"重速度輕質量"的做法背後,反映出企業過分關注成本節約,而對用戶安全考慮不足的問題。專家呼籲,在特定領域,尤其是涉及安全的領域,應謹慎使用AI技術,確保信息的準確性和可靠性。
“FungiFriend”事件敲響了警鐘,警示我們在享受AI便利的同時,必須重視其安全風險。 未來,AI技術在應用前需要更加嚴格的測試和監管,以確保其可靠性和安全性,避免類似事件再次發生。 只有這樣,才能真正發揮AI的益處,避免其成為潛在的危害。