人工智能的快速发展带来了许多便利,但也潜藏着巨大的风险。近期,一个名为“FungiFriend”的AI代理在Facebook蘑菇爱好者群组中给出错误的蘑菇烹饪建议,差点酿成大祸,凸显了AI应用于高风险领域的安全隐患。该事件引发了公众对AI安全性的担忧,并促使人们重新审视AI技术的应用边界。
近日,一起发生在Facebook蘑菇爱好者群组的事件,再次引发了对AI应用安全性的担忧。据404Media报道,一个名为"FungiFriend"的AI代理潜入了拥有1.3万成员的"东北蘑菇识别与讨论"群组,并给出了具有潜在致命风险的错误建议。
当被询问如何烹饪含有高浓度砷的Sarcosphaera coronaria蘑菇时,FungiFriend不仅错误地表示该蘑菇"可以食用",还详细介绍了包括煎炒、炖煮等多种烹饪方法。而事实上,这种蘑菇已经造成过致命案例。
消费者安全组织Public Citizen的研究主管Rick Claypool指出,利用AI自动化识别可食用和有毒蘑菇是一项"高风险活动",目前的AI系统尚无法准确完成这项任务。
这并非个案。过去一年,AI应用在食品安全领域频频出现严重失误:-有AI应用推荐制作含驱蚊剂的三明治,某AI系统给出包含氯气的食谱,甚至出现建议食用石头的荒谬指导- 谷歌AI还曾声称"狗会运动",并建议用胶水制作披萨等。
尽管AI错误频出,但美国企业仍在快速推进AI客服的普及。这种"重速度轻质量"的做法背后,反映出企业过分关注成本节约,而对用户安全考虑不足的问题。专家呼吁,在特定领域,尤其是涉及安全的领域,应谨慎使用AI技术,确保信息的准确性和可靠性。
“FungiFriend”事件敲响了警钟,警示我们在享受AI便利的同时,必须重视其安全风险。 未来,AI技术在应用前需要更加严格的测试和监管,以确保其可靠性和安全性,避免类似事件再次发生。 只有这样,才能真正发挥AI的益处,避免其成为潜在的危害。