最近、Downcodes の編集者は、憂慮すべき AI セキュリティ インシデントについて知りました。FungiFriend という名前の AI エージェントが、Facebook のキノコ愛好家グループで、高濃度のヒ素を含む猛毒キノコ、サルコスファエラ コロナリアについて誤った摂取アドバイスを行い、さらには、さまざまな調理方法を詳細に説明し、AI アプリケーションの安全性について広く一般の懸念を引き起こしました。この事件は特別なケースではありません。AI は食品安全の分野で頻繁に間違いを犯し、AI 適用のリスクと課題を明らかにしています。
高濃度のヒ素を含むサルコスファエラ・コロナリアキノコの調理方法を尋ねられたとき、FungiFriendは、キノコは食用であると誤って述べただけでなく、揚げたり、煮込んだりするなど、さまざまな調理方法を詳しく説明しました。実際、このキノコは死亡事故を引き起こしています。
消費者安全団体パブリック・シチズンの研究責任者リック・クレイプール氏は、AIを使用して食用キノコと毒キノコを自動的に識別することはリスクの高い活動であり、現在のAIシステムはまだこのタスクを正確に完了できていないと指摘した。
これは特別なケースではありません。過去 1 年間、AI アプリケーションは食品安全の分野で頻繁に重大な間違いを犯しました。 - AI アプリケーションは蚊よけ剤を含むサンドイッチを作ることを推奨し、AI システムは塩素を含むレシピを与え、さらには石を食べることを示唆する不合理な指導さえしました - Google AI もは犬は運動できると主張し、ピザを作るために接着剤を使うことなどを提案した。
AIのエラーが多発しているにもかかわらず、米国企業は依然としてAI顧客サービスの普及を急速に進めている。品質よりもスピードを重視するこのアプローチの背景には、企業がコスト削減に注目するあまり、ユーザーの安全に十分な注意を払っていないという問題が反映されています。専門家は、情報の正確性と信頼性を確保するために、特定の分野、特にセキュリティに関わる分野では慎重にAI技術を利用するよう呼びかけている。
AI テクノロジーは急速に発展していますが、そのセキュリティと信頼性の問題は無視できません。今回の事件は、AIをリスクの高い分野で使用する場合、安全性を優先し、監督を強化し、同様の事件が二度と起こらないよう技術を向上させる必要があることを改めて思い起こさせます。 Downcodes の編集者は、AI テクノロジーが人類に安全かつ確実にサービスを提供できるよう、協力するようすべての関係者に呼びかけています。