人工知能の急速な発展は多くの便利さをもたらしましたが、それはまた大きなリスクをもたらします。最近、「Fungifriend」という名前のAIエージェントが、Facebook Mushroom愛好家グループで誤ったキノコの料理のアドバイスを与えました。この事件は、AIのセキュリティに関する国民の懸念を引き起こし、AIテクノロジーのアプリケーション境界を再検討するように人々に促しました。
最近、Facebookマッシュルーム愛好家グループで発生した事件は、AIアプリケーションのセキュリティに関する懸念を再び引き起こしました。 404Mediaによると、「Fungifriend」という名前のAIエージェントが13,000人のメンバーと「Northeast Mushroomの識別とディスカッション」グループに忍び込み、潜在的に致命的なリスクを伴う誤った提案をしました。
高濃度のヒ素を含むSarcosphaera Coronariaマッシュルームを調理する方法を尋ねられたとき、真菌は、キノコが「食用」であると誤って述べただけでなく、揚げ、炒め物、煮込みなどを含むさまざまな調理方法も導入しました。実際、このキノコは致命的なケースを引き起こしています。
消費者セキュリティ機関の公共市民の研究ディレクターであるリック・クレイプールは、AIを使用して食用および有毒キノコの識別を自動化することは「リスクの高い活動」であり、現在のAIシステムはこのタスクを正確に完了できないと指摘しました。
これは孤立したケースではありません。過去1年間、AIアプリケーションは食品安全の分野で深刻な間違いを犯しました。-一部のAIアプリケーションは、蚊の忌避剤を含むサンドイッチを作成することを推奨しています。 AIはまた、彼はかつて「犬は運動できる」と主張し、接着剤を使ってピザなどを使用することを提案しました。
頻繁にAIエラーが発生しているにもかかわらず、アメリカ企業はAIカスタマーサービスの普及を急速に促進しています。この「スピードとネグレクトの品質に焦点を当てる」アプローチの背後にあるのは、企業がコスト削減に過度に懸念しており、ユーザーの安全性に関する考慮事項がないことを反映しています。専門家は、情報の正確性と信頼性を確保するために、特定の分野、特にセキュリティを含む領域でAIテクノロジーを使用するように注意する必要があります。
「Fungifriend」事件は、AIの利便性を享受している間、私たちはそのセキュリティリスクに注意を払わなければならないと警告するためのモーニングコールを鳴らしました。 将来的には、AIテクノロジーは、その信頼性とセキュリティを確保し、同様のインシデントが再び起こらないようにするために適用される前にテストおよび規制する必要があります。 この方法でのみ、AIの利点を真に利用し、潜在的な害になることを避けることができます。