Le développement rapide de l'intelligence artificielle a apporté de nombreuses commodités, mais elle présente également d'énormes risques. Récemment, un agent d'IA nommé "Fungifriend" a donné de mauvais conseils de cuisine des champignons dans le groupe Facebook Champroom Enthusiast, qui a presque causé une catastrophe, mettant en évidence les risques de sécurité de l'IA appliqués aux zones à haut risque. L'incident a suscité des préoccupations publiques concernant la sécurité de l'IA et a incité les gens à réexaminer les limites de l'application de la technologie de l'IA.
Récemment, un incident survenu dans le groupe Facebook Mushroom Enthusiast a une fois de plus causé des inquiétudes concernant la sécurité des demandes d'IA. Selon 404Media, un agent d'IA nommé "Fungifried" s'est glissé dans le groupe "Northeast Champroom Identification and Discussion" avec 13 000 membres et a donné de fausses suggestions avec des risques potentiellement mortels.
Lorsqu'on lui a demandé comment cuisiner des champignons coronaria Sarcosphaera contenant des concentrations élevées d'arsenic, un championnien a non seulement déclaré par erreur que le champignon est "comestible", mais a également introduit une variété de méthodes de cuisson, notamment la friture, le sauté, le ragoût, etc. En fait, ce champignon a provoqué des cas mortels.
Rick Claypool, directeur de recherche de l'organisation de sécurité des consommateurs Public Citizen, a souligné que l'utilisation de l'IA pour automatiser l'identification des champignons comestibles et toxiques est une "activité à haut risque" et les systèmes d'IA actuels ne sont pas en mesure de terminer avec précision cette tâche.
Ce n'est pas un cas isolé. Au cours de la dernière année, les applications d'IA ont fréquemment fait de graves erreurs dans le domaine de la sécurité alimentaire: - Certaines applications d'IA recommandent de faire des sandwichs contenant des répulsifs de moustiques, et un certain système d'IA donne des recettes contenant du chlore, et même des conseils absurdes sur la suggestion de manger des pierres - Google L'IA a également affirmé une fois que "les chiens pouvaient faire de l'exercice" et suggéré d'utiliser de la colle pour faire des pizzas, etc.
Malgré les erreurs fréquentes de l'IA, les entreprises américaines favorisent toujours rapidement la popularisation du service client d'IA. Derrière cette approche «Focus sur la vitesse et la qualité de négligence», reflète que les entreprises sont trop préoccupées par les économies de coûts et manquent de considération pour la sécurité des utilisateurs. Les experts demandent à la prudence d'utiliser la technologie d'IA dans des domaines spécifiques, en particulier ceux impliquant la sécurité, afin d'assurer la précision et la fiabilité des informations.
L'incident de "Fungifriend" a sonné un réveil pour nous avertir que tout en profitant de la commodité de l'IA, nous devons prêter attention à ses risques de sécurité. À l'avenir, la technologie de l'IA doit être testée et réglementée avant qu'elle ne soit appliquée pour garantir sa fiabilité et sa sécurité et éviter que des incidents similaires ne se reproduisent. Ce n'est que de cette manière que les avantages de l'IA peuvent être vraiment utilisés et éviter qu'il devienne un préjudice potentiel.