El rápido desarrollo de la inteligencia artificial ha traído muchas comodidades, pero también plantea grandes riesgos. Recientemente, un agente de IA llamado "FunGifriend" dio consejos incorrectos de cocina de hongos en el grupo de entusiastas de los hongos de Facebook, que casi causó un desastre, destacando los riesgos de seguridad de la IA que se aplica a áreas de alto riesgo. El incidente ha provocado preocupaciones públicas sobre la seguridad de la IA y ha llevado a las personas a reexaminar los límites de la aplicación de la tecnología de IA.
Recientemente, un incidente que ocurrió en el grupo de entusiastas de los hongos de Facebook ha causado una vez más las preocupaciones sobre la seguridad de las aplicaciones de IA. Según 404Media, un agente de IA llamado "Fungifriend" se coló en el grupo "Identificación y discusión del hongo noreste" con 13,000 miembros y dio sugerencias falsas con riesgos potencialmente fatales.
Cuando se le preguntó cómo cocinar sarcosfaera coronaria hongos que contengan altas concentraciones de arsénico, el amigo fúngen no solo declaró erróneamente que el hongo es "comestible", sino que también introdujo una variedad de métodos de cocción que incluyen freír, saltear, estofado, etc. De hecho, este hongo ha causado casos fatales.
Rick Claypool, director de investigación de la Organización de Seguridad del Consumidor, Public Citizen, señaló que usar IA para automatizar la identificación de hongos comestibles y tóxicos es una "actividad de alto riesgo" y los sistemas actuales de IA no pueden completar con precisión esta tarea.
Este no es un caso aislado. En el último año, las aplicaciones de IA con frecuencia han cometido serios errores en el campo de la seguridad alimentaria: - Algunas aplicaciones de IA recomiendan hacer sándwiches que contengan repelentes de mosquitos, y un cierto sistema de IA ofrece recetas que contienen cloro e incluso una guía absurda para sugerir piedras de alimentación - Google Ai también afirmó que "los perros pueden hacer ejercicio" y sugirió usar pegamento para hacer pizza, etc.
A pesar de los frecuentes errores de IA, las compañías estadounidenses todavía promueven rápidamente la popularización del servicio al cliente de IA. Detrás de este enfoque de "enfoque en la velocidad y la calidad de negligencia" refleja que las empresas están demasiado preocupadas por los ahorros de costos y carecen de consideración para la seguridad del usuario. Los expertos piden precaución para usar la tecnología de IA en áreas específicas, especialmente aquellos que involucran seguridad, para garantizar la precisión y confiabilidad de la información.
El incidente "FunGiFriend" sonó una llamada de atención para advertirnos que mientras disfrutamos de la conveniencia de la IA, debemos prestar atención a sus riesgos de seguridad. En el futuro, la tecnología de IA debe ser probada y regulada antes de aplicarla para garantizar su confiabilidad y seguridad y evitar que vuelvan a ocurrir incidentes similares. Solo de esta manera se pueden utilizar realmente los beneficios de la IA y evitar que se convierta en un daño potencial.