O rápido desenvolvimento da inteligência artificial trouxe muitas conveniências, mas também apresenta riscos enormes. Recentemente, um agente de IA chamado "Fungifriend" deu conselhos errados para cozinhar cogumelos no grupo de entusiastas de cogumelos do Facebook, que quase causou um desastre, destacando os riscos de segurança de a IA ser aplicada a áreas de alto risco. O incidente provocou preocupações públicas sobre a segurança da IA e levou as pessoas a reexaminar os limites da aplicação da tecnologia de IA.
Recentemente, um incidente que ocorreu no grupo de entusiastas dos cogumelos do Facebook causou mais uma vez preocupações sobre a segurança dos aplicativos de IA. De acordo com o 404Media, um agente de IA chamado "Fungifriend" entrou no grupo "Identificação e discussão do nordeste de cogumelos" com 13.000 membros e deu sugestões falsas com riscos potencialmente fatais.
Quando perguntado como cozinhar cogumelos Sarcosphaera Coronaria, contendo altas concentrações de arsênico, Fungifrind não apenas afirmou que o cogumelo é "comestível", mas também introduziu uma variedade de métodos de culinária, incluindo fritar, fritar, ensopado, etc. De fato, esse cogumelo causou casos fatais.
Rick Claypool, diretor de pesquisa da Organização de Segurança do Consumidor, Public Citizen, apontou que o uso da IA para automatizar a identificação de cogumelos comestíveis e tóxicos é uma "atividade de alto risco" e os sistemas atuais de IA não conseguem concluir com precisão esta tarefa.
Este não é um caso isolado. No ano passado, as aplicações de IA cometeram erros graves no campo da segurança alimentar: - Alguns aplicativos de IA recomendam fazer sanduíches contendo repelentes de mosquitos, e um certo sistema de IA fornece receitas contendo cloro e até orientação absurda sobre sugerir pedras - Google Google Ai também ele afirmou que "os cães podem se exercitar" e sugeriram usar cola para fazer pizza, etc.
Apesar dos frequentes erros de IA, as empresas americanas ainda estão promovendo rapidamente a popularização do serviço ao cliente da IA. Por trás dessa abordagem "foco na qualidade e na qualidade da negligência" reflete que as empresas estão preocupadas demais com a economia de custos e falta em consideração pela segurança do usuário. Os especialistas pedem cautela para usar a tecnologia de IA em áreas específicas, especialmente aquelas que envolvem segurança, para garantir a precisão e a confiabilidade das informações.
O incidente de "fungifriend" soou um alerta para nos alertar que, ao desfrutar da conveniência da IA, devemos prestar atenção aos seus riscos de segurança. No futuro, a tecnologia de IA precisa ser testada e regulamentada antes de ser aplicada para garantir sua confiabilidade e segurança e evitar que incidentes semelhantes aconteçam novamente. Somente dessa maneira os benefícios da IA podem ser verdadeiramente utilizados e evitá -la se tornar um dano em potencial.