Die schnelle Entwicklung künstlicher Intelligenz hat viele Annehmlichkeiten mitgebracht, ist aber auch enorme Risiken. Kürzlich gab ein KI-Agent namens "Fungifriend" in der Facebook-Pilz-Enthusiast-Gruppe einen falschen Pilzkochberatung, der fast eine Katastrophe verursachte, wodurch die Sicherheitsrisiken der KI hervorgehoben wurden, die auf Hochrisikobereiche angewendet wurden. Der Vorfall hat öffentliche Bedenken hinsichtlich der KI -Sicherheit ausgelöst und die Menschen dazu veranlasst, die Anwendungsgrenzen der KI -Technologie erneut zu untersuchen.
In jüngster Zeit hat ein Vorfall, der in der Facebook -Pilz -Enthusiast -Gruppe stattgefunden hat, erneut Bedenken hinsichtlich der Sicherheit von AI -Anwendungen ausgelöst. Laut 404Media schlich sich ein KI -Agent namens "Fungifriend" mit 13.000 Mitgliedern in die "Northeast Pilz Identifikation und Diskussion" -Gruppe und gab falsche Vorschläge mit potenziell tödlichen Risiken.
Auf die Frage, wie man Sarcosphaera-Coronaria-Pilze kocht, die hohe Konzentrationen an Arsen enthielten, erklärte Pilzifriend nicht nur fälschlicherweise fälschlicherweise, dass der Pilz "essbar" ist, sondern auch eine Vielzahl von Kochmethoden vorstellte, darunter Braten, Braten, Eintotungen usw. Tatsächlich hat dieser Pilz tödliche Fälle verursacht.
Rick Claypool, Forschungsdirektor der Public Citizen der Consumer Security Organization, wies darauf hin, dass die Verwendung von AI zur Automatisierung der Identifizierung von essbaren und giftigen Pilzen eine "Hochrisikotätigkeit" ist, und aktuelle KI-Systeme können diese Aufgabe nicht genau erledigen.
Dies ist kein Einzelfall. Im vergangenen Jahr haben KI -Anwendungen im Bereich der Lebensmittelsicherheit häufig ernsthafte Fehler gemacht KI auch einmal behauptete er einmal, dass "Hunde trainieren können" und schlug vor, Kleber zu verwenden, um Pizza usw. zu machen, usw.
Trotz häufiger KI -Fehler fördern amerikanische Unternehmen immer noch rasch für die Popularisierung des KI -Kundenservice. Hinter diesem "Fokus auf Geschwindigkeits- und Vernachlässigungsqualitätsansatz" spiegelt sich die Unternehmen über die Kosteneinsparungen und fehlt für die Sicherheit der Benutzer übermäßig besorgt. Experten fordern Vorsicht, die KI -Technologie in bestimmten Bereichen, insbesondere in der Sicherheit, zu verwenden, um die Genauigkeit und Zuverlässigkeit von Informationen zu gewährleisten.
Der Vorfall mit "Fungifriend" war ein Weckruf, um uns zu warnen, dass wir während der Bequemlichkeit der KI auf seine Sicherheitsrisiken achten müssen. In Zukunft muss die KI -Technologie getestet und reguliert werden, bevor sie angewendet wird, um ihre Zuverlässigkeit und Sicherheit zu gewährleisten und zu vermeiden, dass ähnliche Vorfälle erneut stattfinden. Nur auf diese Weise können die Vorteile von KI wirklich genutzt werden und vermeiden, dass es zu einem potenziellen Schaden wird.