New York City hat kürzlich ein KI -Waffen -Scan -Pilotprojekt durchgeführt, das darauf abzielt, die Sicherheit von U -Bahn -Systemen mithilfe von Scan -Geräten von EVOLV zu verbessern. Die Ergebnisse des einmonatigen Pilotprojekts waren jedoch enttäuschend, nicht nur keine Waffen, sondern meldeten fälschlicherweise 12 Messer, was zu unnötigen Durchsuchungen und Verzögerungen für 118 Passagiere führte. Dieser Schritt hat öffentliche Zweifel an der Zuverlässigkeit und dem praktischen Nutzen der Technologie geweckt und auch die Herausforderungen und Risiken hervorgehoben, mit denen die KI -Technologie im Bereich der öffentlichen Sicherheit angewendet werden kann.
Vor kurzem sind die Ergebnisse eines KI-Waffen-Scan-Pilotprojekts in New York City umwerfend. Die vom Technologieunternehmen namens EVOLV bereitgestellten Abtastgeräte fand während der Experimente für das U -Bahn -System keine Waffe, sondern 12 Messer.
Bildquelle Notizen: Das Bild wird von KI erzeugt, und der im Bild autorisierte Dienstanbieter Midjourney
Der Versuch, der Ende Juli begann, dauerte nur einen Monat und die Ergebnisse waren enttäuschend. Laut CBS New York wurden trotz des Geräts, das 12 Messer erkannte, keine Verhaftungsunterlagen erzeugt, die Diane Ackerman, einen Anwalt der Rechtshilfevereinigung, missbraucht haben. Sie sagte, dies bedeutet, dass die Messer legal sein können und keine zusätzlichen Durchsuchungen von 118 Passagieren erforderlich sind.
Tatsächlich störten diese 118 Fehlalarme viele Passagiere. Viele Menschen leiden unnötige Aufenthalte und Suchanfragen, wenn sie diese Scanner durchlaufen. Sogar ein CBS -Reporter stieß bei den zweimaligen Gehen durch diese Scanner im Jahr 2022 und 2023 auf Fehlalarme. Offensichtlich ist die Zuverlässigkeit dieses Systems besorgniserregend.
Trotz der schlechten Ergebnisse des Projekts versuchte die Stadt, es zu verteidigen. Ein NYPD -Sprecher sagte, dass es während des Versuchs in einer U -Bahn -Station mit EVOLV -Technologie keine Schießereien gab. Obwohl dies zutrifft, ist laut Forschung der New York Times U -Bahn -Gewalt tatsächlich relativ selten, in der Regel nur jede Million Fahrten. Darüber hinaus wurde die Technologie für nur einen Monat mit 20 von 472 U -Bahn -Stationen eingesetzt, was es schwierig macht, ihren tatsächlichen Abschreckungseffekt zu beweisen.
Das Scheitern dieses KI -Scanprojekts enttäuscht nicht nur die Bürger, sondern zeigt auch viele Probleme bei der Anwendung von Technologie im Bereich der öffentlichen Sicherheit. Ob die Stadtregierung weiterhin in diese Technologie investieren wird, ist immer noch ein Thema, das der Aufmerksamkeit verdient.
Schlüsselpunkte:
Es wurden keine Waffen gefunden, aber der Bericht zeigte, dass 12 Messer gefunden wurden.
118 Fehlalarme verursachten unnötige Aufenthalte und suchen nach Passagieren.
Die Stadtregierung argumentierte, dass Technologie einen abschreckenden Effekt hat, die tatsächliche Datenunterstützung sei jedoch nicht ausreichend.
Das Scheitern dieses Pilotprojekts für KI -Waffen scannen nicht nur die Mängel der Technologie selbst, sondern löste auch die Reflexion der Menschen über die Anwendung der KI -Technologie im Bereich der öffentlichen Sicherheit aus. In Zukunft muss die Anwendung ähnlicher Technologien vorsichtiger sein und auf ihre Zuverlässigkeit und Genauigkeit achten, um unnötige Probleme und Schäden für die Öffentlichkeit zu vermeiden.