New York a récemment mené un projet pilote de balayage d'armes AI visant à améliorer la sécurité des systèmes de métro à l'aide d'équipements de balayage fournis par EVOLV. Cependant, les résultats du projet pilote d'un mois ont été décevants, non seulement n'ont pas réussi à détecter des armes à feu, mais ont plutôt signalé à faussement 12 couteaux, entraînant des perquisitions et des retards inutiles pour 118 passagers. Cette décision a suscité des doutes publics sur la fiabilité et l'utilité pratique de la technologie, et met également en évidence les défis et les risques qui peuvent être confrontés lors de l'application de la technologie d'IA dans le domaine de la sécurité publique.
Récemment, les résultats d'un projet pilote de numérisation des armes AI à New York sont à couper le souffle. L'équipement de balayage fourni par la société technologique appelée EVOLV n'a pas trouvé de pistolet pendant les expériences du système de métro, mais a trouvé 12 couteaux.
Remarques de la source d'image: L'image est générée par l'IA, et le fournisseur de services autorisé l'image MidJourney
Le procès, qui a commencé fin juillet, n'a duré qu'un mois et les résultats ont été décevants. Selon CBS New York, malgré l'appareil détectant 12 couteaux, aucun dossier d'arrestation n'a été généré, ce qui a dépassé Diane Ackerman, avocat de l'Association d'aide juridique. Elle a dit que cela signifie que les couteaux peuvent être légaux et qu'il n'est pas nécessaire de procéder à 118 passagers.
En fait, ces 118 fausses alarmes ont dérangé de nombreux passagers. Beaucoup de gens souffrent de séjours inutiles et de fouilles lorsqu'ils traversent ces scanners. Même un journaliste de CBS a rencontré de fausses alarmes lors de la promenade de ces scanners deux fois en 2022 et 2023. De toute évidence, la fiabilité de ce système est inquiétante.
Malgré les mauvais résultats du projet, la ville a tenté de le défendre. Un porte-parole du NYPD a déclaré qu'il n'y avait pas de tirs pendant le procès dans une station de métro en utilisant la technologie EVOLV. Bien que cela soit vrai, selon le New York Times Research, la violence du métro est en fait relativement rare, ne se produisant généralement que chaque million de manèges. De plus, la technologie n'a été déployée que depuis un mois dans 20 des 472 stations de métro, ce qui rend difficile de prouver son effet dissuasif réel.
L'échec de ce projet de numérisation d'IA déçoit non seulement les citoyens, mais expose également de nombreux problèmes dans l'application de la technologie dans le domaine de la sécurité publique. La question de savoir si le gouvernement de la ville continuera d'investir dans cette technologie est toujours un sujet digne d'attention.
Points clés:
Aucune arme à feu n'a été trouvée, mais le rapport a montré que 12 couteaux avaient été trouvés.
118 fausses alarmes ont provoqué des séjours inutiles et des recherches pour les passagers.
Le gouvernement municipal a fait valoir que la technologie a un effet dissuasif, mais le support réel des données était insuffisant.
L'échec de ce projet pilote de numérisation des armes d'IA a non seulement exposé les défauts de la technologie elle-même, mais a également déclenché la réflexion des gens sur l'application de la technologie de l'IA dans le domaine de la sécurité publique. À l'avenir, l'application de technologies similaires devra être plus prudente et prêter attention à leur fiabilité et à leur précision pour éviter les problèmes et les préjudices inutiles au public.