A cidade de Nova York realizou recentemente um projeto piloto de varredura de armas de IA, destinado a melhorar a segurança dos sistemas de metrô usando equipamentos de varredura fornecidos pela Evolv. No entanto, os resultados do projeto piloto de um mês foram decepcionantes, não apenas falharam em detectar armas, mas também relataram falsamente 12 facas, resultando em pesquisas desnecessárias e atrasos para 118 passageiros. Esse movimento despertou dúvidas sobre a confiabilidade e a utilidade prática da tecnologia e também destaca os desafios e riscos que podem ser enfrentados ao aplicar a tecnologia de IA no campo da segurança pública.
Recentemente, os resultados de um projeto piloto de digitalização de armas de IA na cidade de Nova York são cair o queixo. O equipamento de varredura fornecido pela empresa de tecnologia chamado Evolv não encontrou uma arma durante os experimentos para o sistema de metrô, mas encontrou 12 facas.
Notas da fonte da imagem: A imagem é gerada pela IA e a imagem autorizada provedor de serviços Midjourney
O julgamento, que começou no final de julho, durou apenas um mês e os resultados foram decepcionantes. De acordo com a CBS New York, apesar do dispositivo detectar 12 facas, nenhum registro de prisão foi gerado, que descontecia Diane Ackerman, advogada da Associação de Assistência Jurídica. Ela disse que isso significa que as facas podem ser legais e não há necessidade de realizar pesquisas adicionais de 118 passageiros.
De fato, esses 118 alarmes falsos incomodaram muitos passageiros. Muitas pessoas sofrem de estadias e pesquisas desnecessárias à medida que passam por esses scanners. Mesmo um repórter da CBS encontrou alarmes falsos ao caminhar por esses scanners duas vezes em 2022 e 2023. Obviamente, a confiabilidade desse sistema é preocupante.
Apesar dos maus resultados do projeto, a cidade tentou defendê -lo. Um porta -voz da polícia de Nova York disse que não houve tiroteios durante o julgamento em uma estação de metrô usando a tecnologia Evolv. Embora isso seja verdade, de acordo com a pesquisa do New York Times, a violência do metrô é realmente relativamente rara, geralmente apenas acontecendo a cada milhão de passeios. Além disso, a tecnologia foi implantada há apenas um mês em 20 das 472 estações de metrô, dificultando a compra de seu efeito de dissuasão real.
O fracasso deste projeto de digitalização de IA não apenas decepciona os cidadãos, mas também expõe muitos problemas na aplicação da tecnologia no campo da segurança pública. Se o governo da cidade continuará investindo nessa tecnologia ainda é um tópico digno de atenção.
Pontos -chave:
Não foram encontradas armas, mas o relatório mostrou que 12 facas foram encontradas.
118 Alarmes falsos causaram estadias desnecessárias e pesquisas de passageiros.
O governo municipal argumentou que a tecnologia tem um efeito de dissuasão, mas o suporte de dados real era insuficiente.
O fracasso deste projeto piloto de digitalização de armas de IA não apenas expôs as falhas da própria tecnologia, mas também desencadeou a reflexão das pessoas sobre a aplicação da tecnologia de IA no campo da segurança pública. No futuro, a aplicação de tecnologias semelhantes precisará ser mais cautelosa e prestar atenção à sua confiabilidade e precisão para evitar problemas desnecessários e danos ao público.