Em 1º de janeiro de 2024, um incidente que chocou o mundo ocorreu em Las Vegas. Um homem detonou um Tesla Cybertruck fora do hotel de Trump, um ato que não apenas causou danos graves à propriedade, mas também levantou profundas preocupações públicas sobre o abuso de tecnologia de inteligência artificial. A característica especial do incidente é que, antes da explosão, o homem realmente usou a ferramenta de bate -papo de inteligência artificial para o planejamento detalhado.
Em uma investigação subsequente, o Departamento de Polícia de Las Vegas divulgou que o homem envolvido, Matthew Levielsberg, usou o ChatGPT para realizar mais de 17 perguntas nos dias anteriores ao incidente. Essas questões abrangem detalhes específicos da obtenção de materiais explosivos a questões legais relacionadas e até como usar armas de fogo para detonar explosivos. Levielsberg interagiu com o ChatGPT em inglês simples, discutindo perguntas, incluindo se os fogos de artifício são legais no Arizona, onde comprar armas em Denver e que tipo de armas detonarem efetivamente explosivos.
O xerife assistente Dory Colum confirmou em uma conferência de imprensa que a resposta do ChatGPT desempenhou um papel fundamental no plano de bombardeio de Levielsberg. O ChatGPT fornece informações detalhadas sobre a velocidade das armas de fogo, permitindo que Levielsberg implemente o plano sem problemas. Embora a explosão final não tenha sido tão forte quanto ele esperava e alguns dos explosivos não se acenderam como o esperado, o incidente ainda chocou as autoridades policiais.
"Já sabia que a IA mudará nossas vidas em algum momento, mas é a primeira vez que vi alguém usar o Chatgpt para construir um plano tão perigoso", disse o chefe da polícia de Las Vegas, Kevin McGill. Mecanismo de supervisão que pode marcar essas consultas relacionadas a explosivos e armas de fogo. Este incidente destaca as brechas na tecnologia de IA na supervisão de segurança.
Embora a polícia de Las Vegas não tenha divulgado as perguntas específicas do ChatGPT, as perguntas apresentadas na conferência de imprensa são relativamente simples e não usam o termo "jailbreak" tradicional. Vale ressaltar que esse uso viola claramente as políticas e termos de uso da OpenAI, mas não está claro se as medidas de segurança do OpenAI tiveram um papel quando Levielsberg usou a ferramenta.
Em resposta, o OpenAI respondeu que está comprometido em permitir que os usuários usem suas ferramentas "com responsabilidade" e pretendem fazer com que as ferramentas de inteligência artificial rejeitem instruções prejudiciais. "Neste incidente, o ChatGPT responde apenas a informações publicadas na Internet e também fornece avisos para atividades prejudiciais ou ilegais. Trabalhamos para tornar a AI mais inteligente e responsável", disse o Openai. suas investigações.
O incidente não apenas despertou preocupações públicas sobre o abuso de tecnologia de inteligência artificial, mas também levou as empresas de aplicação e tecnologia da lei a revisitar as medidas de segurança existentes. Com o rápido desenvolvimento da tecnologia de inteligência artificial, como garantir o progresso tecnológico, impedindo que ele seja usado para atividades ilegais, tornou -se um problema urgente.
Notas da fonte da imagem: A imagem é gerada pela IA e a imagem autorizada provedor de serviços Midjourney
Pontos -chave:
O incidente aconteceu em 1º de janeiro de 2024, quando um homem detonou um Tesla Cybertruck do lado de fora de um hotel Trump em Las Vegas.
O homem usou o ChatGPT por uma hora para planejar antes da explosão, envolvendo a aquisição de explosivos e armas.
A polícia disse que é a primeira vez que um indivíduo usa o ChatGPT para conduzir uma atividade tão perigosa nos Estados Unidos e nenhum mecanismo regulatório do governo eficaz foi encontrado.