El 1 de enero de 2024, un incidente que sorprendió al mundo ocurrió en Las Vegas. Un hombre detonó un Tesla Cybertruck fuera del hotel de Trump, un acto que no solo causó graves daños a la propiedad, sino que también generó profundas preocupaciones públicas sobre el abuso de la tecnología de inteligencia artificial. La característica especial del incidente es que antes de la explosión, el hombre realmente utilizó el chat de la herramienta de chat de inteligencia artificial para una planificación detallada.
En una investigación posterior, el Departamento de Policía de Las Vegas reveló que el hombre involucrado, Matthew Levielsberg, usó ChatGPT para realizar más de 17 preguntas en los días previos al incidente. Estos problemas cubren detalles específicos desde la obtención de materiales explosivos hasta problemas legales relacionados e incluso cómo usar armas de fuego para detonar explosivos. Levielsberg interactuó con ChatGPT en inglés simple, discutiendo preguntas, incluidas si los fuegos artificiales son legales en Arizona, dónde comprar armas en Denver y qué tipo de armas detonar efectivamente los explosivos.
El sheriff asistente Dory Colum confirmó en una conferencia de prensa que la respuesta de Chatgpt jugó un papel clave en el plan de bombardeo de Levielsberg. ChatGPT proporciona información detallada sobre la velocidad de las armas de fuego, lo que permite a Levielsberg implementar el plan sin problemas. Aunque la explosión final no fue tan fuerte como esperaba y algunos de los explosivos no se encendieron como se esperaba, el incidente aún conmocionó a las autoridades policiales.
"Ya sabíamos que AI cambiará nuestras vidas en algún momento, pero esta es la primera vez que he visto a alguien usar Chatgpt para construir un plan tan peligroso", dijo el jefe de policía de Las Vegas, Kevin McGill. Mecanismo de supervisión que puede marcar estas consultas relacionadas con explosivos y armas de fuego. Este incidente destaca las lagunas en la tecnología de IA en la supervisión de seguridad.
Aunque la policía de Las Vegas no ha revelado las preguntas específicas de ChatGPT, las preguntas presentadas en la conferencia de prensa son relativamente simples y no usan el término tradicional de "jailbreak". Vale la pena señalar que este uso claramente viola las políticas y términos de uso de Openai, pero no está claro si las medidas de seguridad de OpenAI jugaron un papel cuando Levielsberg usó la herramienta.
En respuesta, Openai respondió que está comprometido a permitir que los usuarios usen sus herramientas "responsablemente" y tiene como objetivo hacer que las herramientas de inteligencia artificiales rechacen las instrucciones dañinas. "En este incidente, CHATGPT solo responde a la información que se ha publicado en Internet y también proporciona advertencias para actividades dañinas o ilegales. Hemos estado trabajando para hacer que la AI sea más inteligente y más responsable", dijo OpenAI trabajando con agencias de aplicación de la ley para apoyar sus investigaciones.
El incidente no solo provocó preocupaciones públicas sobre el abuso de la tecnología de inteligencia artificial, sino que también llevó a las empresas de aplicación de la ley y tecnología a revisar las medidas de seguridad existentes. Con el rápido desarrollo de la tecnología de inteligencia artificial, cómo garantizar el progreso tecnológico al tiempo que evita que se utilice para actividades ilegales se ha convertido en un problema urgente.
Notas de fuente de imagen: La imagen es generada por AI y el proveedor de servicios autorizado de imagen MidJourney
Puntos clave:
El incidente ocurrió el 1 de enero de 2024, cuando un hombre detonó un Tesla Cybertruck afuera de un hotel Trump en Las Vegas.
El hombre usó ChatGPT durante una hora para planificar antes de la explosión, que implica la adquisición de explosivos y armas.
La policía dijo que esta es la primera vez que un individuo ha usado ChatGPT para realizar una actividad tan peligrosa en los Estados Unidos y que no se encontró un mecanismo regulatorio gubernamental efectivo.