Le 1er janvier 2024, un incident qui a choqué le monde s'est produit à Las Vegas. Un homme a fait exploser un Tesla Cybertruck à l'extérieur de l'hôtel de Trump, un acte qui a non seulement causé de graves dommages matériels, mais a également soulevé de profondes préoccupations publiques concernant l'abus de la technologie de l'intelligence artificielle. La caractéristique spéciale de l'incident est qu'avant l'explosion, l'homme a en fait utilisé l'outil de chat d'intelligence artificielle Chatgpt pour une planification détaillée.
Dans une enquête ultérieure, le département de police de Las Vegas a révélé que l'homme impliqué, Matthew Levelsberg, a utilisé Chatgpt pour mener plus de 17 questions dans les jours précédant l'incident. Ces problèmes couvrent les détails spécifiques de l'obtention du matériel explosif aux problèmes juridiques connexes, et même de la façon d'utiliser des armes à feu pour faire exploser les explosifs. Levielsberg a interagi avec Chatgpt en anglais simple, en discutant des questions, notamment si les feux d'artifice sont légaux en Arizona, où acheter des armes à feu à Denver, et quel type d'armes à feu pour faire exploser efficacement les explosifs.
Le shérif adjoint Dory Colum a confirmé lors d'une conférence de presse que la réponse de Chatgpt a joué un rôle clé dans le plan de bombardement de Levelsberg. Chatgpt fournit des informations détaillées sur la vitesse des armes à feu, permettant à LevelSberg de mettre en œuvre le plan en douceur. Bien que l'explosion finale n'ait pas été aussi forte que ce à quoi il s'y attendait et que certains explosifs ne s'enflamaient pas comme prévu, l'incident a toujours choqué les autorités chargées de l'application des lois.
"Nous savions déjà que l'IA changera nos vies à un moment donné, mais c'est la première fois que je vois quelqu'un utiliser Chatgpt pour construire un plan aussi dangereux", a déclaré le chef de la police de Las Vegas, Kevin McGill. Mécanisme de supervision qui peut marquer ces requêtes liées aux explosifs et aux armes à feu. Cet incident met en évidence les lacunes de la technologie de l'IA dans la supervision de la sécurité.
Bien que la police de Las Vegas n'ait pas divulgué les questions spécifiques de Chatgpt, les questions présentées lors de la conférence de presse sont relativement simples et n'utilisent pas le mandat traditionnel de "jailbreak". Il convient de noter que cette utilisation viole clairement les politiques et les termes d'utilisation d'Openai, mais il n'est pas clair si les mesures de sécurité d'Openai ont joué un rôle lorsque Levelsberg a utilisé l'outil.
En réponse, OpenAI a répondu qu'il s'est engagé à permettre aux utilisateurs d'utiliser "de manière responsable" et vise à faire rejeter des instructions nuisibles. "Dans cet incident, Chatgpt répond uniquement aux informations qui ont été publiées sur Internet et prévoient également des avertissements pour des activités nuisibles ou illégales. Nous avons travaillé pour rendre l'IA plus intelligente et plus responsable", a déclaré Openai. leurs enquêtes.
L'incident a non seulement déclenché des préoccupations publiques concernant l'abus de la technologie de l'intelligence artificielle, mais a également incité les sociétés d'application de la loi et de technologie à revoir les mesures de sécurité existantes. Avec le développement rapide de la technologie de l'intelligence artificielle, la façon d'assurer les progrès technologiques tout en empêchant l'empêcher d'être utilisé pour les activités illégales est devenue un problème urgent.
Remarques de la source d'image: L'image est générée par l'IA, et le fournisseur de services autorisé l'image MidJourney
Points clés:
L'incident s'est produit le 1er janvier 2024, lorsqu'un homme a fait exploser un Tesla Cybertruck à l'extérieur d'un hôtel Trump à Las Vegas.
L'homme a utilisé Chatgpt pendant une heure pour planifier avant l'explosion, impliquant l'acquisition d'explosifs et d'armes à feu.
La police a déclaré que c'était la première fois qu'un individu utilise Chatgpt pour mener une activité aussi dangereuse aux États-Unis et aucun mécanisme de réglementation gouvernemental efficace n'a été trouvé.