2024 년 1 월 1 일, 라스 베이거스에서 세계에 충격을주는 사건이 일어났다. 한 남자는 트럼프 호텔 외부의 테슬라 사이버 트럭 (Tesla Cybertruck)을 폭발 시켰습니다. 이 사건의 특별한 특징은 폭발하기 전에 실제로 인공 지능 채팅 도구 Chatgpt를 세부 계획을 위해 사용했다는 것입니다.
후속 조사에서 라스 베이거스 경찰국은 Matthew Levielsberg와 관련된 그 사람이 Chatgpt를 사용하여 사건 전날 17 개 이상의 질문을 수행했다고 밝혔다. 이러한 문제는 폭발물 자료를 얻는 것에서부터 관련 법적 문제에 이르기까지 특정 세부 사항을 다루고 심지어 총기를 사용하여 폭발물을 폭발시킵니다. Levielsberg는 간단한 영어로 Chatgpt와 상호 작용하여 애리조나에서 불꽃 놀이가 합법적인지, 덴버에서 총을 구입할 위치, 폭발물을 효과적으로 폭발시킬 총을 포함한 질문을 논의했습니다.
보안관 Dory Colum 보안관은 기자 회견에서 Chatgpt의 답변이 Levielsberg의 폭격 계획에서 중요한 역할을했다고 확인했습니다. Chatgpt는 총기 속도에 대한 자세한 정보를 제공하여 Levielsberg가 계획을 원활하게 구현할 수 있도록합니다. 최종 폭발은 그가 예상만큼 강하지 않았고 일부 폭발물 중 일부는 예상만큼 점화하지 않았지만,이 사건은 여전히 법 집행 기관에 충격을 주었다.
라스 베이거스 경찰서장 케빈 맥길 (Kevin McGill)은“우리는 이미 AI가 우리의 삶을 변화시킬 것이라는 것을 알고 있었지만, 이번이 처음으로 Chatgpt를 사용하여 위험한 계획을 세우는 것을 본다”고 말했다 폭발물 및 총기와 관련된 이러한 쿼리를 표시 할 수있는 감독 메커니즘. 이 사건은 보안 감독에서 AI 기술의 허점을 강조합니다.
라스 베이거스 경찰은 Chatgpt의 특정 질문을 공개하지 않았지만 기자 회견에서 제시된 질문은 비교적 간단하며 전통적인 "탈옥"용어를 사용하지 않습니다. 이 사용이 OpenAI의 사용 정책과 용어를 명확하게 위반한다는 점은 주목할 가치가 있지만 Levielsberg가 도구를 사용했을 때 OpenAI의 보안 조치가 역할을했는지는 확실하지 않습니다.
이에 따라 OpenAi는 사용자가 도구를 "책임감있게"사용할 수 있도록 최선을 다하고 있으며 인공 지능 도구가 유해한 지침을 거부하도록하는 것을 목표로했습니다. "이 사건에서 Chatgpt는 인터넷에 게시 된 정보에만 응답하고 유해하거나 불법적 인 활동에 대한 경고를 제공합니다 그들의 조사.
이 사건은 인공 지능 기술의 남용에 대한 대중의 우려를 불러 일으킬뿐만 아니라 법 집행 및 기술 회사가 기존 보안 조치를 다시 방문하도록 유도했습니다. 인공 지능 기술의 빠른 발전으로 인해 불법 활동에 사용되는 것을 방지하면서 기술적 진보를 보장하는 방법은 긴급한 문제가되었습니다.
이미지 소스 참고 : 이미지는 AI에 의해 생성되며 이미지 공인 서비스 제공 업체 Midjourney
핵심 사항 :
이 사건은 2024 년 1 월 1 일 라스 베이거스의 트럼프 호텔 밖에서 테슬라 사이버 트럭을 폭발시킨 2024 년 1 월 1 일에 일어났다.
그 사람은 폭발물과 총을 획득하는 것을 포함하여 폭발하기 전에 한 시간 동안 Chatgpt를 사용했습니다.
경찰은 개인이 Chatgpt를 사용하여 미국에서 그러한 위험한 활동을 수행 한 것은 이번이 처음이며 효과적인 정부 규제 메커니즘은 발견되지 않았다고 말했다.