ในวันที่ 1 มกราคม 2567 เหตุการณ์ที่ทำให้โลกตกตะลึงในลาสเวกัส ชายคนหนึ่งระเบิด Cybertruck นอกโรงแรมของทรัมป์ซึ่งเป็นการกระทำที่ไม่เพียง แต่ก่อให้เกิดความเสียหายอย่างร้ายแรง แต่ยังทำให้ประชาชนมีความกังวลอย่างลึกซึ้งเกี่ยวกับการใช้เทคโนโลยีปัญญาประดิษฐ์ในทางที่ผิด คุณลักษณะพิเศษของเหตุการณ์คือก่อนการระเบิดชายคนนั้นใช้เครื่องมือแชทปัญญาประดิษฐ์จริง ๆ สำหรับการวางแผนอย่างละเอียด
ในการสอบสวนครั้งต่อไปกรมตำรวจลาสเวกัสเปิดเผยว่าชายที่เกี่ยวข้องแมทธิวเลเวียลส์เบิร์กใช้ CHATGPT เพื่อดำเนินการมากกว่า 17 คำถามในไม่กี่วันก่อนเกิดเหตุการณ์ ปัญหาเหล่านี้ครอบคลุมรายละเอียดเฉพาะจากการได้รับวัสดุระเบิดไปจนถึงปัญหาทางกฎหมายที่เกี่ยวข้องและแม้แต่วิธีการใช้อาวุธปืนเพื่อจุดระเบิดระเบิด Levielsberg มีปฏิสัมพันธ์กับ CHATGPT เป็นภาษาอังกฤษง่ายๆพูดคุยเกี่ยวกับคำถามรวมถึงดอกไม้ไฟถูกกฎหมายในรัฐแอริโซนาที่จะซื้อปืนในเดนเวอร์และปืนชนิดใดที่จะระเบิดระเบิดได้อย่างมีประสิทธิภาพ
ผู้ช่วยนายอำเภอ Dory Colum ยืนยันในงานแถลงข่าวว่าคำตอบของ Chatgpt มีบทบาทสำคัญในแผนการวางระเบิดของ Levielsberg Chatgpt ให้ข้อมูลโดยละเอียดเกี่ยวกับความเร็วของอาวุธปืนทำให้ Levielsberg สามารถดำเนินการตามแผนได้อย่างราบรื่น แม้ว่าการระเบิดครั้งสุดท้ายจะไม่แข็งแกร่งเท่าที่เขาคาดไว้และระเบิดบางส่วนไม่ได้จุดประกายตามที่คาดไว้ แต่เหตุการณ์ยังคงทำให้เจ้าหน้าที่บังคับใช้กฎหมายตกใจ
“ เรารู้แล้วว่า AI จะเปลี่ยนชีวิตของเราในบางจุด แต่นี่เป็นครั้งแรกที่ฉันได้เห็นใครบางคนใช้ CHATGPT เพื่อสร้างแผนอันตรายเช่นนี้” Kevin McGill หัวหน้าตำรวจลาสเวกัสกล่าว กลไกการกำกับดูแลที่สามารถทำเครื่องหมายการสืบค้นเหล่านี้ที่เกี่ยวข้องกับวัตถุระเบิดและอาวุธปืน เหตุการณ์นี้เน้นช่องโหว่ในเทคโนโลยี AI ในการกำกับดูแลความปลอดภัย
แม้ว่าตำรวจลาสเวกัสไม่ได้เปิดเผยคำถามเฉพาะจาก Chatgpt คำถามที่นำเสนอในงานแถลงข่าวนั้นค่อนข้างง่ายและไม่ได้ใช้คำว่า "การแหกคุก" แบบดั้งเดิม เป็นที่น่าสังเกตว่าการใช้งานนี้เป็นการละเมิดนโยบายและข้อกำหนดการใช้งานของ Openai อย่างชัดเจน แต่ก็ไม่ชัดเจนว่ามาตรการรักษาความปลอดภัยของ Openai มีบทบาทหรือไม่เมื่อ Levielsberg ใช้เครื่องมือนี้หรือไม่
ในการตอบสนอง OpenAI ตอบว่ามีความมุ่งมั่นที่จะอนุญาตให้ผู้ใช้ใช้เครื่องมือ "รับผิดชอบ" และมีจุดมุ่งหมายเพื่อให้เครื่องมือปัญญาประดิษฐ์ปฏิเสธคำแนะนำที่เป็นอันตราย “ ในเหตุการณ์นี้ Chatgpt ตอบสนองต่อข้อมูลที่เผยแพร่บนอินเทอร์เน็ตเท่านั้นและยังให้คำเตือนสำหรับกิจกรรมที่เป็นอันตรายหรือผิดกฎหมายเราได้ทำงานเพื่อให้ AI ฉลาดขึ้นและรับผิดชอบมากขึ้น” Openai กล่าว การสืบสวนของพวกเขา
เหตุการณ์ดังกล่าวไม่เพียง แต่จุดประกายความกังวลของสาธารณชนเกี่ยวกับการใช้เทคโนโลยีปัญญาประดิษฐ์ในทางที่ผิด แต่ยังกระตุ้นให้ บริษัท บังคับใช้กฎหมายและเทคโนโลยีเพื่อทบทวนมาตรการรักษาความปลอดภัยที่มีอยู่ ด้วยการพัฒนาอย่างรวดเร็วของเทคโนโลยีปัญญาประดิษฐ์วิธีการสร้างความมั่นใจในความก้าวหน้าทางเทคโนโลยีในขณะที่ป้องกันไม่ให้มันถูกนำมาใช้สำหรับกิจกรรมที่ผิดกฎหมายได้กลายเป็นปัญหาเร่งด่วน
หมายเหตุแหล่งที่มาของภาพ: ภาพถูกสร้างขึ้นโดย AI และผู้ให้บริการที่ได้รับอนุญาตภาพ Midjourney
ประเด็นสำคัญ:
เหตุการณ์ดังกล่าวเกิดขึ้นเมื่อวันที่ 1 มกราคม 2567 เมื่อชายคนหนึ่งจุดระเบิด Tesla Cybertruck นอกโรงแรมทรัมป์ในลาสเวกัส
ชายคนนั้นใช้ CHATGPT เป็นเวลาหนึ่งชั่วโมงในการวางแผนก่อนการระเบิดซึ่งเกี่ยวข้องกับการได้มาของวัตถุระเบิดและปืน
ตำรวจกล่าวว่านี่เป็นครั้งแรกที่บุคคลหนึ่งได้ใช้ CHATGPT เพื่อดำเนินกิจกรรมอันตรายในสหรัฐอเมริกาและไม่พบกลไกการกำกับดูแลของรัฐบาลที่มีประสิทธิภาพ