กระทรวงกลาโหมของสหรัฐอเมริกากำลังสำรวจการประยุกต์ใช้ปัญญาประดิษฐ์ในด้านการทหารอย่างจริงจัง และกำลังร่วมมือกับบริษัท AI ชั้นนำ เช่น OpenAI และ Anthropic ความร่วมมือนี้มีจุดมุ่งหมายเพื่อเพิ่มประสิทธิภาพของกระทรวงกลาโหม ในขณะเดียวกันก็ยึดมั่นหลักการไม่ใช้เทคโนโลยี AI สำหรับอาวุธร้ายแรงอย่างเคร่งครัด บทความนี้สำรวจบทบาทของ AI ในการตัดสินใจทางทหาร ตลอดจนความขัดแย้งทางจริยธรรมเกี่ยวกับอำนาจในการตัดสินใจเกี่ยวกับอาวุธอัตโนมัติของ AI และแสดงให้เห็นถึงทัศนคติที่ระมัดระวังของกระทรวงกลาโหมและการกำกับดูแลการประยุกต์ใช้เทคโนโลยี AI อย่างเข้มงวด
ในขณะที่เทคโนโลยีปัญญาประดิษฐ์ก้าวหน้าอย่างรวดเร็ว นักพัฒนา AI ชั้นนำอย่าง OpenAI และ Anthropic กำลังทำงานอย่างหนักเพื่อทำงานร่วมกับกองทัพสหรัฐฯ โดยพยายามปรับปรุงประสิทธิภาพของกระทรวงกลาโหม ในขณะเดียวกันก็ทำให้มั่นใจว่าเทคโนโลยี AI ของพวกเขาจะไม่ถูกใช้เป็นอาวุธร้ายแรง ดร. Radha Plumb หัวหน้าเจ้าหน้าที่ดิจิทัลและ AI ของกระทรวงกลาโหมกล่าวในการให้สัมภาษณ์กับ TechCrunch ว่าปัจจุบัน AI ไม่ได้ใช้ในอาวุธ แต่ช่วยให้กระทรวงกลาโหมมีข้อได้เปรียบที่สำคัญในการระบุ การติดตาม และการประเมินภัยคุกคาม
หมายเหตุแหล่งที่มาของรูปภาพ: รูปภาพนี้สร้างขึ้นโดย AI และผู้ให้บริการอนุญาตรูปภาพ Midjourney
ดร.พลัมบ์กล่าวว่าเพนตากอนกำลังเร่งดำเนินการ "ห่วงโซ่การสังหาร" ซึ่งเป็นกระบวนการที่เกี่ยวข้องกับการระบุ ติดตาม และกำจัดภัยคุกคาม ซึ่งเกี่ยวข้องกับเซ็นเซอร์ แพลตฟอร์ม และระบบอาวุธที่ซับซ้อน AI เจนเนอเรชั่นแสดงศักยภาพในขั้นตอนการวางแผนและกลยุทธ์ของห่วงโซ่การฆ่า เธอตั้งข้อสังเกตว่า AI สามารถช่วยให้ผู้บังคับบัญชาตอบสนองได้อย่างรวดเร็วและมีประสิทธิภาพเมื่อเผชิญกับภัยคุกคาม ในช่วงไม่กี่ปีที่ผ่านมา Pentagon ได้ใกล้ชิดกับนักพัฒนา AI มากขึ้น ในปี 2024 บริษัทต่างๆ เช่น OpenAI, Anthropic และ Meta ได้ผ่อนคลายนโยบายการใช้งานเพื่อให้หน่วยงานข่าวกรองและการป้องกันของสหรัฐฯ สามารถใช้ระบบ AI ของตนได้ แต่ยังคงห้ามไม่ให้ใช้เทคโนโลยี AI เหล่านี้เพื่อวัตถุประสงค์ที่เป็นอันตรายต่อมนุษย์ การเปลี่ยนแปลงนี้นำไปสู่การขยายความร่วมมืออย่างรวดเร็วระหว่างบริษัท AI และผู้รับเหมาด้านกลาโหม ตัวอย่างเช่น Meta ในเดือนพฤศจิกายนได้ร่วมมือกับบริษัทต่างๆ เช่น Lockheed Martin และ Booz Allen เพื่อใช้โมเดล Llama AI กับภาคการป้องกันประเทศ Anthropic ได้บรรลุความร่วมมือที่คล้ายกันกับ Palantir แม้ว่ารายละเอียดทางเทคนิคเฉพาะของความร่วมมือเหล่านี้จะไม่ชัดเจน แต่ดร. Plumb กล่าวว่าการประยุกต์ใช้ AI ในขั้นตอนการวางแผนอาจขัดแย้งกับนโยบายการใช้งานของนักพัฒนาชั้นนำหลายราย มีการถกเถียงกันอย่างดุเดือดในอุตสาหกรรมว่าอาวุธ AI ควรมีความสามารถในการตัดสินใจเกี่ยวกับชีวิตและความตายหรือไม่ Palmer Luckey ซีอีโอของ Anduril กล่าวว่ากองทัพสหรัฐฯ มีประวัติอันยาวนานในการจัดซื้อระบบอาวุธอัตโนมัติ อย่างไรก็ตาม ดร.พลัมบ์ปฏิเสธเรื่องนี้ โดยเน้นว่าไม่ว่าในกรณีใด ต้องมีใครสักคนมีส่วนร่วมในการตัดสินใจใช้กำลัง เธอชี้ให้เห็นว่าแนวคิดของระบบอัตโนมัติที่ทำการตัดสินใจเกี่ยวกับชีวิตและความตายอย่างอิสระนั้นเป็นแบบไบนารีเกินไป และความเป็นจริงก็ซับซ้อนกว่ามาก ระบบ AI ของกระทรวงกลาโหมเป็นการทำงานร่วมกันระหว่างมนุษย์และเครื่องจักร โดยมีผู้นำระดับสูงมีส่วนร่วมในกระบวนการตัดสินใจ จุดเด่น: AI ช่วยให้กระทรวงกลาโหมมีข้อได้เปรียบที่สำคัญในการระบุและประเมินภัยคุกคาม ขับเคลื่อนการตัดสินใจทางทหารที่มีประสิทธิภาพมากขึ้น นักพัฒนา AI กำลังทำงานอย่างใกล้ชิดกับเพนตากอนมากขึ้น แต่ยืนกรานมาโดยตลอดว่าเทคโนโลยี AI จะไม่ถูกนำมาใช้เพื่อทำร้ายมนุษย์ การอภิปรายยังคงดำเนินต่อไปว่าอาวุธ AI ควรมีความสามารถในการตัดสินใจเรื่องความเป็นความตายหรือไม่ โดยเพนตากอนเน้นย้ำว่ามนุษย์มีส่วนร่วมอยู่เสมอโดยรวมแล้ว AI มีแนวโน้มกว้างๆ สำหรับการนำไปใช้ในด้านการทหาร แต่ประเด็นด้านจริยธรรมและความปลอดภัยก็จำเป็นต้องได้รับการปฏิบัติด้วยความระมัดระวังเช่นกัน วิธีหลีกเลี่ยงการใช้เทคโนโลยี AI ในทางที่ผิดขณะเดียวกันก็รับประกันความมั่นคงของชาติจะเป็นประเด็นสำคัญที่ต้องให้ความสนใจและแก้ไขอย่างต่อเนื่องในอนาคต