Meta เพิ่งประกาศว่าจะเปิดโมเดลปัญญาประดิษฐ์ซีรีส์ Llama ให้กับหน่วยงานรัฐบาลของสหรัฐอเมริกาและผู้รับเหมาที่เกี่ยวข้องสำหรับการใช้งานด้านความมั่นคงของชาติ การเคลื่อนไหวดังกล่าวมีจุดมุ่งหมายเพื่อตอบสนองต่อข้อกังวลว่าปัญญาประดิษฐ์ "แบบเปิด" ของตนอาจถูกโจมตีโดยฝ่ายตรงข้ามจากต่างประเทศ และแสดงให้เห็นถึงการสนับสนุนของ Meta ในด้านความมั่นคงของชาติ บรรณาธิการของ Downcodes จะให้การตีความโดยละเอียดของเหตุการณ์นี้ วิเคราะห์แรงจูงใจเบื้องหลัง ผลกระทบที่อาจเกิดขึ้น และผลการอภิปรายเกี่ยวกับความปลอดภัยของปัญญาประดิษฐ์
เมื่อเร็วๆ นี้ Meta Corporation ประกาศว่าจะเปิดตัวโมเดลปัญญาประดิษฐ์ซีรีส์ Llama แก่หน่วยงานรัฐบาลของสหรัฐอเมริกาและผู้รับเหมาที่เกี่ยวข้อง เพื่อสนับสนุนแอปพลิเคชันด้านความมั่นคงของชาติ
การเคลื่อนไหวดังกล่าวมีจุดมุ่งหมายเพื่อขจัดการรับรู้ว่า AI "แบบเปิด" สามารถเพิ่มศักยภาพให้กับฝ่ายตรงข้ามจากต่างประเทศได้ “เรายินดีที่จะยืนยันว่าลามะจะพร้อมให้บริการสำหรับหน่วยงานรัฐบาลสหรัฐฯ รวมถึงหน่วยงานที่มุ่งเน้นด้านโครงการกลาโหมและความมั่นคงแห่งชาติ ตลอดจนพันธมิตรภาคเอกชนที่สนับสนุนความพยายามเหล่านี้” เมตากล่าวในบล็อกโพสต์
เพื่อโปรโมตโครงการนี้ Meta ได้ร่วมมือกับบริษัทที่มีชื่อเสียงหลายแห่ง รวมถึง Accenture, Amazon Web Services, Andiel, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI และ Snowflake . บริษัทเหล่านี้จะช่วยนำโมเดลลามาไปใช้กับภารกิจด้านความมั่นคงแห่งชาติต่างๆ
ตัวอย่างเช่น Oracle ใช้ Llama เพื่อประมวลผลเอกสารการบำรุงรักษาเครื่องบิน และ Scale AI กำลังปรับแต่ง Llama สำหรับงานความมั่นคงแห่งชาติโดยเฉพาะ Lockheed Martin วางแผนที่จะจัดหา Llama ให้กับลูกค้าด้านกลาโหมเพื่อช่วยพวกเขาสร้างรหัสคอมพิวเตอร์และอื่นๆ
โดยทั่วไป นโยบายของ Meta ห้ามนักพัฒนาใช้ Llama สำหรับโครงการที่เกี่ยวข้องกับการทหาร สงคราม หรือการจารกรรม อย่างไรก็ตาม ในกรณีนี้ Meta ตัดสินใจให้ข้อยกเว้นและอนุญาตให้หน่วยงานและผู้รับเหมาที่เกี่ยวข้องกับรัฐบาลสหรัฐฯ ใช้ Llama นอกเหนือจากหน่วยงานที่คล้ายกันในสหราชอาณาจักร แคนาดา ออสเตรเลีย และนิวซีแลนด์
เป็นที่น่าสังเกตว่ามีรายงานล่าสุดว่านักวิจัยบางคนที่เกี่ยวข้องกับกองทัพปลดปล่อยประชาชนจีนได้ใช้แบบจำลอง Llama (Llama2) เวอร์ชันเก่าเพื่อพัฒนาแชทบอทที่เน้นการทหารซึ่งออกแบบมาเพื่อรวบรวมและประมวลผลข่าวกรองเพื่อให้การตัดสินใจในการปฏิบัติงาน การทำข้อมูล Meta ตอบว่าการใช้โมเดลนี้ "ไม่ได้รับอนุญาต" และละเมิดนโยบายการใช้งานที่ยอมรับได้ของบริษัท อย่างไรก็ตาม เหตุการณ์ดังกล่าวได้จุดประกายให้เกิดการอภิปรายอย่างกว้างขวางเกี่ยวกับข้อดีและข้อเสียของปัญญาประดิษฐ์แบบเปิด
ด้วยการประยุกต์ใช้ปัญญาประดิษฐ์ในด้านข่าวกรองทางทหาร การเฝ้าระวัง และการลาดตระเวน ความเสี่ยงด้านความปลอดภัยที่เกี่ยวข้องก็ค่อยๆ ปรากฏขึ้น การศึกษาจากสถาบัน AI Now แสดงให้เห็นว่าระบบปัญญาประดิษฐ์ที่มีอยู่อาศัยข้อมูลส่วนบุคคลที่ฝ่ายตรงข้ามสามารถสกัดและสร้างอาวุธได้ ในขณะเดียวกัน ระบบปัญญาประดิษฐ์ก็มีปัญหาเช่น อคติและภาพลวงตา และขณะนี้ยังไม่มีวิธีแก้ปัญหาที่มีประสิทธิภาพ นักวิจัยแนะนำให้พัฒนาระบบ AI เฉพาะที่แยกออกจากโมเดล "เชิงพาณิชย์"
แม้ว่า Meta จะอ้างว่า AI แบบเปิดสามารถเร่งการวิจัยด้านกลาโหมและส่งเสริมผลประโยชน์ทางเศรษฐกิจและความมั่นคงของสหรัฐฯ แต่กองทัพสหรัฐฯ ยังคงระมัดระวังในการนำเทคโนโลยีนี้ไปใช้
การเคลื่อนไหวของ Meta ทำให้เกิดการอภิปรายอย่างกว้างขวางเกี่ยวกับประเด็นด้านจริยธรรมและความปลอดภัยของการประยุกต์ใช้ปัญญาประดิษฐ์ในสาขาการป้องกัน และผลกระทบระยะยาวยังคงต้องรอดูกันต่อไป บรรณาธิการของ Downcodes จะยังคงให้ความสนใจกับการพัฒนาล่าสุดในสาขานี้ และนำการวิเคราะห์และรายงานเชิงลึกเพิ่มเติมมาสู่ผู้อ่าน