OpenAI กำลังสำรวจศักยภาพการใช้งานของโมเดลภาษาขนาดใหญ่ในด้านข่าวกรองภัยคุกคามทางชีวภาพอย่างแข็งขัน พวกเขาพัฒนาระบบเตือนภัยล่วงหน้า GPT-4 ซึ่งออกแบบมาเพื่อระบุภัยคุกคามจากอาวุธชีวภาพที่อาจเกิดขึ้น และรวมเข้ากับกรอบการป้องกันความเสี่ยงของ OpenAI ระบบนี้ไม่ได้มีวัตถุประสงค์เพื่อแทนที่วิธีการรวบรวมข่าวกรองที่มีอยู่ แต่หวังว่าจะปรับปรุงประสิทธิภาพของการรับข้อมูล และช่วยเหลือผู้เชี่ยวชาญที่เป็นมนุษย์ในการตัดสิน การศึกษาล่าสุดที่มีผู้เข้าร่วม 100 คนประเมินประสิทธิภาพของ GPT-4 ในเบื้องต้นในการรับข้อมูลเสริม ผลการวิจัยพบว่า GPT-4 เมื่อรวมกับอินเทอร์เน็ตสามารถปรับปรุงความแม่นยำและความสมบูรณ์ได้เล็กน้อย แต่ผลกระทบนั้นมีจำกัด และการศึกษายังชี้ให้เห็นว่า การประเมินการได้มาซึ่งข้อมูลเท่านั้นมีข้อจำกัดของตัวเอง
OpenAI บริษัทวิจัยปัญญาประดิษฐ์ของสหรัฐอเมริกา เพิ่งเริ่มพัฒนาระบบเตือนภัยล่วงหน้าสำหรับ GPT-4 เพื่อสำรวจว่าแบบจำลองภาษาขนาดใหญ่สามารถปรับปรุงประสิทธิภาพในการรับข้อมูลเกี่ยวกับภัยคุกคามทางชีวภาพเมื่อเปรียบเทียบกับอินเทอร์เน็ตได้หรือไม่ ระบบได้รับการออกแบบมาเพื่อทำหน้าที่เป็น "ตัวกระตุ้น" ที่ส่งสัญญาณถึงความเป็นไปได้ของอาวุธชีวภาพ ซึ่งต้องมีการตรวจสอบเพิ่มเติม ขณะเดียวกันก็รวมกรอบการป้องกันของ OpenAI เข้าไปด้วย ในการศึกษาที่เกี่ยวข้อง ผู้เข้าร่วม 100 คนแสดงให้เห็นว่าการใช้ GPT-4 ร่วมกับอินเทอร์เน็ตส่งผลให้ความแม่นยำและความสมบูรณ์ของงานด้านอันตรายทางชีวภาพได้รับการปรับปรุงเล็กน้อย แต่ผลที่ได้ไม่มีนัยสำคัญ การศึกษาเน้นย้ำถึงข้อจำกัดของการประเมินการได้มาซึ่งข้อมูลเพียงอย่างเดียวมากกว่าการใช้งานจริง และไม่ได้สำรวจศักยภาพของ GPT-4 ในการพัฒนาอาวุธชีวภาพชนิดใหม่ ในเวลาเดียวกัน OpenAI ได้ประกาศเปิดตัวโมเดลใหม่หลายรุ่นเพื่อให้มีตัวเลือกการใช้งานมากขึ้น
แม้ว่าผลการศึกษาของ OpenAI ครั้งนี้จะมีจำกัด แต่ก็แสดงให้เห็นถึงการเน้นไปที่การประยุกต์ใช้เทคโนโลยีปัญญาประดิษฐ์อย่างมีความรับผิดชอบ และมอบประสบการณ์อันมีค่าสำหรับการวิจัยในอนาคตเกี่ยวกับแบบจำลองภาษาขนาดใหญ่ในสาขาความปลอดภัยทางชีวภาพ การวิจัยเพิ่มเติมจำเป็นต้องมุ่งเน้นไปที่ประสิทธิภาพและความเสี่ยงที่อาจเกิดขึ้นของ GPT-4 ในการใช้งานจริง และพัฒนากลไกการรักษาความปลอดภัยที่สมบูรณ์ยิ่งขึ้น