เพื่อปรับปรุงความปลอดภัยและความน่าเชื่อถือของโมเดลปัญญาประดิษฐ์ เมื่อเร็วๆ นี้ OpenAI ได้ประกาศโครงการริเริ่มสำคัญๆ หลายโครงการ ความคิดริเริ่มเหล่านี้ได้รับการออกแบบมาเพื่อเสริมสร้างกระบวนการรักษาความปลอดภัยภายในและกำหนดการควบคุมที่เข้มงวดมากขึ้นในการพัฒนาและการปรับใช้โมเดล AI ที่มีความเสี่ยงสูง ซึ่งจะช่วยลดความเสี่ยงที่อาจเกิดขึ้นและสร้างความมั่นใจในการพัฒนาเทคโนโลยี AI อย่างมีความรับผิดชอบ
บริษัทปัญญาประดิษฐ์ OpenAI ได้เสริมความแข็งแกร่งให้กับกระบวนการรักษาความปลอดภัยภายใน จัดตั้งกลุ่มที่ปรึกษาด้านความปลอดภัย และให้อำนาจคณะกรรมการบริหารในการยับยั้งปัญญาประดิษฐ์ที่มีความเสี่ยงสูง OpenAI ได้อัปเดตกรอบการเตรียมการเพื่อชี้แจงเส้นทางในการประเมิน บรรเทา และกำหนดความเสี่ยงที่มีอยู่ในโมเดล บริษัทจะให้คะแนนแบบจำลองตามระดับความเสี่ยงและใช้มาตรการบรรเทาผลกระทบที่เกี่ยวข้อง โมเดลที่ได้รับการประเมินว่ามีความเสี่ยงสูงจะไม่สามารถนำไปใช้หรือพัฒนาเพิ่มเติมได้ OpenAI ยังได้จัดตั้งกลุ่มที่ปรึกษาด้านความปลอดภัยข้ามสายงานเพื่อตรวจสอบรายงานจากผู้เชี่ยวชาญและให้คำแนะนำในระดับที่สูงขึ้น คณะกรรมการและผู้นำจะร่วมกันตัดสินใจว่าจะปล่อยหรือเก็บแบบจำลองไว้ ด้วยการเคลื่อนไหวนี้ OpenAI พยายามป้องกันไม่ให้ผลิตภัณฑ์หรือกระบวนการที่มีความเสี่ยงสูงได้รับการอนุมัติโดยไม่ได้รับความรู้หรือการอนุมัติจากคณะกรรมการ
ด้วยมาตรการใหม่เหล่านี้ OpenAI แสดงให้เห็นว่าตนให้ความสำคัญกับปัญหาด้านความปลอดภัยของปัญญาประดิษฐ์อย่างจริงจัง และเป็นตัวอย่างที่ดีสำหรับบริษัทปัญญาประดิษฐ์อื่นๆ สิ่งนี้บ่งชี้ว่าอุตสาหกรรมปัญญาประดิษฐ์กำลังสำรวจโมเดลการพัฒนาและการใช้งานที่ปลอดภัยและมีความรับผิดชอบมากขึ้นอย่างต่อเนื่อง ซึ่งวางรากฐานที่มั่นคงสำหรับการพัฒนาเทคโนโลยีปัญญาประดิษฐ์ที่ดี