เมื่อเร็วๆ นี้ OpenAI ได้ประกาศระดับภายในเพื่อติดตามความคืบหน้าของโมเดลภาษาขนาดใหญ่ในด้านปัญญาประดิษฐ์ทั่วไป (AGI) การเคลื่อนไหวนี้ไม่เพียงแสดงให้เห็นถึงความทะเยอทะยานของ OpenAI ในด้าน AGI เท่านั้น แต่ยังมอบมาตรฐานใหม่สำหรับการวัดการพัฒนา AI อีกด้วย ระดับนี้แบ่งการใช้งาน AGI ออกเป็นห้าระดับ ตั้งแต่แชทบอทในปัจจุบันไปจนถึง AI ที่สามารถทำงานของทั้งองค์กรได้ แต่ละระดับแสดงถึงการปรับปรุงขีดความสามารถของ AI อย่างมีนัยสำคัญ บรรณาธิการของ Downcodes จะอธิบายเรื่องนี้โดยละเอียดและวิเคราะห์ความสำคัญและผลกระทบที่อาจเกิดขึ้น
จากข้อมูลของ Bloomberg นั้น OpenAI ได้สร้างมาตราส่วนภายในเพื่อติดตามความคืบหน้าของโมเดลภาษาขนาดใหญ่ในปัญญาประดิษฐ์ทั่วไป (AGI) การเคลื่อนไหวนี้ไม่เพียงแต่แสดงให้เห็นถึงความทะเยอทะยานของ OpenAI ในด้าน AGI เท่านั้น แต่ยังทำให้อุตสาหกรรมมีมาตรฐานใหม่ในการวัดการพัฒนา AI อีกด้วย
ระดับแบ่งออกเป็นห้าระดับ: 1. ระดับ 1: แชทบอทปัจจุบัน เช่น ChatGPT อยู่ในระดับนี้ 2. ระดับ 2: ระบบที่สามารถแก้ไขปัญหาพื้นฐานได้ในระดับปริญญาเอก OpenAI อ้างว่าใกล้เคียงกับระดับนี้ 3. ระดับ 3: ตัวแทน AI ที่สามารถดำเนินการในนามของผู้ใช้ได้ 4. ระดับ 4: AI สามารถสร้างนวัตกรรมใหม่ๆ ได้ 5. ระดับ 5: AI ที่สามารถทำงานทั่วทั้งองค์กรและถือเป็นขั้นตอนสุดท้ายในการบรรลุ AGI
อย่างไรก็ตาม ผู้เชี่ยวชาญไม่เห็นด้วยกับไทม์ไลน์สำหรับการนำ AGI ไปใช้ Sam Altman ซีอีโอของ OpenAI กล่าวในเดือนตุลาคม 2023 ว่า AGI ยังเหลืออีกห้าปี แต่ถึงแม้ว่า AGI จะสามารถเกิดขึ้นได้ แต่ก็จะต้องมีการลงทุนหลายพันล้านดอลลาร์ในทรัพยากรการประมวลผล
เป็นที่น่าสังเกตว่าการประกาศมาตรฐานการให้คะแนนนี้เกิดขึ้นพร้อมกับการประกาศของ OpenAI ที่จะร่วมมือกับห้องปฏิบัติการแห่งชาติ Los Alamos เพื่อสำรวจวิธีใช้แบบจำลอง AI ขั้นสูง (เช่น GPT-4) อย่างปลอดภัยเพื่อช่วยในการวิจัยทางชีววิทยา ความร่วมมือนี้มีจุดมุ่งหมายเพื่อสร้างชุดความปลอดภัยและปัจจัยการประเมินอื่นๆ สำหรับรัฐบาลสหรัฐฯ ที่สามารถนำไปใช้ทดสอบโมเดล AI ต่างๆ ได้ในอนาคต
แม้ว่า OpenAI จะปฏิเสธที่จะให้รายละเอียดเกี่ยวกับวิธีการกำหนดแบบจำลองให้กับระดับภายในเหล่านี้ แต่ Bloomberg รายงานว่าผู้นำของบริษัทได้สาธิตโครงการวิจัยโดยใช้แบบจำลอง GPT-4 โดยอ้างว่าโครงการได้แสดงให้เห็นถึงทักษะใหม่บางอย่างที่คล้ายกับความสามารถในการให้เหตุผลของมนุษย์
วิธีการวัดปริมาณความคืบหน้าของ AGI นี้ช่วยให้ได้คำจำกัดความที่เข้มงวดยิ่งขึ้นของการพัฒนา AI และหลีกเลี่ยงการตีความแบบอัตนัย อย่างไรก็ตาม ยังทำให้เกิดข้อกังวลบางประการเกี่ยวกับความปลอดภัยและจริยธรรมของ AI อีกด้วย ในเดือนพฤษภาคม OpenAI ยกเลิกทีมรักษาความปลอดภัย โดยอดีตพนักงานบางคนกล่าวว่าวัฒนธรรมด้านความปลอดภัยของบริษัทได้หนุนหลังการพัฒนาผลิตภัณฑ์ แม้ว่า OpenAI จะปฏิเสธเรื่องนี้ก็ตาม
ความเคลื่อนไหวของ OpenAI มอบทิศทางและมาตรฐานใหม่สำหรับการวิจัย AGI แต่ยังทำให้เกิดข้อกังวลเกี่ยวกับความปลอดภัยและจริยธรรมด้วย การตระหนักรู้ขั้นสุดท้ายของ AGI ยังคงไม่แน่นอน และต้องอาศัยการเอาใจใส่และความระมัดระวังอย่างต่อเนื่อง ทิศทางการพัฒนาในอนาคตของ AI จะได้รับผลกระทบจากขนาดนี้และการวิจัยที่เกี่ยวข้อง และสมควรได้รับความสนใจอย่างต่อเนื่อง