เมื่อเร็ว ๆ นี้สื่อเทคโนโลยี TechCrunch แจ้งข่าวว่า Google ใช้โมเดล Claude AI ของ Anthropic เพื่อประเมินประสิทธิภาพของโมเดล Gemini AI ของตัวเอง การเคลื่อนไหวครั้งนี้ทำให้เกิดข้อสงสัยอย่างกว้างขวางเกี่ยวกับการปฏิบัติตามข้อกำหนดในอุตสาหกรรม หัวใจสำคัญของเหตุการณ์นี้คือ Google อาจละเมิดข้อกำหนดในการให้บริการของ Anthropic ซึ่งห้ามอย่างชัดเจนถึงการใช้ Claude โดยไม่ได้รับอนุญาตเพื่อสร้างผลิตภัณฑ์ของคู่แข่งหรือฝึกอบรมโมเดล AI ที่แข่งขันกัน ในเวลาเดียวกัน เหตุการณ์ดังกล่าวยังเน้นย้ำถึงความแตกต่างด้านความปลอดภัยระหว่างโมเดล AI ต่างๆ ดูเหมือนว่า Claude จะทำงานได้ดีกว่า Gemini ในแง่ของความปลอดภัย
มีรายงานว่าผู้รับเหมาของ Google เปรียบเทียบคำตอบจาก Gemini และ Claude เพื่อประเมินความถูกต้องและคุณภาพของ Gemini โคลดแสดงความปลอดภัยมากขึ้นในบางสถานการณ์ ปฏิเสธที่จะตอบรับคำเตือนอันตรายหรือให้การตอบสนองอย่างระมัดระวังมากขึ้น ในขณะที่ราศีเมถุนมีการละเมิดความปลอดภัยอย่างร้ายแรง Google DeepMind ปฏิเสธการใช้ Claude เพื่อฝึก Gemini แต่ยอมรับว่าจะเปรียบเทียบผลลัพธ์ของโมเดลต่างๆ เพื่อการประเมินผล เป็นที่น่าสังเกตว่า Google เป็นหนึ่งในนักลงทุนรายใหญ่ของ Anthropic ซึ่งทำให้เหตุการณ์นี้ซับซ้อนยิ่งขึ้น
ไฮไลท์:
การใช้ Claude AI ของ Anthropic เพื่อประเมิน Gemini ของ Google อาจละเมิดข้อกำหนดในการให้บริการ
คลอดด์ดูเหมือนจะเข้มงวดกว่าราศีเมถุนในเรื่องความปลอดภัย
Google DeepMind ปฏิเสธการใช้โมเดล Anthropic เพื่อฝึก Gemini ในขณะเดียวกันก็ยืนยันแนวทางปฏิบัติในการประเมินผลลัพธ์ของโมเดล
ความเคลื่อนไหวของ Google ได้จุดประกายให้เกิดการอภิปรายเกี่ยวกับการแข่งขันและความร่วมมือระหว่างบริษัทเทคโนโลยีขนาดใหญ่ รวมถึงปัญหามาตรฐานและจริยธรรมในการประเมินโมเดล AI ในอนาคต เหตุการณ์ที่คล้ายกันอาจกระตุ้นให้อุตสาหกรรมสร้างมาตรฐานวิธีการประเมินและการใช้ข้อมูลของแบบจำลอง AI ต่อไป เพื่อให้มั่นใจถึงการแข่งขันที่ยุติธรรมและรักษาความปลอดภัยของ AI เหตุการณ์นี้ยังเตือนเราว่าการพัฒนาอย่างรวดเร็วของเทคโนโลยี AI จะต้องสอดคล้องกับกรอบการกำกับดูแลและจริยธรรมที่สมบูรณ์ยิ่งขึ้น