في الآونة الأخيرة، نشرت وسائل الإعلام التكنولوجية TechCrunch الأخبار التي تفيد بأن Google تستخدم نموذج Claude AI من Anthropic لتقييم أداء نموذج Gemini AI الخاص بها، وقد أثارت هذه الخطوة شكوكًا واسعة النطاق حول امتثالها في الصناعة. يكمن جوهر الحادث في انتهاك Google المحتمل لشروط خدمة Anthropic، والتي تحظر صراحة الاستخدام غير المصرح به لكلود لبناء منتجات منافسة أو تدريب نماذج الذكاء الاصطناعي المنافسة. وفي الوقت نفسه، سلط الحادث الضوء أيضًا على الاختلافات في الأمان بين نماذج الذكاء الاصطناعي المختلفة، ويبدو أن أداء كلود أفضل من جيميني من حيث الأمان.
وبحسب ما ورد قارن مقاولو Google ردود جيميني وكلود لتقييم دقة وجودة جيميني. أظهر كلود أمانًا أكبر في بعض المواقف، حيث رفض الاستجابة لمطالبات الخطر أو أعطى ردودًا أكثر حذرًا، بينما تعرض الجوزاء لانتهاكات أمنية خطيرة. ونفى Google DeepMind استخدام كلود لتدريب جيميني، لكنه اعترف بأنه سيقارن مخرجات النماذج المختلفة للتقييم. ومن الجدير بالذكر أن جوجل هي أحد المستثمرين الرئيسيين في Anthropic، مما يجعل هذه الحادثة أكثر تعقيدًا.
أبرز النقاط:
إن استخدام Google لـ Claude AI من Anthropic لتقييم Gemini قد ينتهك شروط الخدمة الخاصة بها.
يبدو أن كلود أكثر صرامة من الجوزاء عندما يتعلق الأمر بالأمن.
نفى Google DeepMind استخدام النموذج الإنساني لتدريب برج الجوزاء، بينما أكد ممارسة تقييم مخرجات النموذج.
وأثارت خطوة جوجل مناقشات حول المنافسة والشراكات بين شركات التكنولوجيا الكبرى، فضلاً عن المعايير والقضايا الأخلاقية في تقييم نماذج الذكاء الاصطناعي. وفي المستقبل، قد تدفع حوادث مماثلة الصناعة إلى زيادة توحيد أساليب التقييم واستخدام البيانات لنماذج الذكاء الاصطناعي لضمان المنافسة العادلة والحفاظ على سلامة الذكاء الاصطناعي. تذكرنا هذه الحادثة أيضًا بأن التطور السريع لتكنولوجيا الذكاء الاصطناعي يحتاج إلى أن يقابله إطار تنظيمي وأخلاقي أكثر اكتمالاً.