في الآونة الأخيرة، كشفت مجلة TechCrunch عن وثائق داخلية لشركة Google، والتي أظهرت أن Google تستخدم مقاولين لمقارنة واختبار الذكاء الاصطناعي الخاص بشركة Gemini والذكاء الاصطناعي الخاص بشركة Anthropic، الأمر الذي أثار جدلاً حول مدى الامتثال. توضح الوثيقة أن المقاول يحتاج إلى تقييم جودة إجابات نظامي الذكاء الاصطناعي وفقًا لمعايير متعددة وتثني بشدة على سلامة كلود. قد تنتهك هذه الخطوة شروط خدمة Anthropic، حيث أن Google مستثمر رئيسي في Anthropic، وتحظر الشروط الاستخدام غير المصرح به لـ Claude لتطوير منتجات منافسة أو تدريب نماذج الذكاء الاصطناعي المنافسة.
تطلب Google من المقاولين تقييم برنامج Gemini AI الخاص بها مقابل Anthropic's Claude، وفقًا للاتصالات الداخلية التي حصلت عليها TechCrunch، مما يثير تساؤلات حول الامتثال.
توضح الوثيقة أن المقاول المسؤول عن تحسين جيميني يحتاج إلى مقارنة وتقييم جودة إجابات جيميني وكلود بناءً على معايير متعددة مثل الأصالة والدقة في غضون 30 دقيقة. اكتشف المقاولون مؤخرًا إشارات صريحة إلى كلود على منصة المراجعة الداخلية في Google، بما في ذلك عبارة "أنا كلود، تم إنشاؤه بواسطة Anthropic".
كشفت المناقشات الداخلية أن المقاولين لاحظوا ممارسات السلامة الأكثر صرامة التي اتبعها كلود. قال أحد المقاولين إن "إعدادات أمان كلود هي الأكثر صرامة بين جميع نماذج الذكاء الاصطناعي". في بعض الحالات، عندما تم وضع علامة على إجابات جيميني على أنها "انتهاكات خطيرة للسلامة" لأنها تنطوي على "العري وضبط النفس"، رفض كلود ببساطة الرد على المطالبات ذات الصلة.
ومن الجدير بالذكر أن نهج جوجل، باعتبارها المستثمر الرئيسي في Anthropic، قد ينتهك شروط خدمة Anthropic. تحظر الشروط صراحةً الوصول غير الموافق عليه إلى كلود من أجل "بناء منتجات منافسة" أو "تدريب نماذج الذكاء الاصطناعي المنافسة". وعندما سئلت شيرا ماكنمارا، المتحدثة باسم Google DeepMind، عما إذا كانت قد تم ترخيصها من قبل Anthropic، فقد رفضت الرد مباشرة.
قال ماكنمارا إنه بينما تقوم شركة DeepMind "بمقارنة مخرجات النموذج" للتقييم، إلا أنه نفى استخدام النموذج الأنثروبي لتدريب برج الجوزاء. وقالت: "هذا يتماشى مع الممارسات القياسية الصناعية، لكن أي ادعاء بأننا استخدمنا نماذج بشرية لتدريب جيميني غير دقيق".
في السابق، طلبت جوجل من مقاولي منتجات الذكاء الاصطناعي تقييم إجابات جيميني خارج مجالات خبرتها، مما أثار مخاوف بين المقاولين من أن الذكاء الاصطناعي قد ينتج معلومات غير دقيقة في مجالات حساسة مثل الرعاية الصحية.
وحتى وقت نشر هذا الخبر، لم يعلق المتحدث الرسمي باسم الأنثروبولوجيا على الأمر.
لقد اجتذب اختبار Google المقارن لـ Gemini وClaude اهتمامًا واسع النطاق، ولا تزال مشكلات الامتثال وتأثيره على صناعة الذكاء الاصطناعي تتطلب مزيدًا من المراقبة. رد جوجل لم يزيل المخاوف بشكل كامل، ولم يتم إصدار الرد الرسمي لشركة أنثروبيك بعد، وما زالت الحادثة تتكشف.