Baru-baru ini, TechCrunch mengungkap dokumen internal Google, yang menunjukkan bahwa Google menggunakan kontraktor untuk membandingkan dan menguji AI Gemini dan AI Claude Anthropic, sehingga memicu kontroversi mengenai kepatuhan. Dokumen tersebut menunjukkan bahwa kontraktor perlu mengevaluasi kualitas jawaban kedua AI berdasarkan berbagai kriteria dan memberikan pujian yang tinggi terhadap keselamatan Claude. Langkah ini mungkin melanggar persyaratan layanan Anthropic, karena Google adalah investor besar di Anthropic, dan persyaratan tersebut melarang penggunaan tidak sah Claude untuk mengembangkan produk pesaing atau melatih model AI pesaing.
Google meminta kontraktor mengevaluasi Gemini AI-nya dibandingkan dengan Anthropic's Claude, menurut komunikasi internal yang diperoleh TechCrunch, yang menimbulkan pertanyaan kepatuhan.
Dokumen tersebut menunjukkan bahwa kontraktor yang bertanggung jawab untuk meningkatkan Gemini perlu membandingkan dan mengevaluasi kualitas jawaban Gemini dan Claude berdasarkan berbagai kriteria seperti keaslian dan ketelitian dalam waktu 30 menit. Kontraktor baru-baru ini menemukan referensi eksplisit tentang Claude di platform ulasan internal Google, termasuk kata-kata "Saya Claude, dibuat oleh Anthropic."
Diskusi internal mengungkapkan bahwa kontraktor memperhatikan praktik keselamatan Claude yang lebih ketat. Seorang kontraktor mengatakan bahwa "Pengaturan keamanan Claude adalah yang paling ketat di antara semua model AI." Dalam beberapa kasus, ketika jawaban Gemini ditandai sebagai "pelanggaran keamanan serius" karena melibatkan "ketelanjangan dan pengekangan", Claude menolak menanggapi permintaan yang relevan.
Perlu dicatat bahwa sebagai investor utama Anthropic, pendekatan Google mungkin melanggar persyaratan layanan Anthropic. Persyaratan tersebut secara eksplisit melarang akses yang tidak disetujui ke Claude untuk “membangun produk pesaing” atau “melatih model AI yang bersaing.” Saat ditanya apakah sudah mendapat izin dari Anthropic, juru bicara Google DeepMind Shira McNamara menolak menjawab secara langsung.
McNamara mengatakan bahwa meskipun DeepMind "membandingkan keluaran model" untuk evaluasi, dia menyangkal menggunakan model Antropik untuk melatih Gemini. “Hal ini sejalan dengan praktik standar industri,” katanya, “tetapi klaim apa pun bahwa kami menggunakan model Antropik untuk melatih Gemini adalah tidak akurat.”
Sebelumnya, Google mewajibkan kontraktor produk AI untuk mengevaluasi jawaban Gemini di luar bidang keahliannya, sehingga menimbulkan kekhawatiran di kalangan kontraktor bahwa AI dapat menghasilkan informasi yang tidak akurat di bidang sensitif seperti layanan kesehatan.
Hingga berita ini dimuat, juru bicara Anthropic belum mengomentari masalah tersebut.
Uji komparatif Google terhadap Gemini dan Claude telah menarik perhatian luas, dan masalah kepatuhan serta dampaknya terhadap industri AI masih memerlukan pengamatan lebih lanjut. Tanggapan Google belum sepenuhnya menghilangkan kekhawatiran, tanggapan resmi Anthropic belum dirilis, dan insiden tersebut masih berlangsung.