Baru-baru ini, perbaikan model AI Gemini Google menimbulkan kontroversi. Menurut TechCrunch, kontraktor Google membandingkan jawaban Gemini dengan keluaran pesaing Anthropic, Claude, untuk mengevaluasi kinerja Gemini. Langkah ini menimbulkan pertanyaan tentang apakah Google menggunakan data Claude tanpa izin dan apakah hal itu melanggar persyaratan layanan bisnis Anthropic, karena Anthropic adalah salah satu investor utama Google. Insiden ini menyoroti intensitas persaingan di bidang AI dan pentingnya masalah penggunaan data dan kepatuhan.
Persaingan antar raksasa teknologi di bidang AI menjadi semakin sengit, dan sebuah berita baru-baru ini sekali lagi membawa arus persaingan industri ke permukaan. Menurut komunikasi internal yang diperoleh TechCrunch, kontraktor yang bertanggung jawab untuk meningkatkan model kecerdasan buatan Gemini Google membandingkan jawabannya dengan keluaran model pesaing Anthropic, Claude. Langkah ini menimbulkan pertanyaan tentang kepatuhan Google terhadap otorisasi Anthropic untuk menggunakan Claude untuk pengujian.
Saat perusahaan teknologi bersaing untuk mengembangkan model AI yang lebih baik, performa model biasanya dinilai melalui tolok ukur industri, dibandingkan kontraktor yang menghabiskan banyak energi untuk mengevaluasi respons AI pesaing. Namun, menurut laporan, kontraktor Gemini diharuskan menilai setiap tanggapan yang mereka lihat berdasarkan berbagai kriteria, termasuk keaslian dan verbositas. Kontraktor mempunyai waktu hingga 30 menit untuk memutuskan apakah jawaban Gemini atau Claude lebih baik.
Kontraktor mencatat bahwa tanggapan Claude tampaknya lebih menekankan keamanan daripada tanggapan Gemini, menurut catatan obrolan internal. Salah satu kontraktor mengatakan: "Claude memiliki pengaturan keamanan paling ketat dari semua model AI." Dalam beberapa kasus, Claude tidak akan merespons kata-kata yang dianggap tidak aman, seperti memainkan asisten AI yang berbeda. Dalam tes lain, Claude menghindari menjawab kata-kata tertentu, dan respons Gemini ditandai sebagai "pelanggaran keamanan serius" karena menyertakan "ketelanjangan dan pengekangan".
Ketentuan layanan bisnis Anthropic secara khusus melarang pelanggan mengakses Claude "untuk membangun produk atau layanan pesaing" atau "melatih model AI pesaing" tanpa persetujuan. Perlu dicatat bahwa Google adalah investor utama Anthropic. Latar belakang ini telah meningkatkan keraguan dunia luar terhadap kepatuhan perilaku Google.
Sebagai tanggapan, McNamara, juru bicara Google DeepMind (bertanggung jawab atas Gemini), mengatakan bahwa DeepMind "membandingkan keluaran model" untuk evaluasi, tetapi tidak melatih Gemini pada model Antropis. “Tentu saja, seperti halnya praktik industri, dalam beberapa kasus kami membandingkan keluaran model sebagai bagian dari proses evaluasi,” kata McNamara. “Namun, saran apa pun bahwa kami menggunakan model Antropik untuk melatih Gemini tidak akurat.”
Meskipun Google menyangkal menggunakan Claude untuk melatih Gemini, retorikanya tentang "membandingkan keluaran model" masih ambigu dan tidak dapat sepenuhnya menghilangkan keraguan eksternal. Insiden ini sekali lagi menimbulkan kekhawatiran mengenai penggunaan data dan kepatuhan dalam pengembangan model AI. Di bidang AI yang sangat kompetitif, bagaimana menjaga persaingan yang sehat dan menghormati hak kekayaan intelektual akan menjadi isu penting yang memerlukan perhatian dan diskusi berkelanjutan selama perkembangan industri.
Penjelasan Google atas kejadian tersebut tidak sepenuhnya menghilangkan keraguan publik, yang mencerminkan ketatnya persaingan di bidang AI dan seriusnya tantangan kepatuhan data. Di masa depan, industri perlu menetapkan peraturan dan standar yang lebih jelas untuk memastikan persaingan yang sehat dan perlindungan kekayaan intelektual.