Baru-baru ini, media teknologi TechCrunch menyampaikan berita bahwa Google menggunakan model AI Claude Anthropic untuk mengevaluasi kinerja model AI Gemini miliknya. Inti dari insiden ini adalah kemungkinan pelanggaran Google terhadap persyaratan layanan Anthropic, yang secara eksplisit melarang penggunaan tidak sah Claude untuk membuat produk pesaing atau melatih model AI pesaing. Pada saat yang sama, insiden tersebut juga menyoroti perbedaan keamanan antara model AI yang berbeda. Claude tampaknya memiliki kinerja lebih baik daripada Gemini dalam hal keamanan.
Kontraktor Google dilaporkan membandingkan tanggapan Gemini dan Claude untuk mengevaluasi keakuratan dan kualitas Gemini. Claude telah menunjukkan keamanan yang lebih besar dalam beberapa situasi, menolak menjawab tanda bahaya atau memberikan respons yang lebih hati-hati, sementara Gemini melakukan pelanggaran keamanan yang serius. Google DeepMind membantah menggunakan Claude untuk melatih Gemini, namun mengakui bahwa mereka akan membandingkan keluaran dari model yang berbeda untuk evaluasi. Perlu dicatat bahwa Google adalah salah satu investor utama Anthropic, yang membuat kejadian ini semakin rumit.
Highlight:
Penggunaan Claude AI dari Anthropic oleh Google untuk mengevaluasi Gemini mungkin melanggar persyaratan layanannya.
Claude tampaknya lebih ketat daripada Gemini dalam hal keamanan.
Google DeepMind membantah menggunakan model Antropik untuk melatih Gemini, sekaligus mengonfirmasi praktik mengevaluasi keluaran model.
Langkah Google telah memicu diskusi tentang persaingan dan kemitraan di antara perusahaan-perusahaan teknologi besar, serta masalah standar dan etika dalam evaluasi model AI. Di masa depan, insiden serupa mungkin mendorong industri untuk lebih menstandardisasi metode evaluasi dan penggunaan data model AI untuk memastikan persaingan yang sehat dan menjaga keamanan AI. Kejadian ini juga mengingatkan kita bahwa pesatnya perkembangan teknologi AI perlu diimbangi dengan kerangka peraturan dan etika yang lebih lengkap.