Google baru-baru ini memperbarui persyaratan penggunaan AI generatifnya, sehingga pelanggan dapat menggunakan alat AI generatifnya untuk pengambilan keputusan otomatis di bidang berisiko tinggi seperti perawatan medis dan pekerjaan, tetapi hanya dengan pengawasan manusia. Langkah ini telah memicu diskusi di industri mengenai penerapan AI di area berisiko tinggi dan kekhawatiran mengenai pengawasan terkait. Langkah Google ini kontras dengan pesaingnya OpenAI dan Anthropic, yang memiliki pembatasan lebih ketat terhadap pengambilan keputusan otomatis dengan risiko tinggi. Pembaruan ini juga menyoroti kebutuhan mendesak akan regulasi AI secara global dan tantangan dalam menyeimbangkan inovasi AI dengan potensi risiko.
Google baru-baru ini memperbarui persyaratan penggunaan AI generatif, yang secara eksplisit mengizinkan pelanggan menggunakan alat AI generatifnya untuk "pengambilan keputusan otomatis" di bidang "berisiko tinggi", seperti layanan kesehatan dan pekerjaan, selama pengawasan manusia diperlukan. Perubahan ini tercermin dalam kebijakan baru perusahaan yang melarang penggunaan AI generatif.
Catatan sumber gambar: Gambar dihasilkan oleh AI, dan penyedia layanan otorisasi gambar Midjourney
Berdasarkan kebijakan yang diperbarui, pelanggan dapat menggunakan AI generatif Google, dengan pengawasan, untuk membuat keputusan otomatis yang dapat menimbulkan "dampak merugikan yang material" terhadap hak-hak individu. Bidang-bidang berisiko tinggi ini meliputi pekerjaan, perumahan, asuransi, kesejahteraan sosial, dan lain-lain. Ketentuan sebelumnya sepertinya melarang pengambilan keputusan otomatis yang berisiko tinggi, namun Google mengatakan pihaknya sebenarnya telah mengizinkan penggunaan AI generatif untuk pengambilan keputusan tersebut di bawah pengawasan manusia sejak awal.
Juru bicara Google menanggapi media tersebut dengan mengatakan: "Persyaratan pengawasan manusia selalu ada dalam kebijakan kami dan mencakup semua area berisiko tinggi. Kami baru saja mengklasifikasi ulang beberapa istilah dan menyebutkan beberapa contoh dengan lebih jelas agar pengguna dapat memahaminya."
Dibandingkan dengan pendekatan Google, pesaing utama Google seperti OpenAI dan Anthropic memiliki peraturan yang lebih ketat mengenai pengambilan keputusan otomatis dengan risiko tinggi. OpenAI melarang penggunaan layanannya untuk pengambilan keputusan otomatis terkait kredit, pekerjaan, perumahan, pendidikan, penilaian sosial, dan asuransi. Anthropic memungkinkan AI-nya untuk membuat keputusan otomatis di bidang-bidang berisiko tinggi seperti hukum, asuransi, dan perawatan medis, tetapi hanya di bawah pengawasan "profesional yang berkualifikasi" dan mengharuskan pelanggan untuk menginformasikan dengan jelas tentang penggunaan AI untuk pengambilan keputusan tersebut.
Mengenai sistem AI untuk pengambilan keputusan otomatis, regulator telah menyatakan kekhawatirannya bahwa teknologi tersebut dapat memberikan hasil yang bias. Misalnya, penelitian menunjukkan bahwa AI dapat melanggengkan diskriminasi historis dalam persetujuan permohonan pinjaman dan hipotek.
Human Rights Watch dan organisasi nirlaba lainnya secara khusus menyerukan pelarangan sistem “penilaian sosial”, dengan alasan bahwa sistem tersebut mengancam akses masyarakat terhadap jaminan sosial dan dapat melanggar privasi serta menciptakan profiling yang bias.
Di UE, sistem AI yang berisiko tinggi, termasuk sistem yang melibatkan kredit pribadi dan keputusan ketenagakerjaan, menghadapi pengawasan paling ketat berdasarkan Undang-Undang AI. Penyedia sistem ini antara lain harus mendaftar di database, melakukan manajemen kualitas dan risiko, mempekerjakan pengawas manusia, dan melaporkan insiden kepada otoritas terkait.
Di Amerika Serikat, Colorado baru-baru ini mengesahkan undang-undang yang mewajibkan pengembang AI untuk mengungkapkan informasi tentang sistem AI yang "berisiko tinggi" dan mempublikasikan ringkasan kemampuan dan keterbatasan sistem. Sementara itu, Kota New York melarang pemberi kerja menggunakan alat otomatis untuk menyaring kandidat kecuali alat tersebut telah menjalani audit bias dalam setahun terakhir.
Highlight:
Google mengizinkan penggunaan AI generatif di area berisiko tinggi, namun memerlukan pengawasan manusia.
Perusahaan AI lain seperti OpenAI dan Anthropic memiliki batasan yang lebih ketat terhadap keputusan berisiko tinggi.
Regulator di berbagai negara sedang meninjau sistem AI untuk pengambilan keputusan otomatis guna mencegah hasil yang bias.
Pembaruan Google terhadap ketentuan penggunaan AI generatif telah memicu diskusi luas mengenai etika dan regulasi AI. Pemerintah dan institusi di seluruh dunia juga secara aktif mengeksplorasi cara mengatur teknologi AI dengan lebih baik untuk memastikan pengembangannya yang aman dan bertanggung jawab. Kedepannya, penerapan AI pada bidang-bidang yang berisiko tinggi akan menghadapi kajian dan pengawasan yang lebih ketat.