Google baru-baru ini memperbarui persyaratan penggunaan AI generatif untuk mendefinisikan dengan jelas penerapan AI di bidang “berisiko tinggi” seperti layanan kesehatan. Persyaratan baru ini memungkinkan pelanggan menggunakan AI generatif Google untuk pengambilan keputusan otomatis di area ini, namun hanya dengan pengawasan manusia. Langkah tersebut telah menimbulkan kekhawatiran di bidang AI karena berkaitan dengan penerapan AI dalam pengambilan keputusan berisiko tinggi, serta pertimbangan potensi bias dan masalah etika. Langkah Google sampai batas tertentu menanggapi kekhawatiran masyarakat mengenai penerapan AI dan mencerminkan upayanya untuk menyeimbangkan penerapan teknologi AI dan manajemen risiko.
Google baru-baru ini memperbarui ketentuan penggunaan AI generatifnya, mengklarifikasi bahwa pelanggan dapat menerapkan alat AI generatifnya untuk "pengambilan keputusan otomatis" di bidang "berisiko tinggi" seperti layanan kesehatan, tetapi hanya dengan pengawasan manusia. Menurut versi terbaru dari "Kebijakan Larangan Penggunaan AI Generatif" Google yang dirilis pada hari Selasa, pelanggan dapat menggunakan AI generatif Google untuk membuat "keputusan otomatis" yang mungkin memiliki "dampak merugikan yang material" terhadap hak-hak individu. Pelanggan dapat menggunakan AI generatif Google untuk membuat keputusan mengenai pekerjaan, perumahan, asuransi, kesejahteraan sosial, dan area “berisiko tinggi” lainnya selama ada pengawasan manusia. Di bidang AI, pengambilan keputusan otomatis mengacu pada keputusan yang dibuat oleh sistem AI berdasarkan data faktual dan data yang disimpulkan. Misalnya, suatu sistem mungkin secara otomatis memutuskan apakah akan menyetujui permohonan pinjaman, atau menyaring pelamar kerja. Sebelumnya, rancangan persyaratan Google mengisyaratkan larangan menyeluruh terhadap penggunaan AI generatif perusahaan dalam pengambilan keputusan otomatis yang berisiko tinggi. Namun Google mengatakan kepada TechCrunch bahwa pelanggan selalu dapat menggunakan AI generatifnya untuk mengotomatisasi keputusan, bahkan untuk aplikasi berisiko tinggi, selama ada pengawasan manusia. “Seperti halnya semua area berisiko tinggi, persyaratan pengawasan manusia selalu ada dalam kebijakan kami,” kata juru bicara Google saat dihubungi melalui email. “Kami mengklasifikasi ulang beberapa item [dalam persyaratan] dan mencantumkannya dengan lebih jelas untuk memberikan gambaran yang lebih jelas kepada pelanggan. "Pesaing AI utama Google, OpenAI dan Anthropic, memiliki peraturan yang lebih ketat mengenai penggunaan AI dalam pengambilan keputusan otomatis dengan risiko tinggi. Misalnya, OpenAI melarang penggunaan layanannya untuk pengambilan keputusan otomatis terkait kredit, pekerjaan, perumahan, pendidikan, penilaian sosial, dan asuransi. Anthropic mengizinkan AI-nya digunakan untuk mengotomatiskan pengambilan keputusan di bidang hukum, asuransi, perawatan kesehatan, dan bidang berisiko tinggi lainnya, tetapi hanya jika diawasi oleh "profesional yang berkualifikasi" dan mengharuskan pelanggan untuk mengungkapkan bahwa mereka menggunakan AI untuk tujuan ini. AI yang mengotomatiskan pengambilan keputusan yang berdampak pada individu telah mendapat sorotan dari regulator, yang telah menyatakan kekhawatirannya mengenai hasil bias yang dapat dihasilkan oleh teknologi tersebut. Penelitian menunjukkan bahwa AI yang digunakan untuk menyetujui permohonan kredit dan hipotek, misalnya, dapat melanggengkan diskriminasi dalam sejarah. Human Rights Watch, sebuah organisasi nirlaba, telah menyerukan pelarangan sistem “penilaian sosial”, yang menurut mereka dapat melemahkan akses masyarakat terhadap dukungan jaminan sosial, membahayakan privasi mereka dan membuat profil mereka menjadi bias. Sistem AI yang berisiko tinggi, termasuk sistem yang membuat keputusan kredit pribadi dan ketenagakerjaan, menghadapi peraturan paling ketat berdasarkan RUU Kecerdasan Buatan UE. Penyedia sistem ini harus mendaftar ke database, melakukan manajemen kualitas dan risiko, mempekerjakan pengawas manusia, dan melaporkan insiden kepada otoritas terkait, serta persyaratan lainnya. Di Amerika Serikat, Colorado baru-baru ini mengesahkan undang-undang yang mewajibkan pengembang AI untuk mengungkapkan informasi tentang sistem AI yang "berisiko tinggi" dan mengeluarkan pernyataan yang merangkum kemampuan dan keterbatasan sistem. Sementara itu, Kota New York melarang pengusaha menggunakan alat otomatis untuk menyaring kandidat untuk pengambilan keputusan pekerjaan kecuali alat tersebut telah diaudit untuk mengetahui adanya bias pada tahun sebelumnya. Kali ini Google memperjelas ketentuan penggunaan AI yang menunjukkan sikap perusahaan terhadap pengawasan aplikasi AI. Mengizinkan pengambilan keputusan otomatis di area berisiko tinggi namun menekankan pentingnya pengawasan manual tidak hanya mencerminkan potensi penerapan teknologi AI, namun juga mencerminkan kewaspadaan terhadap potensi risiko.
Pembaruan Google terhadap ketentuan penggunaan AI, selain menekankan pengawasan manual, juga mencerminkan tantangan dan eksplorasi yang dihadapi perusahaan teknologi dalam tata kelola AI. Bagaimana menyeimbangkan inovasi dan risiko dalam konteks pesatnya perkembangan teknologi AI akan menjadi isu penting yang memerlukan perhatian berkelanjutan di masa depan.