Untuk memastikan “kepercayaan” kecerdasan buatan umum (GPAI), Uni Eropa telah secara resmi meluncurkan konsultasi aturan untuk penyedia GPAI. Konsultasi ini bertujuan untuk membantu pengembang mematuhi Undang-Undang Kecerdasan Buatan Uni Eropa (AI Act) yang akan datang dan merumuskan kode etik untuk pengembangan GPAI di masa depan. Sasaran konsultasi mencakup penyedia GPAI, perusahaan, perwakilan masyarakat sipil, pemegang hak dan pakar akademis, dll., dan berupaya mengumpulkan pendapat secara luas untuk memastikan kelengkapan dan rasionalitas peraturan. Tindakan ini mencerminkan sikap positif UE di bidang regulasi kecerdasan buatan dan juga memberikan referensi yang berguna bagi tata kelola kecerdasan buatan global.
Baru-baru ini, Uni Eropa secara resmi meluncurkan konsultasi aturan bagi penyedia model kecerdasan buatan umum (GPAI). Penyedia tersebut antara lain perusahaan kecerdasan buatan ternama seperti Anthropic, Google, Microsoft, dan OpenAI. Konsultasi ini bertujuan untuk memberikan panduan kepada pengembang tentang cara mematuhi kewajiban hukum berdasarkan Undang-Undang Kecerdasan Buatan (AI Act) UE untuk memastikan "dapat dipercaya" dari GPAI.
Catatan sumber gambar: Gambar dihasilkan oleh AI, dan gambar tersebut disahkan oleh penyedia layanan Midjourney
Rencananya, Undang-Undang Kecerdasan Buatan UE akan resmi berlaku pada 1 Agustus, namun masa kepatuhan penerapan undang-undang tersebut akan dilakukan secara bertahap, dan kode etik terkait akan berlaku sembilan bulan kemudian, yakni , paling lambat April 2025. . Hal ini memberikan UE waktu yang cukup untuk mengembangkan pedoman yang relevan.
Melalui konsultasi ini, Komisi Eropa berharap dapat memperoleh pendapat dari penyedia GPAI, dunia usaha, perwakilan masyarakat sipil, pemegang hak asasi manusia, dan pakar akademis. “Konsultasi ini memberikan kesempatan bagi seluruh pemangku kepentingan untuk menyampaikan pandangan mereka mengenai topik-topik yang tercakup dalam kode etik pertama,” kata panitia. Selain itu, masukan tersebut akan membantu pekerjaan terkait, khususnya dalam pengembangan template pelatihan model GPAI untuk konten ringkasan dan panduan terkait.
Kuesioner konsultasi dibagi menjadi tiga bagian, bagian pertama membahas transparansi GPAI dan ketentuan terkait hak cipta; bagian kedua berfokus pada klasifikasi risiko, penilaian dan aturan mitigasi GPAI dengan risiko sistemik; kode etik dan pemantauan. Komite mengatakan akan mengembangkan rancangan awal kode etik berdasarkan masukan yang disampaikan dan jawaban atas pertanyaan yang ditargetkan.
Mereka yang berpartisipasi dalam konsultasi memiliki kesempatan untuk mempengaruhi templat yang disediakan oleh Kantor AI kepada penyedia GPAI guna membantu mereka memenuhi persyaratan hukum dalam menyediakan ringkasan konten pelatihan model. Selain itu, Kantor AI juga mengeluarkan surat niat untuk berpartisipasi dalam penyusunan kode etik, mengundang penyedia GPAI yang memenuhi syarat, penyedia hilir, dan pakar independen dari organisasi pemangku kepentingan dan akademisi lainnya untuk berpartisipasi.
Pihak yang berminat dapat menyampaikan pernyataan minatnya untuk berpartisipasi sebelum tanggal 25 Agustus. Kantor AI juga berencana menyelenggarakan lokakarya untuk memfasilitasi peserta berkomunikasi dengan moderator dan co-moderator pertemuan guna memberikan dukungan informasi untuk penyusunan selanjutnya. Kantor AI akan memastikan transparansi dalam diskusi ini dan akan menyediakan notulensi untuk ditinjau oleh semua peserta.
Konsultasi dan pengembangan kode etik ini merupakan jawaban atas kekhawatiran sebelumnya bahwa organisasi masyarakat sipil mungkin dikecualikan, dan Komisi Eropa mengatakan bahwa semua pihak terkait didorong untuk berpartisipasi.
Highlight:
1. ? Uni Eropa meluncurkan konsultasi untuk merumuskan aturan umum kecerdasan buatan untuk memastikan "dapat dipercaya".
2. ? Kuesioner konsultasi mencakup tiga bagian: transparansi, penilaian dan pemantauan risiko, dan secara ekstensif mengumpulkan pendapat dari semua pihak.
3. ?Kantor AI mengundang berbagai pemangku kepentingan untuk berpartisipasi dalam penyusunan kode etik untuk memastikan proses yang transparan.
Langkah UE ini bertujuan untuk menyeimbangkan pengembangan kecerdasan buatan dan manajemen risiko serta memberikan contoh bagi tata kelola kecerdasan buatan global, yang patut mendapat perhatian dan referensi. Di masa depan, inisiatif UE ini dan dampak selanjutnya akan berdampak besar pada perkembangan industri kecerdasan buatan global.