Editor Downcodes mengetahui bahwa Microsoft baru-baru ini merilis buku putih untuk menyelidiki penggunaan AI generatif yang berbahaya. Laporan tersebut mengungkapkan bahwa AI digunakan dalam aktivitas kriminal serius seperti penipuan, memproduksi materi pelecehan seksual terhadap anak-anak, memanipulasi pemilu, dan memproduksi gambar pribadi yang tidak disengaja, menekankan bahwa masalah ini bukan hanya tantangan teknis, namun juga menimbulkan ancaman besar bagi masyarakat. Microsoft menyerukan kerja sama global untuk bersama-sama menangani risiko yang ditimbulkan oleh AI.
Microsoft baru-baru ini merilis buku putih yang memberikan analisis mendalam tentang penggunaan kecerdasan buatan generatif (AI) yang berbahaya, termasuk penipuan, materi pelecehan seksual terhadap anak-anak, manipulasi pemilu, dan gambar pribadi non-konsensual. Perusahaan menegaskan, permasalahan tersebut bukan hanya tantangan teknis saja, namun juga menjadi ancaman besar bagi masyarakat.
Menurut buku putih Microsoft, para penjahat semakin memanfaatkan kekuatan AI generatif untuk melakukan kejahatan jahat. Hal ini mencakup penggunaan disinformasi yang dihasilkan oleh AI untuk melakukan penipuan, pembuatan materi pelecehan seksual terhadap anak-anak, manipulasi pemilu melalui teknologi deepfake, dan pembuatan gambar intim non-konsensual yang secara khusus menargetkan perempuan. “Kita tidak boleh lupa bahwa penyalahgunaan AI mempunyai konsekuensi besar bagi manusia,” kata Hugh Millward, wakil presiden urusan eksternal Microsoft.
Ditujukan khusus bagi para pembuat kebijakan di Inggris, buku putih ini mengusulkan serangkaian solusi komprehensif berdasarkan enam elemen inti untuk mengatasi permasalahan di atas. Enam elemen tersebut meliputi: arsitektur keamanan yang kuat, sumber media dan alat watermarking yang permanen, undang-undang yang dimodernisasi untuk melindungi masyarakat, kolaborasi yang kuat antara industri dan pemerintah serta masyarakat sipil, perlindungan terhadap penyalahgunaan layanan, dan pendidikan publik.
Dalam rekomendasi khusus untuk pembuat kebijakan di Inggris, Microsoft menyerukan agar penyedia sistem AI diwajibkan memberi tahu pengguna bahwa konten dihasilkan oleh AI saat pengguna berinteraksi dengan sistem AI. Selain itu, Microsoft merekomendasikan penerapan alat penandaan sumber tingkat lanjut untuk menandai konten sintetis, dan pemerintah juga harus memberikan contoh dengan melakukan verifikasi keaslian konten media mereka. Microsoft juga menekankan bahwa undang-undang baru diperlukan untuk melarang penipuan melalui alat AI guna melindungi integritas pemilu. Pada saat yang sama, kerangka hukum untuk melindungi anak-anak dan perempuan dari eksploitasi online juga harus diperkuat, termasuk dengan mengkriminalisasi produksi video deepfake seksual.
Microsoft juga menunjukkan bahwa penting untuk menyimpan teknologi metadata yang menunjukkan apakah media tersebut dihasilkan oleh AI. Proyek serupa sudah dijalankan oleh perusahaan seperti Adobe yang bertujuan membantu orang mengidentifikasi asal usul gambar. Namun, Microsoft percaya bahwa standar seperti Kredensial Konten memerlukan langkah-langkah kebijakan dan kesadaran masyarakat agar efektif.
Selain itu, Microsoft bekerja sama dengan organisasi seperti StopNCII.org untuk mengembangkan alat guna mendeteksi dan menghapus gambar yang melanggar. Korban dapat mengajukan banding melalui portal pelaporan pusat Microsoft. Bagi kaum muda, dukungan tambahan diberikan melalui layanan Take It Down yang disediakan oleh Pusat Nasional untuk Anak Hilang dan Tereksploitasi. Millward mengatakan: “Penyalahgunaan AI kemungkinan besar akan menjadi masalah jangka panjang, jadi kita perlu melipatgandakan upaya kita dan bekerja secara kreatif dengan perusahaan teknologi, mitra amal, masyarakat sipil, dan pemerintah untuk mengatasi masalah ini. Kita tidak bisa melakukannya sendiri. "
Buku putih Microsoft ini memberikan referensi berharga untuk menangani aplikasi AI generatif yang berbahaya, menekankan pentingnya kerja sama teknis, hukum, dan sosial, serta memberikan arahan penting bagi tata kelola AI di masa depan. Hanya dengan bekerja sama dengan banyak pihak kita dapat secara efektif mengatasi risiko yang ditimbulkan oleh AI dan menjamin keamanan dan stabilitas sosial.