Sebuah studi mengejutkan yang diterbitkan oleh Stanford Internet Observatory mengungkapkan sejumlah besar gambar pelecehan seksual terhadap anak-anak di database di balik generator gambar AI yang populer. Penemuan ini memicu kekhawatiran luas dan menyoroti potensi risiko etika dari teknologi kecerdasan buatan. Studi tersebut menunjukkan bahwa beberapa operator database gambar besar telah mengambil tindakan untuk membatasi akses, namun tindakan yang lebih proaktif masih diperlukan untuk mengatasi masalah serius ini guna melindungi anak-anak dan mencegah penyalahgunaan teknologi AI.
Basis data yang mendasari generator gambar kecerdasan buatan yang populer berisi ribuan gambar pelecehan seksual terhadap anak-anak, menurut sebuah studi baru dari Stanford Internet Observatory. Operator dari beberapa database gambar terbesar dan paling umum digunakan telah menutup akses ke database tersebut. Hal ini dapat berdampak pada kemampuan alat AI untuk menghasilkan keluaran yang berbahaya dan memperburuk penyalahgunaan yang pernah dilakukan terhadap korban sebenarnya. Stanford Internet Observatory menyerukan tindakan yang lebih radikal untuk mengatasi masalah ini.
Temuan ini mengkhawatirkan dan menyoroti pentingnya memastikan keamanan data dan etika dalam pengembangan kecerdasan buatan. Di masa depan, pengawasan terhadap data pelatihan AI perlu diperkuat dan dikembangkan sarana teknis yang lebih efektif untuk mengidentifikasi dan memfilter konten berbahaya guna memastikan pengembangan yang sehat dan penerapan teknologi kecerdasan buatan yang aman serta menghindari penggunaannya untuk tujuan ilegal dan berbahaya.