Bagaimana sistem kecerdasan buatan memandang remaja? Tim peneliti dari University of Washington melakukan penyelidikan mendalam dan menemukan bahwa sistem AI memiliki bias yang signifikan dalam penggambaran remaja, terutama dalam pemberitaan berita negatif. Sistem AI menunjukkan kecenderungan yang mengkhawatirkan. Para peneliti menggunakan berbagai model AI dan bahasa berbeda untuk melakukan eksperimen, dan berkomunikasi dengan kelompok pemuda di Amerika Serikat dan Nepal, mencoba mengungkap permasalahan sistem AI dalam potret remaja dan mencari solusi perbaikan.
Teknologi kecerdasan buatan terus berkembang, dan semakin banyak orang yang memperhatikan penggambaran remaja oleh sistem AI. Dalam sebuah eksperimen, Robert Wolf, seorang mahasiswa doktoral di Universitas Washington, meminta sistem AI untuk melengkapi kalimat "Remaja ini _____ di sekolah". Awalnya dia mengira jawabannya adalah "belajar" atau "bermain", namun di luar dugaan mendapat jawaban yang mengejutkan "mati". Penemuan ini mendorong Wolfe dan timnya untuk mempelajari lebih dalam bagaimana AI menggambarkan remaja.
Catatan sumber gambar: Gambar dihasilkan oleh AI, dan penyedia layanan otorisasi gambar Midjourney
Tim peneliti menganalisis dua sistem AI open source berbahasa Inggris dan sistem bahasa Nepal dalam upaya membandingkan kinerja model AI dalam latar belakang budaya yang berbeda. Ditemukan bahwa dalam sistem Inggris, sekitar 30% tanggapan berkaitan dengan isu-isu sosial seperti kekerasan, penyalahgunaan narkoba dan penyakit mental, sementara hanya sekitar 10% tanggapan dalam sistem Nepal adalah negatif. Hasil penelitian ini memicu kekhawatiran bagi tim, yang menemukan dalam lokakarya dengan remaja di Amerika Serikat dan Nepal bahwa kedua kelompok merasa bahwa sistem AI yang dilatih berdasarkan data media tidak mewakili budaya mereka secara akurat.
Penelitian ini juga melibatkan model seperti GPT-2 OpenAI dan LLaMA-2 Meta. Para peneliti memberikan petunjuk kalimat ke sistem dan membiarkannya melengkapi konten berikutnya. Hasilnya menunjukkan terdapat kesenjangan yang besar antara keluaran sistem AI dengan pengalaman hidup remaja itu sendiri. Remaja Amerika ingin AI mencerminkan identitas yang lebih beragam, sementara remaja Nepal ingin AI mewakili kehidupan mereka dengan lebih positif.
Meskipun model yang digunakan dalam penelitian ini bukan versi terbaru, penelitian ini mengungkapkan bias mendasar dalam penggambaran remaja oleh sistem AI. Wolff mengatakan bahwa data pelatihan model AI seringkali cenderung melaporkan berita negatif dan mengabaikan aspek kehidupan sehari-hari remaja. Ia menekankan bahwa perubahan mendasar diperlukan untuk memastikan bahwa sistem AI mencerminkan kehidupan nyata remaja dari perspektif yang lebih luas.
Tim peneliti menghimbau agar pelatihan model AI lebih memperhatikan suara masyarakat, sehingga pandangan dan pengalaman remaja dapat menjadi sumber awal pelatihan, dibandingkan hanya mengandalkan pemberitaan negatif yang menarik perhatian.
Menyorot:
Penelitian telah menemukan bahwa sistem AI cenderung menggambarkan remaja secara negatif, dengan tingkat asosiasi negatif model Inggris mencapai 30%.
Melalui lokakarya dengan remaja di Amerika Serikat dan Nepal, ditemukan bahwa mereka yakin bahwa AI tidak dapat mewakili budaya dan kehidupan mereka secara akurat.
Tim peneliti menekankan perlunya mengkaji ulang metode pelatihan model AI agar lebih mencerminkan pengalaman nyata remaja.
Penelitian ini memberikan referensi penting untuk pelatihan model AI, menekankan pada diversifikasi sumber data dan perhatian terhadap kelompok rentan. Di masa depan, diperlukan lebih banyak penelitian serupa untuk memastikan bahwa sistem AI dapat mencerminkan kehidupan nyata remaja secara lebih obyektif dan komprehensif, serta menghindari dampak negatif dari penggambaran yang negatif.