Artikel ini mengeksplorasi bias rasis implisit yang tersembunyi dalam model bahasa, khususnya diskriminasi terhadap African American English (AAE). Penelitian telah menemukan bahwa bahkan ketika mengekspresikan sikap positif di permukaan, model bahasa dalam penerapan praktis masih mencerminkan bias implisit yang sangat tumpang tindih dengan stereotip paling negatif di masa lalu, seperti ketidakadilan dalam penugasan kerja dan keputusan pengadilan. Hal ini tidak hanya mengungkap kompleksnya sikap rasial masyarakat manusia yang tercermin dalam algoritme, namun juga menyoroti perlunya memperhatikan dan mengatasi potensi masalah bias saat mengembangkan dan menerapkan model bahasa untuk memastikan keadilan dan keamanan teknis.
Di era perkembangan teknologi yang pesat saat ini, model bahasa telah menjadi alat yang sangat diperlukan dalam kehidupan kita. Model-model ini mempunyai penerapan mulai dari membantu guru merencanakan pembelajaran, menjawab pertanyaan tentang undang-undang perpajakan, hingga memprediksi risiko kematian pasien sebelum mereka keluar dari rumah sakit.
Namun, karena pentingnya model-model ini dalam pengambilan keputusan, kita juga harus khawatir apakah model-model ini secara tidak sengaja mencerminkan bias manusia yang tersembunyi dalam data pelatihan, sehingga memperburuk diskriminasi terhadap ras, gender, dan kelompok marginal lainnya.
Meskipun penelitian awal tentang AI mengungkapkan bias terhadap kelompok ras, penelitian ini terutama berfokus pada diskriminasi rasial yang eksplisit, yaitu referensi langsung terhadap suatu ras dan stereotip terkaitnya. Seiring berkembangnya masyarakat, para sosiolog telah mengusulkan konsep rasisme baru yang lebih terselubung yang disebut "rasisme implisit". Bentuk ini tidak lagi bercirikan diskriminasi rasial secara langsung, namun didasarkan pada ideologi rasis “tidak berwarna” yang menghindari penyebutan ras namun tetap menganut keyakinan negatif terhadap orang kulit berwarna.
Studi ini adalah yang pertama mengungkapkan bahwa model bahasa juga menyampaikan konsep rasisme implisit sampai batas tertentu, khususnya ketika menilai penutur bahasa Inggris Afrika Amerika (AAE). AAE adalah dialek yang terkait erat dengan sejarah dan budaya orang Afrika-Amerika. Dengan menganalisis kinerja model bahasa dalam menghadapi AAE, kami menemukan bahwa model ini menunjukkan diskriminasi dialek yang berbahaya dalam pengambilan keputusan, dan menunjukkan lebih banyak stereotip negatif tentang orang Amerika keturunan Afrika dibandingkan sikap stereotip negatif apa pun yang terdokumentasi.
Selama penelitian kami, kami menggunakan metode yang disebut "pencocokan penyamaran" untuk mengeksplorasi perbedaan penilaian model bahasa untuk penutur dialek berbeda dengan membandingkan teks AAE dan Standard American English (SAE). Dalam prosesnya, kami menemukan bahwa model bahasa tersebut tidak hanya memiliki lebih banyak stereotip positif tentang orang Amerika keturunan Afrika, namun juga memiliki bias implisit mendalam yang sangat mirip dengan stereotip paling negatif di masa lalu.
Misalnya, ketika model diminta untuk mencocokkan pekerjaan dengan orang-orang yang berbicara AAE, mereka cenderung menugaskan orang-orang tersebut ke pekerjaan tingkat yang lebih rendah, meskipun tidak diberi tahu ras mereka. Demikian pula, dalam kasus hipotetis, ketika model diminta untuk menghukum seorang pembunuh yang memberikan kesaksian menggunakan AAE, mereka secara signifikan lebih cenderung memilih hukuman mati.
Yang lebih mengkhawatirkan lagi, beberapa praktik yang ada saat ini yang dirancang untuk memitigasi bias rasial, seperti pelatihan melalui umpan balik manusia, justru memperburuk kesenjangan antara stereotip implisit dan eksplisit, sehingga memungkinkan munculnya rasisme yang mendasarinya. Tampaknya kurang jelas, namun tetap ada pada tingkat yang lebih dalam.
Temuan-temuan ini menyoroti pentingnya penggunaan teknologi bahasa secara adil dan aman, terutama dalam konteks di mana teknologi tersebut dapat berdampak besar pada kehidupan manusia. Meskipun kami telah mengambil langkah-langkah untuk menghilangkan bias eksplisit, model bahasa tersebut masih menunjukkan diskriminasi rasial secara implisit terhadap penutur AAE melalui fitur dialek.
Hal ini tidak hanya mencerminkan sikap rasial yang kompleks dalam masyarakat manusia, namun juga mengingatkan kita bahwa kita harus lebih berhati-hati dan peka ketika mengembangkan dan menggunakan teknologi ini.
Referensi: https://www.nature.com/articles/s41586-024-07856-5
Temuan ini mengingatkan kita akan perlunya penelitian lebih lanjut mengenai bias dalam model bahasa dan pengembangan metode debiasing yang lebih efektif. Hanya dengan cara ini kita dapat memastikan bahwa teknologi kecerdasan buatan dapat melayani semua orang secara adil dan merata serta menghindari memperburuk ketidakadilan sosial.