Sebuah studi baru dari Virginia Tech mengungkap bias geografis ChatGPT terhadap isu keadilan lingkungan. Penelitian menunjukkan bahwa ChatGPT lebih informatif tentang negara bagian yang berpenduduk padat dan kurang informatif tentang negara bagian yang berpenduduk jarang, sehingga menyoroti masalah bias geografis dalam model AI. Studi ini menyoroti pentingnya penyelidikan lebih lanjut dan mengatasi potensi bias dalam model AI untuk memastikan penerapannya secara adil dan tidak memihak.
Sebuah laporan yang dirilis oleh Virginia Tech di Amerika Serikat menunjukkan bahwa model kecerdasan buatan ChatGPT memiliki keterbatasan dalam masalah keadilan lingkungan di berbagai negara. Studi ini menemukan bahwa ChatGPT lebih cenderung memberikan informasi yang relevan ke negara-negara berpenduduk padat, sementara negara-negara pedesaan dengan populasi lebih kecil tidak memiliki akses terhadap informasi ini. Studi ini memerlukan penelitian lebih lanjut untuk mengungkap bias geografis model ChatGPT. Penelitian sebelumnya juga menemukan bahwa ChatGPT mungkin bias secara politik.
Temuan studi ini memperingatkan kita bahwa ketika menerapkan teknologi kecerdasan buatan, kita perlu mempertimbangkan potensi biasnya dengan hati-hati dan secara aktif mencari metode perbaikan untuk memastikan bahwa kecerdasan buatan dapat melayani seluruh populasi dengan lebih adil dan efektif. Di masa depan, diperlukan lebih banyak penelitian untuk menyelidiki dan mengatasi masalah bias dalam model AI guna mendorong penerapannya secara lebih luas dan adil.