Sebuah studi baru dari Brigham and Women's Hospital mengungkap masalah bias ras dan gender dalam aplikasi medis model bahasa besar GPT-4. Tim peneliti melakukan evaluasi mendalam terhadap kinerja GPT-4 dalam pengambilan keputusan klinis, termasuk menghasilkan kasus pasien, merumuskan rencana diagnostik dan pengobatan, dan menilai karakteristik pasien. Temuan menunjukkan bahwa GPT-4 memiliki bias yang jelas di setiap tautan ini, sehingga meningkatkan kekhawatiran tentang penggunaan model bahasa besar di bidang medis dan menyoroti pentingnya penilaian bias pada model AI untuk menghindari memperburuk kesenjangan sosial.
Para peneliti di Brigham and Women's Hospital mengevaluasi GPT-4 untuk mengetahui bias ras dan gender dalam pengambilan keputusan klinis. Mereka menemukan bahwa GPT-4 memiliki bias yang signifikan dalam menghasilkan kasus pasien, mengembangkan diagnosis dan rencana pengobatan, serta menilai karakteristik pasien. Penelitian menyerukan penilaian bias terhadap model bahasa besar untuk memastikan penggunaannya dalam pengobatan tidak memperburuk bias sosial. Temuan ini telah dipublikasikan di jurnal The Lancet Digital Health.
Temuan ini merupakan peringatan bahwa potensi masalah bias harus sepenuhnya dipertimbangkan dan diatasi ketika menerapkan kecerdasan buatan pada bidang-bidang penting seperti layanan kesehatan. Di masa depan, kita perlu mengembangkan model AI yang lebih adil dan adil untuk memastikan bahwa model tersebut bermanfaat bagi seluruh umat manusia dan tidak memperburuk ketidakadilan sosial. Publikasi penelitian ini juga memberikan referensi penting untuk pengembangan dan penerapan model bahasa besar, sehingga mendorong pengembang untuk lebih memperhatikan etika AI dan tanggung jawab sosial.