كشفت دراسة جديدة من مستشفى بريجهام والنساء عن قضايا التحيز العنصري والجنساني في التطبيقات الطبية لنموذج اللغة الكبير GPT-4. أجرى فريق البحث تقييمًا متعمقًا لأداء GPT-4 في اتخاذ القرارات السريرية، بما في ذلك إنشاء حالات المرضى، وصياغة خطط التشخيص والعلاج، وتقييم خصائص المريض. تظهر النتائج أن GPT-4 لديه تحيزات واضحة في كل من هذه الروابط، مما يثير مخاوف بشأن استخدام نماذج لغوية كبيرة في المجال الطبي، ويسلط الضوء على أهمية تقييم التحيز لنماذج الذكاء الاصطناعي لتجنب تفاقم عدم المساواة الاجتماعية.
قام الباحثون في مستشفى بريجهام والنساء بتقييم GPT-4 بحثًا عن التحيز العنصري والجنسي في عملية صنع القرار السريري. ووجدوا أن GPT-4 كان له تحيزات كبيرة في توليد حالات المرضى، وتطوير التشخيص وخطط العلاج، وتقييم خصائص المريض. تدعو الأبحاث إلى تقييم التحيز لنماذج اللغة الكبيرة للتأكد من أن استخدامها في الطب لا يؤدي إلى تفاقم التحيزات الاجتماعية. ونشرت النتائج في مجلة لانسيت للصحة الرقمية.
تعتبر النتائج بمثابة تحذير من ضرورة مراعاة قضايا التحيز المحتملة ومعالجتها بشكل كامل عند تطبيق الذكاء الاصطناعي على المجالات الحيوية مثل الرعاية الصحية. وفي المستقبل، نحتاج إلى تطوير نماذج أكثر عدالة للذكاء الاصطناعي لضمان استفادة البشرية جمعاء بدلا من تفاقم الظلم الاجتماعي. كما يوفر نشر هذا البحث مرجعًا مهمًا لتطوير وتطبيق النماذج اللغوية الكبيرة، مما يدفع المطورين إلى إيلاء المزيد من الاهتمام لأخلاقيات الذكاء الاصطناعي والمسؤولية الاجتماعية.