Une nouvelle étude du Brigham and Women's Hospital révèle des problèmes de préjugés raciaux et sexistes dans les applications médicales du grand modèle linguistique GPT-4. L'équipe de recherche a mené une évaluation approfondie des performances de GPT-4 dans la prise de décision clinique, notamment en générant des cas de patients, en formulant des plans de diagnostic et de traitement et en évaluant les caractéristiques des patients. Les résultats montrent que GPT-4 présente des biais évidents dans chacun de ces liens, soulevant des inquiétudes quant à l'utilisation de grands modèles de langage dans le domaine médical et soulignant l'importance de l'évaluation des biais des modèles d'IA pour éviter d'exacerber les inégalités sociales.
Des chercheurs du Brigham and Women's Hospital ont évalué le GPT-4 pour détecter les préjugés raciaux et sexistes dans la prise de décision clinique. Ils ont constaté que GPT-4 présentait des biais importants dans la génération de cas de patients, l’élaboration de plans de diagnostic et de traitement et l’évaluation des caractéristiques des patients. La recherche appelle à une évaluation des biais des grands modèles linguistiques pour garantir que leur utilisation en médecine n’exacerbe pas les préjugés sociaux. Les résultats ont été publiés dans la revue The Lancet Digital Health.
Les résultats constituent un avertissement selon lequel les problèmes potentiels de biais doivent être pleinement pris en compte et résolus lors de l’application de l’intelligence artificielle à des domaines critiques tels que les soins de santé. À l’avenir, nous devrons développer des modèles d’IA plus justes et plus justes pour garantir qu’ils profitent à toute l’humanité plutôt que d’exacerber l’injustice sociale. La publication de cette recherche constitue également une référence importante pour le développement et l’application de grands modèles de langage, incitant les développeurs à accorder davantage d’attention à l’éthique et à la responsabilité sociale de l’IA.