Une nouvelle étude de Virginia Tech révèle le biais géographique de ChatGPT sur les questions de justice environnementale. La recherche montre que ChatGPT est plus informatif sur les États densément peuplés et moins informatif sur les États ruraux faiblement peuplés, soulignant le problème du biais géographique dans les modèles d'IA. L’étude souligne l’importance d’enquêter plus en profondeur et de remédier aux biais potentiels dans les modèles d’IA afin de garantir qu’ils sont appliqués de manière juste et impartiale.
Un rapport publié par Virginia Tech aux États-Unis montre que le modèle d'intelligence artificielle ChatGPT présente des limites en matière de justice environnementale dans différents pays. L'étude a révélé que ChatGPT est plus susceptible de fournir des informations pertinentes aux États densément peuplés, tandis que les États ruraux moins peuplés n'ont pas accès à ces informations. L'étude appelle à des recherches plus approfondies pour révéler le biais géographique du modèle ChatGPT. Des recherches antérieures ont également révélé que ChatGPT peut être politiquement biaisé.
Les résultats de cette étude nous avertissent que lors de l’application de la technologie de l’intelligence artificielle, nous devons examiner attentivement ses biais potentiels et rechercher activement des méthodes d’amélioration pour garantir que l’intelligence artificielle puisse servir toutes les populations de manière plus équitable et plus efficace. À l’avenir, des recherches supplémentaires seront nécessaires pour approfondir et résoudre les problèmes de biais dans les modèles d’IA afin de promouvoir leur application plus large et équitable.