Um novo estudo da Virginia Tech revela o preconceito geográfico do ChatGPT em questões de justiça ambiental. A pesquisa mostra que o ChatGPT é mais informativo sobre estados densamente povoados e menos informativo sobre estados rurais escassamente povoados, destacando o problema do preconceito geográfico nos modelos de IA. O estudo destaca a importância de investigar e abordar mais aprofundadamente potenciais preconceitos nos modelos de IA para garantir que sejam aplicados de forma justa e imparcial.
Um relatório divulgado pela Virginia Tech, nos Estados Unidos, mostra que o modelo de inteligência artificial ChatGPT tem limitações em questões de justiça ambiental em diferentes condados. O estudo descobriu que o ChatGPT tem maior probabilidade de fornecer informações relevantes a estados densamente povoados, enquanto os estados rurais com populações menores não têm acesso a essas informações. O estudo exige mais pesquisas para revelar o viés geográfico do modelo ChatGPT. Pesquisas anteriores também descobriram que o ChatGPT pode ser politicamente tendencioso.
As conclusões deste estudo alertam-nos que, ao aplicar a tecnologia de inteligência artificial, precisamos de considerar cuidadosamente os seus potenciais preconceitos e procurar ativamente métodos de melhoria para garantir que a inteligência artificial possa servir todas as populações de forma mais justa e eficaz. No futuro, será necessária mais investigação para aprofundar e abordar questões de preconceito nos modelos de IA, a fim de promover a sua aplicação mais ampla e equitativa.