Recentemente, a questão do preconceito nos modelos de inteligência artificial atraiu mais uma vez a atenção. Segundo relatos, o GPT-3.5 da OpenAI apresenta preconceito racial no processo de triagem de currículos, e sua preferência por nomes de grupos étnicos específicos pode levar a injustiças no processo de recrutamento. Não se trata apenas de equidade e justiça, mas também destaca que, embora a tecnologia de inteligência artificial esteja a desenvolver-se rapidamente, as questões éticas e morais não podem ser ignoradas. Este artigo fornecerá uma análise aprofundada disso.
Os relatórios mostram que o OpenAI GPT3.5 mostra preconceito racial na classificação de currículos, e experimentos descobriram que favorece nomes de grupos étnicos específicos, o que pode afetar as seleções de recrutamento. Além disso, preferências de gênero e raciais sob diferentes posições também foram descobertas experimentalmente. A OpenAI respondeu que as empresas muitas vezes tomam medidas para mitigar preconceitos ao usar sua tecnologia.A resposta da OpenAI destaca a necessidade de as empresas tomarem medidas proactivas para mitigar preconceitos ao utilizar a sua tecnologia, demonstrando que tanto os fornecedores de tecnologia como os utilizadores têm responsabilidades e precisam de trabalhar em conjunto para construir um ambiente de aplicação de IA mais justo e equitativo. No futuro, como detectar e corrigir eficazmente preconceitos nos modelos de IA tornar-se-á um tópico importante de preocupação e investigação contínuas no campo da inteligência artificial.