Um novo estudo do Brigham and Women's Hospital revela questões de preconceito racial e de gênero em aplicações médicas do grande modelo de linguagem GPT-4. A equipe de pesquisa conduziu uma avaliação aprofundada do desempenho do GPT-4 na tomada de decisões clínicas, incluindo a geração de casos de pacientes, a formulação de planos de diagnóstico e tratamento e a avaliação das características dos pacientes. As descobertas mostram que o GPT-4 tem preconceitos claros em cada uma destas ligações, levantando preocupações sobre a utilização de grandes modelos de linguagem na área médica e destacando a importância da avaliação de preconceitos dos modelos de IA para evitar o agravamento da desigualdade social.
Pesquisadores do Brigham and Women's Hospital avaliaram o GPT-4 quanto ao preconceito racial e de gênero na tomada de decisões clínicas. Eles descobriram que o GPT-4 tinha vieses significativos na geração de casos de pacientes, no desenvolvimento de diagnósticos e planos de tratamento e na avaliação das características dos pacientes. A investigação exige uma avaliação de preconceitos de grandes modelos de linguagem para garantir que a sua utilização na medicina não exacerba os preconceitos sociais. As descobertas foram publicadas na revista The Lancet Digital Health.
As descobertas são um alerta de que potenciais questões de preconceito devem ser totalmente consideradas e abordadas ao aplicar a inteligência artificial a áreas críticas como a saúde. No futuro, precisamos de desenvolver modelos de IA mais justos e justos para garantir que beneficiam toda a humanidade, em vez de exacerbarem a injustiça social. A publicação desta pesquisa também fornece uma referência importante para o desenvolvimento e aplicação de grandes modelos de linguagem, levando os desenvolvedores a prestar mais atenção à ética e à responsabilidade social da IA.