O projeto de IA do Google, Gemini, causou polêmica recentemente devido aos seus novos regulamentos internos. Segundo relatos, o pessoal terceirizado responsável pela avaliação do conteúdo gerado pela Gemini foi solicitado a avaliar áreas nas quais não tinha experiência, especialmente em áreas sensíveis como saúde, levantando preocupações sobre a precisão das informações da Gemini. Este ajuste de política afeta diretamente o trabalho do pessoal terceirizado e afeta indiretamente a qualidade da avaliação da Gemini.
Recentemente, o projeto de IA do Google, Gemini, levantou preocupações sobre a precisão das informações devido aos seus novos regulamentos internos. Segundo relatos, o pessoal terceirizado encarregado de avaliar o conteúdo gerado pela IA está sendo solicitado a avaliar áreas nas quais não tem experiência, especialmente em temas delicados como cuidados de saúde.
Esses terceirizados são da GlobalLogic, empresa global de serviços de tecnologia que o Google exige que avaliem as respostas geradas pela IA, considerando principalmente fatores como “autenticidade”. Anteriormente, os terceirizados podiam optar por ignorar questões nas quais não tinham conhecimentos relevantes. Por exemplo, podiam optar por não avaliar uma questão de especialidade sobre cardiologia. Isto é feito para garantir a precisão da pontuação e que apenas pessoas com formação relevante possam realizar avaliações eficazes.
No entanto, na semana passada, a GlobalLogic anunciou o último requisito do Google, no qual os terceirizados não podem mais pular perguntas nessas áreas de especialização, mas são obrigados a avaliar as partes que entendem e explicar sua falta de conhecimento na área relevante. A mudança gerou preocupação generalizada entre os terceirizados de que a prática poderia afetar a precisão da Gemini em alguns tópicos complexos.
Por exemplo, alguns subcontratantes mencionaram em comunicações internas que a opção anterior de ignorar era para melhorar a precisão da pontuação, mas a implementação das novas regras forçou-os a avaliar algumas questões para as quais não tinham experiência, como as doenças raras. E-mails internos mostram que a regra original era: “Se você não tiver o conhecimento necessário para esta tarefa, ignore-a”. A nova regra é: “As solicitações que exigem conhecimento não devem ser ignoradas. Esta mudança na política, faça com que os terceirizados”. desconfortável.
De acordo com os novos regulamentos, os subcontratantes só podem saltar tarefas de avaliação em duas situações: uma é quando a informação está completamente ausente, como uma solicitação ou resposta completa; a outra é quando o conteúdo pode ser prejudicial e requer consentimento especial para realizar a avaliação; Embora estas novas regras tenham como objetivo melhorar o desempenho da Gemini, elas podem afetar a sua compreensão e feedback sobre tópicos complexos em operações reais.
O Google não respondeu a este assunto e as preocupações dos terceirizados também estão aumentando gradualmente.
Destaque:
O pessoal terceirizado é solicitado a avaliar respostas geradas por IA nas quais não possui experiência, especialmente em áreas sensíveis como a saúde.
As novas regulamentações eliminam a opção de “pular” e exigem que os terceirizados continuem pontuando mesmo que não tenham experiência.
Esta política pode afetar a precisão da Gemini em temas complexos, causando desconforto e preocupação entre os terceirizados.
A resposta do Google às novas regulamentações do Gemini foi adiada e as preocupações entre o pessoal de terceirização continuam a crescer, o que faz com que o desenvolvimento futuro do Gemini enfrente novos desafios. O método de avaliação da precisão dos modelos de IA precisa ser melhorado para garantir a confiabilidade e a segurança da tecnologia de IA.