A ferramenta de geração de imagens Gemini AI do Google foi recentemente amplamente criticada pelo risco de discriminação racial nas imagens que gera. O incidente destaca os desafios éticos enfrentados no desenvolvimento da tecnologia de inteligência artificial, bem como as responsabilidades das grandes empresas tecnológicas na construção de sistemas de IA responsáveis. O Google respondeu rapidamente ao feedback dos usuários, corrigindo urgentemente problemas relacionados na ferramenta e enfatizando sua ênfase na diversidade e inclusão. Este incidente também nos lembra mais uma vez que, embora a tecnologia da IA esteja a desenvolver-se rapidamente, precisamos de prestar mais atenção ao seu potencial impacto social e tomar ativamente medidas para evitar preconceitos e discriminação.
A ferramenta de geração de imagens Gemini AI do Google atraiu críticas dos usuários devido ao risco de discriminação racial na geração de imagens diversas. O Google corrige ferramentas com urgência para evitar acusações, diz que leva a sério as questões de diversidade. A Gemini cometeu erros em matéria de diversidade no passado e a Google precisa de mostrar a sua liderança no desenvolvimento da IA.
A resposta rápida do Google desta vez mostra que leva a sério o feedback negativo, mas também expõe áreas onde ainda precisa de melhorias no treinamento e implantação de modelos de IA. No futuro, o Google precisa fortalecer ainda mais o monitoramento e avaliação dos modelos de IA para garantir que o conteúdo que gera esteja em conformidade com os padrões éticos e evitar que incidentes semelhantes aconteçam novamente, para que possa realmente realizar o desenvolvimento justo, justo e sustentável da IA tecnologia.