Os engenheiros internos da Microsoft emitiram recentemente um alerta, apontando que o gerador de imagens de IA Designer da empresa apresenta riscos potenciais de segurança e que a ferramenta pode gerar conteúdo prejudicial. Este alerta foi submetido às agências reguladoras e aos conselhos de administração, levantando preocupações sobre a segurança dos modelos de IA. Entende-se que a ferramenta Designer é baseada no modelo DALL-E da OpenAI, e seus riscos potenciais podem decorrer de falhas no próprio modelo. O incidente destaca o potencial impacto negativo de grandes modelos linguísticos e a importância da segurança e da ética na aplicação da tecnologia de IA.
Os engenheiros da Microsoft alertaram os reguladores e o conselho de administração sobre os riscos potenciais associados ao gerador de imagens de IA da empresa. Os engenheiros dizem que a ferramenta Designer pode gerar conteúdo prejudicial, decorrente de um problema com o modelo DALL-E da OpenAI. Ele pediu que os riscos de segurança sejam abordados e chamem a atenção.
Este incidente lembra-nos mais uma vez que, embora a tecnologia de IA esteja a desenvolver-se rapidamente, devemos prestar atenção aos seus riscos potenciais e reforçar as medidas de supervisão e segurança para garantir o desenvolvimento saudável da tecnologia de IA e evitar o seu abuso. No futuro, como equilibrar a inovação tecnológica da IA e os riscos de segurança tornar-se-á uma questão importante.