A Microsoft recentemente entrou com uma ação judicial contra uma organização que foi acusada de usar ferramentas personalizadas para contornar as medidas de proteção de segurança do serviço Azure OpenAI do produto de IA em nuvem da Microsoft, acessando e usando ilegalmente software e servidores da Microsoft para gerar conteúdo ilegal “ofensivo” e “prejudicial”. O grupo supostamente usou credenciais de clientes roubadas e software personalizado “de3u” para implementar um esquema de “hacking como serviço” que permitia aos usuários usar o DALL-E para gerar imagens sem escrever código e tentar contornar os mecanismos de filtragem de conteúdo da Microsoft. A Microsoft buscou uma liminar e indenização por danos, e tomou contramedidas para fortalecer a segurança de seu serviço Azure OpenAI e apreendeu sites relacionados às ações dos réus para coletar provas.
O processo da Microsoft contra o grupo destaca a importância da segurança da IA e os esforços contínuos de atores mal-intencionados para contornar as medidas de segurança. Este incidente lembra-nos que mesmo os sistemas avançados de IA requerem mecanismos de segurança fortes para evitar abusos. As ações legais e medidas técnicas ativas da Microsoft demonstram sua determinação em manter a segurança da plataforma e proteger os interesses dos clientes, o que merece atenção.