Microsoft presentó recientemente una demanda contra una organización acusada de utilizar herramientas personalizadas para eludir las medidas de protección de seguridad del servicio Azure OpenAI del producto de inteligencia artificial en la nube de Microsoft, accediendo y utilizando ilegalmente software y servidores de Microsoft para generar contenido ilegal "ofensivo" y "dañino". El grupo supuestamente utilizó credenciales de clientes robadas y software personalizado "de3u" para implementar un esquema de "piratería como servicio" que permitía a los usuarios usar DALL-E para generar imágenes sin escribir código e intentar eludir los mecanismos de filtrado de contenido de Microsoft. Microsoft solicitó una orden judicial y una indemnización por daños y perjuicios, y tomó contramedidas para fortalecer la seguridad de su servicio Azure OpenAI y confiscó sitios web relacionados con las acciones de los acusados para recopilar pruebas.
La demanda de Microsoft contra el grupo destaca la importancia de la seguridad de la IA y los continuos esfuerzos de los actores maliciosos para eludir las medidas de seguridad. Este incidente nos recuerda que incluso los sistemas de inteligencia artificial avanzados requieren mecanismos de seguridad sólidos para evitar abusos. Las acciones legales activas y las medidas técnicas de Microsoft demuestran su determinación de mantener la seguridad de la plataforma y proteger los intereses de los clientes, lo cual merece atención.