Los ingenieros internos de Microsoft emitieron recientemente una advertencia, señalando que el generador de imágenes AI Designer de la compañía tiene riesgos potenciales de seguridad y que la herramienta puede generar contenido dañino. Esta advertencia se envió a agencias reguladoras y juntas directivas, lo que generó preocupaciones sobre la seguridad de los modelos de IA. Se entiende que la herramienta Designer se basa en el modelo DALL-E de OpenAI y sus riesgos potenciales pueden surgir de fallas en el modelo mismo. El incidente destaca el posible impacto negativo de los grandes modelos lingüísticos y la importancia de la seguridad y la ética en la aplicación de la tecnología de IA.
Los ingenieros de Microsoft han advertido a los reguladores y a la junta directiva sobre los riesgos potenciales asociados con el generador de imágenes de IA de la empresa. Los ingenieros dicen que la herramienta Designer puede generar contenido dañino, debido a un problema con el modelo DALL-E de OpenAI. Instó a que se aborden los riesgos de seguridad y se llame la atención.
Este incidente nos recuerda una vez más que, si bien la tecnología de IA se está desarrollando rápidamente, debemos prestar atención a sus riesgos potenciales y fortalecer las medidas de supervisión y seguridad para garantizar el desarrollo saludable de la tecnología de IA y evitar su abuso. En el futuro, cómo equilibrar la innovación en la tecnología de IA y los riesgos de seguridad se convertirá en una cuestión importante.