El editor de Downcodes conoció que Microsoft publicó recientemente un libro blanco para profundizar en el uso malicioso de la IA generativa. El informe revela que la IA se utiliza en actividades delictivas graves como el fraude, la producción de materiales de abuso sexual infantil, la manipulación de elecciones y la producción de imágenes privadas involuntarias, y enfatiza que estos problemas no son solo desafíos técnicos, sino que también representan una gran amenaza para la sociedad. Microsoft pide cooperación global para abordar conjuntamente los riesgos que trae consigo la IA.
Microsoft publicó recientemente un documento técnico que proporciona un análisis en profundidad del uso malicioso de la inteligencia artificial generativa (IA), incluido el fraude, el material de abuso sexual infantil, la manipulación electoral y las imágenes privadas no consensuadas. La empresa destacó que estos problemas no son sólo desafíos técnicos, sino también una gran amenaza para la sociedad.
Según un libro blanco de Microsoft, los delincuentes aprovechan cada vez más el poder de la IA generativa para llevar a cabo crímenes nefastos. Estos incluyen el uso de desinformación generada por IA para defraudar, la creación de material de abuso sexual infantil, la manipulación electoral mediante tecnología deepfake y la creación de imágenes íntimas no consensuadas dirigidas especialmente a las mujeres. "Nunca debemos olvidar que el mal uso de la IA tiene profundas consecuencias para las personas reales", afirmó Hugh Millward, vicepresidente de asuntos externos de Microsoft.
Dirigido específicamente a los responsables políticos del Reino Unido, el libro blanco propone un conjunto integral de soluciones basadas en seis elementos centrales para abordar los problemas mencionados anteriormente. Los seis elementos incluyen: una arquitectura de seguridad sólida, fuentes permanentes de medios y herramientas de marcas de agua, leyes modernizadas para proteger al público, una fuerte colaboración entre la industria, el gobierno y la sociedad civil, protección contra el uso indebido de los servicios y educación pública.
En recomendaciones específicas para los responsables políticos del Reino Unido, Microsoft pide que se exija a los proveedores de sistemas de IA que informen a los usuarios que el contenido es generado por la IA cuando los usuarios interactúan con los sistemas de IA. Además, Microsoft recomienda implementar herramientas avanzadas de etiquetado de fuentes para marcar el contenido sintético, y los gobiernos también deberían dar ejemplo llevando a cabo una verificación de autenticidad de su contenido multimedia. Microsoft también enfatizó que se necesitan nuevas leyes para prohibir el fraude mediante herramientas de inteligencia artificial para proteger la integridad de las elecciones. Al mismo tiempo, también se debe fortalecer el marco legal para proteger a niños y mujeres de la explotación en línea, incluso penalizando la producción de deepfakes sexuales.
Microsoft también señaló que es importante almacenar tecnología de metadatos que indique si los medios fueron generados por IA. Empresas como Adobe ya están llevando a cabo proyectos similares que tienen como objetivo ayudar a las personas a identificar el origen de las imágenes. Sin embargo, Microsoft cree que estándares como las Credenciales de Contenido requieren medidas políticas y concientización pública para ser efectivos.
Además, Microsoft está trabajando con organizaciones como StopNCII.org para desarrollar herramientas que detecten y eliminen imágenes abusivas. Las víctimas pueden apelar a través del portal central de informes de Microsoft. Para los jóvenes, se brinda apoyo adicional a través del servicio Take It Down brindado por el Centro Nacional para Niños Desaparecidos y Explotados. Millward dijo: "Es probable que el uso indebido de la IA sea un problema a largo plazo, por lo que debemos redoblar nuestros esfuerzos y trabajar creativamente con empresas de tecnología, socios benéficos, la sociedad civil y los gobiernos para abordar este problema. No podemos hacerlo solos. "
Este documento técnico de Microsoft proporciona una referencia valiosa para abordar aplicaciones maliciosas de IA generativa, enfatiza la importancia de la cooperación técnica, legal y social y proporciona una dirección importante para la futura gobernanza de la IA. Sólo uniendo fuerzas con múltiples partes podremos abordar eficazmente los riesgos que plantea la IA y garantizar la seguridad y la estabilidad social.