Australia publicó recientemente nuevos estándares de seguridad en línea, que se centran específicamente en el uso de inteligencia artificial generativa en seguridad infantil y material terrorista, una medida que ha generado preocupación por parte de gigantes tecnológicos como Microsoft y Meta. Estas empresas creen que los nuevos estándares pueden tener un impacto negativo en las capacidades de protección de los sistemas de inteligencia artificial y limitar la precisión de la capacitación en inteligencia artificial y la revisión de contenido, afectando así su desarrollo y aplicación.
Australia ha publicado nuevos estándares de seguridad en línea, lo que ha generado preocupación entre las empresas de tecnología, incluidas Microsoft y Meta. Los estándares se relacionan con la inteligencia artificial generativa, teniendo como objetivo la seguridad infantil y el material terrorista. A las empresas de tecnología les preocupa que los estándares puedan debilitar las capacidades de protección de los sistemas de inteligencia artificial, limitar la capacitación y afectar la precisión de la revisión de contenidos.
La medida del gobierno australiano tiene como objetivo fortalecer la seguridad de la red y proteger a los usuarios de contenido dañino, pero su impacto en la industria de la inteligencia artificial aún requiere mayor observación y evaluación. La comunicación y la consulta entre las empresas de tecnología y los gobiernos ayudarán a encontrar un punto de equilibrio y garantizar que la seguridad y la innovación se desarrollen en paralelo.