L'Australie a récemment publié de nouvelles normes de sécurité en ligne, qui se concentrent spécifiquement sur l'utilisation de l'intelligence artificielle générative pour la sécurité des enfants et le matériel terroriste, une décision qui a suscité des inquiétudes de la part des géants de la technologie, notamment Microsoft et Meta. Ces entreprises estiment que les nouvelles normes pourraient avoir un impact négatif sur les capacités de protection des systèmes d'intelligence artificielle et limiter la précision de la formation et de l'examen du contenu en intelligence artificielle, affectant ainsi son développement et son application.
L'Australie a publié de nouvelles normes de sécurité en ligne, suscitant des inquiétudes parmi les entreprises technologiques, notamment Microsoft et Meta. Les normes concernent l’intelligence artificielle générative, ciblant la sécurité des enfants et le matériel terroriste. Les entreprises technologiques craignent que les normes n’affaiblissent les capacités de protection des systèmes d’IA, limitent la formation et affectent l’exactitude de l’examen du contenu.
La décision du gouvernement australien vise à renforcer la sécurité des réseaux et à protéger les utilisateurs contre les contenus nuisibles, mais son impact sur le secteur de l'intelligence artificielle nécessite encore une observation et une évaluation plus approfondies. La communication et la consultation entre les entreprises technologiques et les gouvernements aideront à trouver un point d’équilibre et à garantir que la sécurité et l’innovation se développent en parallèle.