Microsoft a récemment publié un livre blanc, avertissant que les applications malveillantes de l'IA générative deviennent de plus en plus rampantes, couvrant plusieurs domaines tels que la fraude, les abus sexuels sur les enfants, la manipulation électorale et la fuite d'image involontaire. Le rapport souligne non seulement les défis techniques, mais souligne également les menaces graves qu'elle pose à la société et propose une solution pratique aux décideurs britanniques, visant à utiliser la coopération juridique, technique et sociale et d'autres moyens. problème. Le livre blanc explique diverses méthodes d'utilisation de la technologie de l'IA pour commettre des crimes et propose l'importance de renforcer la législation, de promouvoir l'innovation technologique et d'améliorer la sensibilisation du public.
Microsoft a récemment publié un livre blanc qui analyse profondément l'utilisation malveillante de l'intelligence artificielle générative (IA), y compris la fraude, les matériaux d'abus sexuels pour enfants, la manipulation électorale et les images privées involontaires. L'entreprise a souligné que ces problèmes ne sont pas seulement des défis techniques, mais aussi une menace majeure pour la société.
Selon le livre blanc de Microsoft, les criminels utilisent de plus en plus la puissance de l'IA génératrice pour commettre de mauvaises actions. Ces comportements vicieux incluent l'utilisation de fausses informations générées par l'IA pour commettre une fraude, la création de matériaux d'abus sexuels sur les enfants, la manipulation électorale par des techniques de contrefaçon profondes et la création d'images intimidaires involontaires qui s'adressent particulièrement aux femmes. "Nous ne pouvons jamais oublier que l'abus de l'IA a un impact profond sur les vraies personnes", a déclaré Hugh Millward, vice-président des affaires extérieures de Microsoft.
Le livre blanc cible spécifiquement les décideurs politiques au Royaume-Uni et propose un ensemble complet de solutions basées sur six éléments de base pour résoudre les problèmes ci-dessus. Ces six éléments comprennent: une solide architecture de sécurité, une source permanente d'outils médiatiques et de filigranes, des lois modernes pour protéger le public, une forte collaboration entre l'industrie et le gouvernement et la société civile, la protection des abus des services et l'éducation publique.
Dans une recommandation spécifique pour les décideurs britanniques, Microsoft appelle les fournisseurs de systèmes d'IA à informer les utilisateurs que le contenu est généré par l'IA lorsqu'ils interagissent avec les systèmes d'IA. En outre, Microsoft recommande de mettre en œuvre des outils de marquage de source avancés pour marquer le contenu synthétique, et le gouvernement devrait donner l'exemple en vérifiant l'authenticité de son contenu multimédia. Microsoft a également souligné la nécessité pour les nouvelles lois d'interdire la fraude par le biais d'outils d'IA pour protéger l'équité des élections. Dans le même temps, le cadre juridique pour protéger les enfants et les femmes contre l'exploitation en ligne devrait également être renforcé, notamment en criminalisant la production de falsification profonde sexuelle.
Microsoft a également souligné qu'il est important de stocker les technologies de métadonnées qui indiquent si les médias sont générés par l'IA. Des projets similaires ont été poussés par des entreprises telles qu'Adobe, qui visent à aider les gens à identifier la source des images. Cependant, Microsoft estime que des normes comme les «bons de contenu» nécessitent des mesures politiques et une sensibilisation du public pour fonctionner.
De plus, Microsoft s'est associé à des organisations telles que stopncii.org pour développer des outils pour détecter et supprimer des images abusé. Les victimes peuvent défendre leurs droits via le portail de rapport central de Microsoft. Le service «Take It Down» fourni par le National Center for Missing and Exploited Children fournit également un soutien supplémentaire. "Le problème de l'abus d'IA peut être à long terme, nous devons donc redoubler nos efforts pour collaborer de manière créative avec les entreprises technologiques, les partenaires philanthropiques, la société civile et le gouvernement pour résoudre ce problème. Nous ne pouvons pas nous battre seuls", a déclaré Millward.
Points clés:
Microsoft a publié un livre blanc qui révèle les nombreuses façons dont l'IA générative est utilisée avec malveillance, y compris les escroqueries et la manipulation électorale.
En réponse aux décideurs britanniques, Microsoft a proposé des solutions à six éléments majeurs, appelant à une protection complète du droit et de la technologie.
Soulignant l'importance de travailler avec toutes les parties, Microsoft appelle à un effort conjoint pour relever les défis posés par l'abus de l'IA.
En bref, le Livre blanc de Microsoft fournit une référence importante pour répondre aux applications malveillantes de l'IA générative, met l'accent sur le rôle complet de la technologie, du droit et de la coopération sociale, et appelle les efforts conjoints mondiaux pour prévenir l'abus de la technologie de l'IA et maintenir la sécurité sociale et la stabilité .