L'éditeur de Downcodes a appris que Microsoft avait récemment publié un livre blanc pour se pencher sur l'utilisation malveillante de l'IA générative. Le rapport révèle que l'IA est utilisée dans des activités criminelles graves telles que la fraude, la production de matériel pédopornographique, la manipulation des élections et la production involontaire d'images privées, soulignant que ces problèmes ne sont pas seulement des défis techniques, mais constituent également une menace majeure pour la société. Microsoft appelle à une coopération mondiale pour faire face conjointement aux risques posés par l'IA.
Microsoft a récemment publié un livre blanc qui fournit une analyse approfondie de l'utilisation malveillante de l'intelligence artificielle (IA) générative, y compris la fraude, le matériel pédopornographique, la manipulation électorale et les images privées non consensuelles. L'entreprise a souligné que ces problèmes ne constituent pas seulement des défis techniques, mais aussi une menace majeure pour la société.
Selon un livre blanc de Microsoft, les criminels exploitent de plus en plus la puissance de l’IA générative pour commettre des crimes infâmes. Il s’agit notamment de l’utilisation de la désinformation générée par l’IA pour frauder, de la création de matériel d’abus sexuel sur des enfants, de la manipulation des élections grâce à la technologie deepfake et de la création d’images intimes non consensuelles ciblant particulièrement les femmes. "Nous ne devons jamais oublier qu'une mauvaise utilisation de l'IA a de profondes conséquences sur les personnes réelles", a déclaré Hugh Millward, vice-président des affaires extérieures de Microsoft.
Destiné spécifiquement aux décideurs politiques britanniques, le livre blanc propose un ensemble complet de solutions basées sur six éléments fondamentaux pour résoudre les problèmes ci-dessus. Ces six éléments comprennent : une architecture de sécurité solide, des sources permanentes de médias et d'outils de filigrane, des lois modernisées pour protéger le public, une collaboration étroite entre l'industrie, le gouvernement et la société civile, la protection contre l'utilisation abusive des services et l'éducation du public.
Dans des recommandations spécifiques destinées aux décideurs politiques britanniques, Microsoft demande que les fournisseurs de systèmes d’IA soient tenus d’informer les utilisateurs que le contenu est généré par l’IA lorsque les utilisateurs interagissent avec les systèmes d’IA. De plus, Microsoft recommande de mettre en œuvre des outils avancés de marquage des sources pour signaler le contenu synthétique, et les gouvernements devraient également donner l'exemple en procédant à une vérification de l'authenticité de leur contenu multimédia. Microsoft a également souligné que de nouvelles lois sont nécessaires pour interdire la fraude via les outils d'IA afin de protéger l'intégrité des élections. Dans le même temps, le cadre juridique visant à protéger les enfants et les femmes contre l’exploitation en ligne devrait également être renforcé, notamment en criminalisant la production de deepfakes sexuels.
Microsoft a également souligné qu'il est important de stocker une technologie de métadonnées qui indique si le média a été généré par l'IA. Des projets similaires sont déjà en cours par des sociétés comme Adobe, qui visent à aider les gens à identifier l'origine des images. Cependant, Microsoft estime que des normes telles que Content Credentials nécessitent des mesures politiques et une sensibilisation du public pour être efficaces.
De plus, Microsoft travaille avec des organisations telles que StopNCII.org pour développer des outils permettant de détecter et de supprimer les images abusives. Les victimes peuvent faire appel via le portail central de reporting de Microsoft. Pour les jeunes, un soutien supplémentaire est fourni par le biais du service Take It Down proposé par le Centre national pour les enfants disparus et exploités. Millward a déclaré : « L'utilisation abusive de l'IA est susceptible d'être un problème à long terme, nous devons donc redoubler d'efforts et travailler de manière créative avec les entreprises technologiques, les partenaires caritatifs, la société civile et les gouvernements pour résoudre ce problème. Nous ne pouvons pas le faire seuls. "
Ce livre blanc de Microsoft fournit une référence précieuse pour lutter contre les applications malveillantes de l'IA générative, souligne l'importance de la coopération technique, juridique et sociale et fournit une orientation importante pour la future gouvernance de l'IA. Ce n’est qu’en joignant la main de plusieurs parties que nous pourrons faire face efficacement aux risques posés par l’IA et garantir la sécurité et la stabilité sociales.