Récemment, l’éditeur de Downcodes a appris que pour faire face au défi croissant du contenu généré par l’IA et améliorer la capacité des utilisateurs à identifier l’authenticité du contenu, Google a annoncé qu’il ajouterait une nouvelle fonctionnalité aux résultats de recherche. Cette fonctionnalité est conçue pour aider les utilisateurs à mieux comprendre où les images sont créées et modifiées, réduisant ainsi l'impact négatif de la désinformation et des images deepfake. Le lancement de cette fonctionnalité constitue une étape importante après que Google a rejoint la Content Provenance and Authenticity Alliance (C2PA), qui compte également parmi ses membres des géants de la technologie tels qu'Amazon, Adobe et Microsoft.
Récemment, Google a annoncé le déploiement d'une nouvelle fonctionnalité dans ses résultats de recherche, conçue pour aider les utilisateurs à mieux comprendre comment le contenu est créé et modifié. Cette décision intervient après que Google a rejoint la Content Provenance and Authenticity Alliance (C2PA), qui comprend de grandes marques comme Amazon, Adobe et Microsoft, et se consacre à lutter contre la désinformation en ligne.
Google a déclaré que la nouvelle fonctionnalité, qui sera déployée progressivement au cours des prochains mois, exploite la norme actuelle d'identification du contenu (c'est-à-dire les métadonnées de l'image) pour baliser les images générées ou modifiées par l'IA dans le but d'accroître la transparence pour les utilisateurs.
Les utilisateurs pourront voir si l'image a été générée par l'IA en cliquant sur les trois points au-dessus de l'image et en sélectionnant "À propos de cette image". Cette fonctionnalité sera également disponible pour les utilisateurs via Google Lens et la fonctionnalité « Circle to Search » d’Android. Cependant, il convient de noter que cette balise n’est pas très visible, ce qui oblige les utilisateurs à prendre des mesures supplémentaires pour confirmer l’origine d’une image.
Ces dernières années, avec le développement de la technologie de l'IA, les problèmes liés à la technologie de falsification vidéo et aux images générées par l'IA sont devenus de plus en plus graves. Par exemple, Trump a publié une image fictive de Taylor Swift soutenant sa campagne, provoquant de nombreux malentendus et controverses. En outre, Taylor Swift a également rencontré des images malveillantes générées par l’IA, ce qui a soulevé des doutes sur l’authenticité des images de l’IA.
Bien que le déploiement de cette fonctionnalité par Google soit un bon début, des inquiétudes subsistent quant à l'efficacité de cette étiquette cachée. De nombreux utilisateurs ne savent peut-être pas que la fonctionnalité À propos de cette image existe et ne pourront peut-être pas profiter pleinement de ce nouvel outil. De plus, seuls quelques modèles d'appareils photo et certains logiciels mettent actuellement en œuvre la fonction de bon de contenu, ce qui limite également l'efficacité du système.
Selon une étude de l'Université de Waterloo, seuls 61 % des gens peuvent faire la différence entre une image générée par l'IA et une image réelle, ce qui signifie que si le système de marquage de Google ne peut pas être utilisé efficacement, il sera difficile d'assurer une véritable transparence. aux utilisateurs.
Souligner:
Google lancera une nouvelle fonctionnalité pour étiqueter les images générées et modifiées par l'IA afin d'augmenter la transparence des utilisateurs.
Les utilisateurs peuvent vérifier si l'image a été générée par l'IA via la fonction « À propos de cette image », mais l'étiquette n'est pas visible.
? La recherche montre que seulement 61 % des personnes peuvent distinguer les images artificielles des images réelles, et Google doit améliorer la visibilité des étiquettes.
Dans l’ensemble, même si la décision de Google constitue une étape importante dans la lutte contre la désinformation, son efficacité reste à démontrer. Augmenter la visibilité des balises et populariser la technologie des bons de contenu seront des axes clés pour les améliorations futures. L'éditeur de Downcodes continuera de prêter attention au développement ultérieur de cette fonction et d'apporter des informations plus pertinentes aux lecteurs.