En réponse au problème croissant de la désinformation, OpenAI a annoncé qu'elle ajouterait des filigranes numériques C2PA aux images générées par son modèle de génération d'images DALL-E 3. Cette décision vise à améliorer la vérifiabilité de la source du contenu de l'image, à maintenir l'authenticité des informations et à renforcer la confiance des utilisateurs dans le contenu généré par l'IA. Bien que les filigranes ne soient pas infaillibles, cela marque une avancée importante pour la technologie de traçabilité des contenus IA.
L’article se concentre sur :
OpenAI a annoncé l'ajout de filigranes aux images générées par DALL-E3 pour prendre en charge les normes de provenance et d'authenticité du contenu. Le filigrane de C2PA apparaîtra dans l'image générée, permettant aux utilisateurs de vérifier la source. Cette décision répond au problème de la désinformation, même si les filigranes ne sont pas entièrement efficaces. À l’avenir, les mesures de protection des sources d’informations numériques continueront d’être améliorées.Cette initiative d'OpenAI constitue une tentative importante pour résoudre le problème de la difficulté de distinguer l'authenticité du contenu généré par l'IA. À l'avenir, des technologies similaires de protection des droits d'auteur numériques seront développées davantage pour mieux garantir la sécurité et l'authenticité des informations sur le réseau. On s’attend à ce que des moyens plus techniques puissent résoudre efficacement les défis posés par le contenu généré par l’IA.