Il y a une discussion animée au sein d'OpenAI sur l'application de la technologie de filigrane ChatGPT. La technologie de filigrane de texte AI développée par OpenAI est conçue pour lutter contre le plagiat académique, mais des controverses et des défis dans l'application technologique ont également suivi. La technologie, qui ajuste les mots et les phrases pour créer des modèles détectables, serait précise à 99,9 % et résistante à une simple paraphrase. Cependant, OpenAI a également admis qu'une réécriture complexe peut facilement contourner les filigranes et que les filigranes peuvent déranger certains utilisateurs, en particulier certains locuteurs non natifs, affectant ainsi l'expérience et l'utilisation de l'utilisateur.
Récemment, OpenAI a été impliqué dans des discussions internes sur la technologie de filigrane. Selon le Wall Street Journal, la société a déjà développé une technologie de filigrane pour marquer le texte généré par ChatGPT et a également préparé un outil de détection. Mais les avis internes sont partagés quant à l’opportunité de commercialiser cette technologie.
D’un certain point de vue, le lancement de la technologie du filigrane semble être une démarche responsable. Cette technologie crée un modèle détectable en ajustant les mots et les phrases prédits par le modèle. Bien que cela semble un peu compliqué, son objectif est clair : aider les enseignants à empêcher les élèves de plagier les devoirs générés à l’aide de l’IA. Le rapport indique que ce filigrane n’affecte pas la qualité du texte du chatbot. De plus, OpenAI a découvert dans une enquête qu’à l’échelle mondiale, le nombre de personnes soutenant les outils de détection d’IA était quatre fois plus important que celui des opposants.
Cependant, la mise en œuvre de la technologie du tatouage n’est pas si simple. Une mise à jour du blog d'OpenAI a confirmé que la société a développé une technologie de filigrane et a déclaré que la méthode est très précise, affirmant qu'elle est « efficace à 99,9 % ». De plus, ce type de filigrane présente une certaine résistance aux « falsifications », telles que la simple réécriture. Cependant, OpenAI a également souligné que ce filigrane peut être facilement contourné en le réécrivant avec d'autres modèles, ce qui les inquiète.
De plus, OpenAI considère que les filigranes peuvent amener certains utilisateurs à se sentir stigmatisés, en particulier pour les locuteurs non natifs. Par conséquent, bien que certains employés estiment que les filigranes sont efficaces, l'enquête montre que près de 30 % des utilisateurs de ChatGPT ont déclaré qu'ils pourraient en utiliser moins si les filigranes étaient implémentés. Ainsi, certains salariés ont proposé d’explorer des méthodes « relativement moins controversées », même si leur efficacité n’a pas encore été prouvée.
Dans une mise à jour du blog aujourd'hui, OpenAI a mentionné qu'ils étudiaient des moyens d'intégrer des métadonnées dès les « premiers stades » et a déclaré qu'il était encore trop tôt pour dire dans quelle mesure cela serait efficace. Cependant, ils soulignent que ces métadonnées étant signées cryptographiquement, les faux positifs peuvent être évités.
Points forts:
✅ Il existe des différences au sein d'OpenAI concernant le lancement de la technologie de filigrane, et sa sortie est toujours en discussion.
Des enquêtes montrent que la plupart des gens dans le monde prennent en charge les outils de détection d'IA, mais les utilisateurs craignent que les filigranes n'affectent leur utilisation.
? OpenAI envisage d'intégrer des métadonnées dans le but de trouver un équilibre entre la technologie et l'expérience utilisateur.
L’attitude prudente d’OpenAI à l’égard de la technologie de filigrane reflète ses efforts pour trouver un équilibre entre le développement technologique et l’expérience utilisateur. À l'avenir, la manière de résoudre efficacement les problèmes d'identification du contenu généré par l'IA et de protection de la vie privée des utilisateurs deviendra une question importante dans le domaine de l'intelligence artificielle.