Récemment, deux articles sur l'intelligence artificielle générative (IA) ont suscité de vives discussions, soulignant que les textes générés par l'IA sont souvent des « absurdités ». Ces deux documents fournissent une analyse approfondie des dommages potentiels causés à la société par la désinformation générée par l'IA du point de vue des caractéristiques essentielles de l'IA et des lacunes des lois et réglementations actuelles, et appellent à des mesures plus efficaces pour éviter les risques. Les auteurs de l'article estiment qu'il est trompeur de simplement attribuer les erreurs de l'IA à des « illusions » et que des termes plus précis devraient être utilisés pour décrire ce phénomène, améliorant ainsi la sensibilisation et la compréhension du public de la technologie de l'IA et promouvant la mise en œuvre des lois et des lois pertinentes. Règlements complets.
Récemment, deux équipes de recherche ont publié des articles qui ont attiré une large attention, affirmant sans détour que le contenu des produits d'intelligence artificielle (IA) générative peut fondamentalement être considéré comme un « non-sens ». Le document, intitulé "ChatGPT is Nonsense", souligne que le mépris de l'IA générative pour l'exactitude lors de la production d'informations crée de nombreux défis pour les fonctionnaires, en particulier pour les fonctionnaires qui ont l'obligation légale de dire la vérité.
Les auteurs Michael Townsen Hicks, James Humphries et Joe Slater soulignent que la désinformation générée par l'IA générative ne peut pas être simplement décrite comme des « mensonges » ou des « illusions ». Contrairement aux mensonges intentionnellement trompeurs, les conneries font référence à une forme d’expression qui ne se soucie pas de la vérité dans le but de donner une impression spécifique. Ils soutiennent que qualifier les erreurs de l’IA d’« hallucinations » ne fait qu’induire le public en erreur en lui faisant croire que ces machines tentent toujours d’une manière ou d’une autre de communiquer ce qu’elles « croient ».
"Qualifier ces erreurs de "conneries" plutôt que d'"illusions" serait non seulement plus précis, mais contribuerait également à améliorer la compréhension du public de la technologie", ont-ils déclaré. Ce passage souligne l'importance d'utiliser des termes plus précis pour décrire les erreurs de l'IA. surtout dans le contexte actuel où la communication scientifique et technologique a un besoin urgent d'amélioration.
Parallèlement, un autre document de recherche sur les grands modèles linguistiques (LLM) se concentre sur l’environnement juridique et éthique de l’UE sur cette question. La conclusion du document est que les lois et réglementations actuelles sur l'IA ne sont pas encore suffisamment parfaites pour prévenir efficacement les dommages causés par les « absurdités » générées par ces IA. Les auteurs Sandra Wachter, Brent Mittelstadt et Chris Russell suggèrent l'introduction de réglementations similaires à celles de l'édition, en mettant l'accent sur le fait d'éviter les « discours informels » susceptibles de causer un préjudice social.
Ils notent que cette obligation souligne qu’aucune entité, publique ou privée, ne devrait être l’unique arbitre de la vérité. Ils suggèrent également que le « discours aléatoire » de l’IA générative pourrait transformer la vérité en une question de fréquence et d’opinion majoritaire plutôt qu’en faits réels.
Dans l'ensemble, ces deux documents révèlent conjointement les risques potentiels de l'IA générative et appellent tous les secteurs de la société à prêter attention et à prendre des mesures pour améliorer les lois et réglementations pertinentes, normaliser le développement de la technologie de l'IA et garantir que la technologie de l'IA puisse mieux servir. société humaine.