La fiabilité et la sécurité des grands modèles de langage (LLM) font l’objet d’une attention croissante. Des recherches récentes ont révélé des défauts potentiels du LLM, tels que la duplication d'informations nuisibles et des contradictions logiques. Ces problèmes posent de sérieux défis à l'application et au développement du LLM et nécessitent des recherches et des améliorations supplémentaires. Cet article se concentrera sur une étude sur ChatGPT menée par l'Université de Waterloo au Canada, qui a révélé que ChatGPT a répété des informations erronées et des contradictions nuisibles dans les réponses aux questions, et fournit une analyse approfondie de ses causes et de ses effets.
Des recherches récentes ont révélé que les grands modèles de langage tels que ChatGPT d’OpenAI souffrent souvent de désinformations nuisibles répétées. Des chercheurs de l'Université de Waterloo au Canada ont mené un test systématique des capacités de compréhension de ChatGPT et ont découvert que GPT-3 se contredisait dans ses réponses et répétait des informations erronées nuisibles. Ils ont utilisé différents modèles d’enquête et ont demandé plus de 1 200 déclarations différentes pour découvrir le problème.Les résultats de cette étude mettent en évidence les défis rencontrés par les grands modèles de langage dans les applications pratiques et fournissent également une référence importante pour améliorer la fiabilité et la sécurité du LLM à l'avenir. Des recherches plus approfondies devraient se concentrer sur la manière de réduire les informations nuisibles et les erreurs logiques dans les résultats du LLM afin de garantir leur application sûre et fiable dans divers domaines. On espère que les recherches futures pourront trouver des solutions plus efficaces et améliorer la qualité et la sécurité du LLM.