Ces dernières années, la technologie des grands modèles de langage (LLM) s’est développée rapidement et l’IA générative a démontré des capacités créatives impressionnantes. Cependant, ses mécanismes intrinsèques et ses capacités cognitives doivent encore être explorés davantage. Cet article discutera d'une étude sur la capacité de compréhension des modèles d'IA génératifs. Grâce à une analyse comparative expérimentale, cette étude révèle les différences de performances de ces modèles dans différentes situations, fournissant une référence précieuse pour nous permettre de comprendre les limites de l'IA.
Les modèles d’IA générative tels que GPT-4 et Midjourney ont démontré des capacités génératives convaincantes. Cependant, des recherches ont montré que ces modèles ont du mal à comprendre le contenu qu’ils génèrent, ce qui diffère de l’intelligence humaine. Plus précisément, les chercheurs ont découvert grâce à des expériences que ces modèles fonctionnaient bien dans les expériences sélectives, mais commettaient souvent des erreurs dans les expériences interrogatives. Cette recherche appelle à la prudence lorsqu’on approfondit l’intelligence artificielle et la cognition, car les modèles peuvent créer du contenu mais ne peuvent pas le comprendre pleinement.Dans l’ensemble, cette étude nous rappelle que même si l’IA générative a fait des progrès significatifs dans la création de contenu, sa capacité à comprendre le contenu qu’elle génère est encore limitée. Les recherches futures doivent explorer davantage le mécanisme cognitif de l’IA afin de promouvoir le développement sain de la technologie de l’IA et d’éviter les risques potentiels. Nous devons examiner plus attentivement les capacités de l’IA et nous efforcer continuellement de combler le fossé entre l’IA et l’intelligence humaine.