Dans ses dernières recherches, l'informaticien du MIT, Luo Hongyin, a souligné que les modèles actuels en grande langue tels que GPT-4 ont des limites importantes dans le raisonnement logique précis. Bien que ces modèles fonctionnent bien dans la gestion des tâches en langage naturel, elles ont souvent du mal à atteindre la précision attendue en ce qui concerne le raisonnement structuré et contrôlable.
Luo Hongyin et son équipe de recherche croient que la racine de ce problème réside dans le fait que les modèles de grands langues reposent trop sur des données linguistiques massives pour la formation, tandis que le langage naturel lui-même n'a pas de mécanisme d'expression logique précis. L'ambiguïté, l'ambiguïté et la dépendance au contexte dans les textes linguistiques rendent difficile pour le modèle de saisir des relations logiques strictes, affectant ainsi la précision du raisonnement.
Pour surmonter ce défi, l'équipe de recherche a proposé une approche innovante appelée NLEP (Language naturel à un programme exécutable). L'idée principale de cette approche est de transformer les descriptions du langage naturel en code de programme exécutable, permettant ainsi un raisonnement structuré plus précis. De cette façon, NLEP peut convertir la logique du langage complexe en instructions que les ordinateurs peuvent exécuter directement, garantissant la précision et la contrôlabilité du processus d'inférence.
Dans les tests expérimentaux, la méthode NLEP a montré des avantages significatifs. L'équipe de recherche a effectué un test comparatif dans plusieurs tâches d'inférence, et les résultats ont montré que NLEP peut résoudre les problèmes d'inférence dans les exemples 100% précis, et ses performances dépassent de loin d'autres méthodes telles que l'interprète de code GPT. Cette réalisation vérifie non seulement l'efficacité du NLEP, mais fournit également une nouvelle direction pour le développement futur de l'intelligence artificielle dans le domaine du raisonnement logique.
Luo Hongyin prédit en outre que le développement futur de l'intelligence artificielle pourrait présenter un modèle d'IA symbolique complémentaire et d'IA empiriste. L'IA symboliste excelle dans un raisonnement logique précis et des tâches structurées, tandis que l'IA empiriste présente des avantages dans le traitement des données à grande échelle et la compréhension du langage naturel. La combinaison des deux aidera à construire un système d'intelligence artificielle plus complète et plus intelligente et à promouvoir l'application de la technologie d'IA dans une gamme plus large de domaines.
Dans l'ensemble, la recherche de Luo Hongyin fournit de nouvelles solutions aux limites des modèles de langue importants et attire un plan prometteur pour le développement futur de l'intelligence artificielle. Avec l'amélioration continue de méthodes telles que le NLEP, nous avons des raisons de croire que les performances de l'IA dans le raisonnement logique et les tâches structurées inaugureront de nouvelles percées.