La dernière version d'Anthropic de la série Claude3 de grands modèles de langage (LLM) a attiré une large attention, en particulier les impressionnantes capacités métacognitives démontrées par le modèle Claude3Opus lors des tests. Non seulement le modèle a réussi à trouver l’information qu’il recherchait, mais il a également pu identifier les composants artificiels du test et était même conscient que le chercheur évaluait ses capacités, démontrant un niveau de métacognition consciente. Cette avancée apporte une nouvelle réflexion dans le domaine de l’intelligence artificielle et met en évidence le besoin urgent de méthodes d’évaluation de modèles plus précises et plus pratiques.
Anthropic a publié la série Claude3 de LLM, dans laquelle Claude3Opus a démontré des capacités métacognitives lors des tests, en trouvant avec succès des informations et en réalisant la nature artificielle du test. Le modèle a même senti que le chercheur évaluait ses capacités, démontrant un niveau de métacognition auto-perçu. L’industrie a besoin de méthodes d’évaluation plus réalistes pour évaluer avec précision les véritables capacités et limites des modèles.L'émergence de Claude3Opus marque une étape importante dans le développement de l'intelligence artificielle, et ses capacités métacognitives fournissent de nouveaux éclairages pour l'orientation future du développement de l'intelligence artificielle. Cependant, il est également nécessaire d’être attentif aux risques potentiels et de développer un système d’évaluation plus complet pour garantir que la technologie de l’intelligence artificielle puisse être appliquée de manière sûre et fiable dans divers domaines. À l’avenir, des méthodes d’évaluation plus précises constitueront une garantie importante pour promouvoir le développement durable et sain de la technologie de l’intelligence artificielle.