L'équipe de recherche du MIT a récemment fait une percée majeure pour développer un tout nouveau modèle de formation des robots qui emprunte les méthodes de formation des modèles de grands langues (LLM) et ne s'appuie plus sur des ensembles de données spécifiques, mais l'utilisation d'informations massives est utilisée pour la formation. Cette innovation devrait résoudre les limites rencontrées par les méthodes de formation des robots traditionnelles pour répondre aux changements environnementaux et à de nouveaux défis, jetant une base solide pour la recherche et le développement des cerveaux robotiques généraux. L'importance de cette étude est qu'elle a le potentiel de changer l'avenir de la robotique, permettant aux robots de mieux s'adapter à des environnements complexes et modifiables et d'effectuer une plus large gamme de tâches.
Le MIT a présenté cette semaine un tout nouveau modèle de formation de robot qui a abandonné les méthodes de formation précédentes qui se concentraient sur des ensembles de données spécifiques et qui utilisaient plutôt des quantités massives d'informations utilisées lors de la formation dans des modèles de grande langue (LLM).
Les chercheurs soulignent que l'apprentissage de l'imitation - c'est-à-dire que les agents apprennent en imitant les individus effectuant des tâches - peuvent échouer lorsqu'ils sont confrontés à de petits défis. Ces défis peuvent inclure différentes conditions d'éclairage, différents contextes environnementaux ou de nouveaux obstacles. Dans ces cas, le robot n'a pas suffisamment de données pour s'adapter à ces modifications.
L'équipe a emprunté des modèles comme GPT-4 et a adopté une méthode de résolution de problèmes approximative basée sur les données.
"Dans le domaine de la langue, les données sont des phrases", a déclaré Lirui Wang, auteur principal du journal. «Dans le domaine de la robotique, étant donné la diversité des données, si vous souhaitez pré-entraîner de manière similaire, nous avons besoin d'architectures différentes.»
L'équipe a introduit une nouvelle architecture appelée Hétérogène Transformer pré-formé (HPT), qui intègre les informations de différents capteurs et différents environnements. Les données sont ensuite intégrées dans le modèle de formation à l'aide d'un transformateur. Plus le convertisseur est grand, meilleur est le résultat de sortie.
L'utilisateur entre ensuite dans la conception, la configuration du robot et les tâches qu'ils souhaitent accomplir.
"Notre rêve est d'avoir un cerveau robotique universel que vous pouvez télécharger et utiliser pour votre robot sans aucune formation", a déclaré David, professeur agrégé à l'Université Carnegie Mellon, de l'étude. "Bien que nous débutions, nous continuerons à travailler dur, en espérant que la mise à l'échelle peut entraîner des percées dans les stratégies robotiques comme les modèles de grands langues."
Cette étude a été financée en partie par le Toyota Institute. L'année dernière chez TechCrunch Disrupt, Tri a démontré un moyen de former un robot du jour au lendemain. Récemment, il a atteint un partenariat de bassin versant qui combine sa recherche sur l'apprentissage robotique avec le matériel de Boston Dynamics.
Cette recherche du MIT a apporté de nouvelles possibilités dans le domaine de la robotique, et son développement futur vaut la peine d'être attendu. En s'appuyant sur l'expérience réussie des grands modèles de langue, le modèle devrait favoriser des progrès plus importants dans la technologie robotique, réalisant finalement le rêve d'un cerveau robotique général, afin que les robots puissent servir les humains de manière plus flexible et intelligente.