Das MIT -Forschungsteam hat in letzter Zeit einen großen Durchbruch erzielt, um ein brandneues Roboter -Trainingsmodell zu entwickeln, das die Trainingsmethoden von großsprachigen Modellen (LLMs) auszeichnet, und stützt sich nicht mehr auf bestimmte Datensätze, sondern verwendet massive Informationen für das Training. Es wird erwartet, dass diese Innovation die Einschränkungen löst, die durch traditionelle Roboter -Trainingsmethoden auftreten, um auf Umweltveränderungen und neue Herausforderungen zu reagieren und eine solide Grundlage für die Forschung und Entwicklung allgemeiner Robotergehäuse zu schaffen. Die Bedeutung dieser Studie ist, dass sie das Potenzial hat, die Zukunft der Robotik zu verändern und Roboter besser an komplexe und veränderliche Umgebungen anzupassen und eine breitere Auswahl an Aufgaben auszuführen.
Das MIT präsentierte diese Woche ein völlig neues Roboter -Trainingsmodell, das frühere Trainingsmethoden aufgab, die sich auf bestimmte Datensätze konzentrierten und stattdessen riesige Mengen an Informationen verwendeten, die beim Training in Großsprachmodellen (LLMs) verwendet wurden.
Forscher weisen darauf hin, dass Nachahmungslernen - dh die Agenten lernen, indem sie Personen imitieren, die Aufgaben imitieren, wenn sie mit kleinen Herausforderungen konfrontiert sind. Diese Herausforderungen können unterschiedliche Beleuchtungsbedingungen, unterschiedliche Umgebungseinstellungen oder neue Hindernisse umfassen. In diesen Fällen hat der Roboter nicht genügend Daten, um sich an diese Änderungen anzupassen.
Das Team entlehnte Modelle wie GPT-4 und übernahm eine grobe datengesteuerte Problemlösungsmethode.
"Im Sprachgebiet sind Daten Sätze", sagte Lirui Wang, der Hauptautor der Zeitung. "Im Bereich der Robotik benötigen wir angesichts der Datenvielfalt, wenn Sie auf ähnliche Weise vor dem Training vorhanden sind, unterschiedliche Architekturen."
Das Team führte eine neue Architektur namens Heterogener Pre-Trained Transformator (HPT) ein, die Informationen aus verschiedenen Sensoren und verschiedenen Umgebungen integriert. Die Daten werden dann unter Verwendung eines Transformators in das Trainingsmodell integriert. Je größer der Konverter ist, desto besser ist das Ausgangsergebnis.
Der Benutzer fährt dann in das Design, die Konfiguration und die Aufgaben des Roboters ein, die er ausführen möchte.
"Unser Traum ist es, ein universelles Roboter -Gehirn zu haben, das Sie ohne Ausbildung für Ihren Roboter herunterladen und verwenden können", sagte David, Associate Professor an der Carnegie Mellon University, der Studie. "Obwohl wir gerade erst anfangen, werden wir weiterhin hart arbeiten und hoffen, dass das Scale-up zu Durchbrüchen in Roboterstrategien wie großer Sprachmodellen führen kann."
Diese Studie wurde zum Teil vom Toyota Institute finanziert. Letztes Jahr bei TechCrunch Disrupt hat Tri über Nacht einen Roboter ausbilden. Kürzlich erreichte es eine Wende -Partnerschaft, die seine Roboter -Lernforschung mit der Hardware von Boston Dynamics kombiniert.
Diese Forschung von MIT hat neue Möglichkeiten auf den Bereich der Robotik gebracht, und seine zukünftige Entwicklung ist es wert, sich darauf zu freuen. Durch die Herstellung der erfolgreichen Erfahrung großer Sprachmodelle wird erwartet, dass das Modell größere Fortschritte in der Robotertechnologie fördert und letztendlich den Traum eines allgemeinen Roboterhirns verwirklicht, damit Roboter den Menschen flexibler und intelligenter dienen können.