MITリサーチチームは最近、大規模な言語モデル(LLM)のトレーニング方法を借用し、特定のデータセットに依存しなくなった新しいロボットトレーニングモデルを開発するために、大きなブレークスルーを行いましたが、トレーニングには大量の情報が使用されます。この革新は、環境の変化と新たな課題に対応する際に、従来のロボットトレーニング方法で遭遇する制限を解決し、一般的なロボット脳の研究開発のための強固な基盤を築くことが期待されています。この研究の重要性は、ロボット工学の将来を変える可能性があり、ロボットが複雑で変更可能な環境によりよく適応し、より幅広いタスクを実行できることです。
MITは今週、特定のデータセットに焦点を当てた以前のトレーニング方法を放棄し、代わりに大規模な言語モデル(LLMS)でトレーニングする際に使用される膨大な量の情報を使用するまったく新しいロボットトレーニングモデルを提示しました。
研究者は、模倣学習、つまり、エージェントがタスクを実行する個人を模倣することで学習することで、小さな課題に直面したときに失敗する可能性があることを指摘しています。これらの課題には、さまざまな照明条件、さまざまな環境設定、または新しい障害物が含まれる場合があります。これらの場合、ロボットにはこれらの変更に適応するのに十分なデータがありません。
チームはGPT-4などのモデルを借りて、大まかなデータ駆動型の問題解決方法を採用しました。
「言語の分野では、データは文です」と、論文の主著者であるリルイ・ワンは言いました。 「データの多様性を考えると、ロボットの分野では、同様の方法で訓練を事前にしたい場合は、異なるアーキテクチャが必要です。」
チームは、異なるセンサーや異なる環境からの情報を統合する不均一な事前訓練トランス(HPT)と呼ばれる新しいアーキテクチャを導入しました。データは、変圧器を使用してトレーニングモデルに統合されます。コンバーターが大きいほど、出力の結果が高くなります。
その後、ユーザーはロボットの設計、構成、および達成したいタスクに入ります。
「私たちの夢は、トレーニングなしでロボットにダウンロードして使用できる普遍的なロボットの脳を持つことです」と、この研究のカーネギー・メロン大学の准教授であるデイビッド・ヘルドは言いました。 「私たちは始めたばかりですが、スケールアップが大規模な言語モデルのようなロボット戦略のブレークスルーにつながることを期待して、私たちは一生懸命働き続けます。」
この研究は、トヨタ研究所によって部分的に資金提供されました。昨年、TechCrunchの混乱で、Triはロボットを一晩トレーニングする方法を実証しました。最近、ロボット学習研究とボストンダイナミクスのハードウェアを組み合わせた分岐点パートナーシップに達しました。
MITによるこの研究により、ロボット工学の分野に新しい可能性がもたらされており、その将来の開発は楽しみにしています。大規模な言語モデルの成功したエクスペリエンスを利用することにより、このモデルはロボットテクノロジーのより大きな進歩を促進し、最終的にロボットの脳の夢を実現し、ロボットがより柔軟かつ知的に人間にサービスを提供できるようにすることが期待されます。