麻省理工學院(MIT)的研究團隊近日取得重大突破,開發出一種全新的機器人訓練模型,該模型借鑒了大型語言模型(LLM)的訓練方法,不再依賴於特定數據集,而是利用海量信息進行訓練。這項創新有望解決傳統機器人訓練方法在應對環境變化和新挑戰時遇到的局限性,為通用機器人大腦的研發奠定堅實基礎。這項研究的意義在於,它有潛力改變機器人技術的未來,讓機器人能夠更好地適應複雜多變的環境,並執行更廣泛的任務。
麻省理工學院(MIT)本週展示了一種全新的機器人訓練模型,該模型放棄了以往專注於特定數據集的訓練方法,轉而採用類似大型語言模型(LLMs)訓練時使用的海量信息。
研究人員指出,模仿學習——即代理通過模仿執行任務的個體來學習——在遇到小的挑戰時可能會失敗。這些挑戰可能包括不同的光照條件、不同的環境設置或新的障礙物。在這些情況下,機器人沒有足夠的數據來適應這些變化。
團隊借鑒了像GPT-4這樣的模型,採用了一種粗暴的數據驅動問題解決方式。
“在語言領域,數據就是句子,”該論文的主要作者Lirui Wang說。 “在機器人領域,鑑於數據的多樣性,如果你想以類似的方式預訓練,我們需要不同的架構。”
團隊引入了一種新的架構,稱為異構預訓練變換器(HPT),它整合了來自不同傳感器和不同環境的信息。然後使用變換器將數據整合到訓練模型中。變換器越大,輸出結果越好。
用戶隨後輸入機器人的設計、配置以及他們想要完成的任務。
“我們的夢想是擁有一個通用的機器人大腦,你可以下載並用於你的機器人,而無需任何訓練,”卡內基梅隆大學副教授David Held在談到這項研究時說。 “雖然我們才剛剛開始,但我們將繼續努力,希望規模的擴大能像大型語言模型一樣,為機器人策略帶來突破。”
這項研究部分由豐田研究所資助。去年在TechCrunch Disrupt上,TRI展示了一種一夜之間訓練機器人的方法。最近,它達成了一個分水嶺的合作夥伴關係,將其機器人學習研究與波士頓動力的硬件結合起來。
MIT的這項研究為機器人領域帶來了新的可能性,其未來發展值得期待。通過借鑒大型語言模型的成功經驗,該模型有望推動機器人技術取得更顯著的進步,最終實現通用機器人大腦的夢想,使機器人能夠更靈活、更智能地服務於人類。