近期,人工智慧領域取得重大進展,UCLA等機構的研究人員成功研發出具身智慧大模型MultiPLY,這標誌著人工智慧向通用人工智慧(AGI)邁出了堅實的一步。 MultiPLY不僅擁有多模態感知能力,包括觸覺、視覺和聽覺,更重要的是,它能夠與3D環境進行更全面的交互,並在實際應用中展現出強大的能力。這項研究成果及其配套的大規模多感官資料集Multisensory-Universe,為未來人工智慧的發展提供了寶貴的資源和新的方向。
近日,UCLA等機構的研究人員推出了具身智能大模型MultiPLY。此模型不僅具備多模態感知能力,包括觸覺、視覺、聽覺等,使得AI能夠更全面地與3D環境互動。透過智能體與3D環境交互,MultiPLY在物件檢索、工具使用、多感官標註和任務分解等實驗中表現出色。此外,研究人員創建了一個大規模多感官資料集Multisensory-Universe,其中包含50萬個資料。這項研究為建構具備多感官能力的大模型提供了新思路,為實現AGI提供了新的方向。MultiPLY的出現,不僅證明了多模態感知和具身智慧在人工智慧發展中的重要性,也為未來建構更智慧、更強大的AI系統提供了新的技術路徑和數據支撐。相信隨著科技的不斷進步,類似MultiPLY這樣的具身智慧大模型將在更多領域發揮作用,為人類社會帶來更大的便利與進步。期待未來更多類似的研究成果湧現。