最近、人工知能の分野で大きな進歩が見られ、UCLA およびその他の機関の研究者は、汎用人工知能 (AGI) への確かな一歩を示す大規模な身体化知能モデル MultiPLY の開発に成功しました。 MultiPLY は、触覚、視覚、聴覚を含むマルチモーダル センシング機能を備えているだけでなく、より重要なことに、3D 環境とより包括的に対話し、実際のアプリケーションで強力な機能を実証できることです。この研究結果とそれをサポートする大規模な多感覚データセット Multisensory-Universe は、人工知能の将来の開発に貴重なリソースと新しい方向性を提供します。
最近、UCLA やその他の機関の研究者らが、身体化された知能の大きなモデルである MultiPLY を立ち上げました。このモデルは、触覚、視覚、聴覚などを含むマルチモーダルな認識機能を備えているだけでなく、AI が 3D 環境とより包括的に対話できるようにします。 MultiPLY は、エージェントを通じて 3D 環境と対話することで、オブジェクトの検索、ツールの使用、多感覚による注釈、タスクの分解などの実験で優れたパフォーマンスを発揮します。さらに、研究者らは、500,000 個のデータを含む大規模な多感覚データセット Multisensory-Universe を作成しました。この研究は、多感覚機能を備えた大規模モデルを構築するための新しいアイデアを提供し、AGI を実現するための新しい方向性を提供します。MultiPLY の出現は、人工知能の開発におけるマルチモーダルな知覚と身体化された知能の重要性を証明するだけでなく、将来、よりスマートで強力な AI システムを構築するための新しい技術的パスとデータ サポートも提供します。技術の継続的な進歩に伴い、MultiPLYのような大型の具体化されたインテリジェントモデルは、より多くの分野で役割を果たし、人類社会にさらなる利便性と進歩をもたらすと考えられています。今後、同様の研究結果がさらに出てくることを期待しています。