MITコンピューターの科学者であるLuo Hongyinは、最新の研究で、GPT-4などの現在の大規模な言語モデルが正確な論理推論に大きな制限があると指摘しました。これらのモデルは、自然言語のタスクの処理においてうまく機能しますが、構造化された制御可能な推論に関しては、予想される精度を達成するのに苦労することがよくあります。
Luo Hongyinと彼の研究チームは、この問題の根本は、大規模な言語モデルがトレーニングのために大規模な言語データに依存しすぎているという事実にあると考えていますが、自然言語自体には正確な論理的表現メカニズムがありません。言語テキストのあいまいさ、曖昧さ、コンテキスト依存性により、モデルが厳格な論理的関係をキャプチャすることが困難になり、推論の正確性に影響します。
この課題を克服するために、研究チームはNLEP(自然言語から実行可能プログラム)と呼ばれる革新的なアプローチを提案しました。このアプローチの中心的なアイデアは、自然言語の説明を実行可能なプログラムコードに変換することであり、それにより、より正確な構造化された推論を可能にします。このようにして、NLEPは、複雑な言語ロジックをコンピューターが直接実行できる命令に変換し、推論プロセスの精度と制御可能性を確保することができます。
実験テストでは、NLEPメソッドは大きな利点を示しました。研究チームは複数の推論タスクで比較テストを実施し、結果は、NLEPが例の100%正確な例で推論の問題を解決できることを示し、そのパフォーマンスはGPTコードインタープリターなどの他の方法をはるかに超えています。この成果は、NLEPの有効性を検証するだけでなく、論理的推論の分野における人工知能の将来の発展のための新しい方向性を提供します。
Luo Hongyinはさらに、人工知能の将来の発達が補完的な象徴的なAIおよび経験主義AIのパターンを提示する可能性があると予測しています。シンボリストAIは正確な論理的推論と構造化されたタスクに優れていますが、経験主義者AIは大規模なデータ処理と自然言語の理解において利点があります。この2つの組み合わせは、より包括的でインテリジェントな人工知能システムを構築し、より幅広い分野でAIテクノロジーの適用を促進するのに役立ちます。
全体として、Luo Hongyinの研究は、大規模な言語モデルの制限に対する新しい解決策を提供し、人工知能の将来の開発のための有望な青写真を引き出します。 NLEPなどの方法の継続的な改善により、論理的推論と構造化されたタスクにおけるAIのパフォーマンスが新しいブレークスルーを導くと信じる理由があります。