この記事では、Sakana AI が提案する新しい適応フレームワークである Transformer² について紹介します。これは、従来の大規模言語モデル (LLM) 微調整手法の計算量が多く静的な欠点を解決します。 Transformer² は、推論プロセス中にリアルタイムで LLM の重みを調整する 2 段階のメカニズムを使用しており、さまざまな未知のタスクに柔軟に適応し、タコのように環境に適応することができます。その核心は特異値微調整 (SVF) と適応戦略にあり、強化学習を通じて「エキスパート」ベクトルをトレーニングし、これらのベクトルを動的に組み合わせて、さまざまなタスクに対する正確な応答を実現します。このフレームワークには、高いパラメーター効率、モジュール性、モデル間の互換性などの多くの利点があり、実験では従来の微調整方法よりも優れたパフォーマンスが実証されています。
Transformer² の中核は、その独自の 2 段階メカニズムと特異値微調整 (SVF) テクノロジー、および複数の適応戦略の賢明な組み合わせです。強化学習を通じてトレーニングされた「エキスパート」ベクトルにより、モデルに強力な適応性が与えられ、さまざまな未知のタスクで適切に実行できるようになります。まだまだ改善の余地はありますが、Transformer² は間違いなく、真に動的な自己組織化 AI システムの構築に向けて重要な一歩を踏み出しました。今後の研究の方向性には、モデルの結合や CEM 手法の拡張が含まれます。論文のアドレスは記事の最後に添付されており、より多くの研究者がこれを深く調査することを期待しています。