ワシントン大学の研究者は、モデルの重みへのアクセスを必要とせずに大規模な言語モデルを効率的に最適化する革新的なエージェント調整方法を提案しています。この方法では、小規模な調整済みモデルと未調整のモデルの予測を比較することで、基本モデルの予測を調整済みモデルに導き、それによってモデルのパフォーマンスを向上させ、トレーニング知識の保持を向上させます。この画期的なテクノロジーは、LLAMA-2 のオリジナル 13B および 70B モデルの微調整実験で検証され、その効率の重要な利点が実証されました。
Webmaster Home は、ワシントン大学が、小規模な調整済みモデルと調整されていないモデルの予測結果を比較することで、モデルの重みに触れることなく大規模なモデルの効率的な調整を実現できる代理調整手法を発表したと報告しました。この方法では、デコード中にトレーニングの知識をより適切に保持し、チューニングの効率を向上させることができます。エージェントの調整パフォーマンスは、研究者が LlAMA-2 の 13B および 70B のオリジナル モデルを微調整することによって検証されました。この手法は、基本モデル M と調整モデル M+ の出力予測分布を比較し、基本モデルの予測を調整モデルの方向に誘導する革新的な調整手法です。エージェント チューニング手法は、デコード中のトレーニング知識をより適切に保持しながら、大規模モデルを効率的にチューニングするためのソリューションを提供し、AI 分野に新たな啓蒙をもたらすことが期待されています。この新しい方法は、大規模なモデルを調整するためのより便利で効率的な方法を提供し、モデルの重みを直接操作する必要性を減らし、モデルのパフォーマンスと知識保持能力を効果的に向上させ、人工知能セックスの分野の発展に新たな可能性をもたらします。今後、この手法はより大規模な言語モデルのチューニングに適用され、AI技術の進歩がさらに進むことが期待されます。