Para peneliti di Universitas Washington mengusulkan metode penyetelan agen inovatif yang secara efisien mengoptimalkan model bahasa besar tanpa memerlukan akses ke bobot model. Metode ini memandu prediksi model dasar terhadap model yang disetel dengan membandingkan prediksi model kecil yang disetel dan model yang tidak disetel, sehingga meningkatkan performa model dan mempertahankan pengetahuan pelatihan dengan lebih baik. Teknologi terobosan ini telah diverifikasi dalam eksperimen penyempurnaan pada model LLAMA-2 13B dan 70B asli, yang menunjukkan keunggulan efisiensi yang signifikan.
Webmaster Home melaporkan bahwa University of Washington meluncurkan metode penyetelan proxy yang dapat mencapai penyetelan model besar secara efisien tanpa menyentuh bobot model dengan membandingkan hasil prediksi model kecil yang disesuaikan dan model yang tidak disesuaikan. Metode ini dapat mempertahankan pengetahuan pelatihan dengan lebih baik selama decoding dan meningkatkan efisiensi penyetelan. Kinerja penyetelan agen telah diverifikasi oleh para peneliti yang menyempurnakan model asli LlAMA-2 13B dan 70B. Metode ini membandingkan distribusi prediksi keluaran model dasar M dan model penyetelan M+, dan memandu prediksi model dasar agar bergerak ke arah model penyetelan. Metode penyetelan agen memberikan solusi untuk penyetelan model besar secara efisien sekaligus mempertahankan pengetahuan pelatihan dengan lebih baik selama decoding, yang diharapkan dapat membawa pencerahan baru di bidang AI.Metode baru ini memberikan cara yang lebih nyaman dan efisien untuk penyetelan model besar, mengurangi kebutuhan manipulasi langsung bobot model, dan secara efektif meningkatkan kinerja model dan kemampuan retensi pengetahuan, membawa kemungkinan baru bagi pengembangan bidang kecerdasan buatan. Di masa depan, metode ini diharapkan dapat diterapkan dalam penyesuaian model bahasa berskala lebih besar, sehingga semakin mendorong kemajuan teknologi AI.