Forscher der University of Washington schlagen eine innovative Methode zur Agentenoptimierung vor, die große Sprachmodelle effizient optimiert, ohne dass Zugriff auf Modellgewichte erforderlich ist. Diese Methode lenkt die Vorhersagen des Basismodells auf das abgestimmte Modell, indem sie die Vorhersagen eines kleinen abgestimmten Modells und eines nicht abgestimmten Modells vergleicht, wodurch die Modellleistung verbessert und Trainingswissen besser gespeichert wird. Diese bahnbrechende Technologie wurde in Feinabstimmungsexperimenten an den ursprünglichen 13B- und 70B-Modellen von LLAMA-2 verifiziert und zeigte ihre erheblichen Effizienzvorteile.
Webmaster Home berichtete, dass die University of Washington eine Proxy-Tuning-Methode eingeführt hat, mit der eine effiziente Optimierung großer Modelle erreicht werden kann, ohne die Modellgewichte zu beeinträchtigen, indem die Vorhersageergebnisse kleiner angepasster Modelle und nicht angepasster Modelle verglichen werden. Diese Methode kann das Trainingswissen während der Dekodierung besser beibehalten und die Optimierungseffizienz verbessern. Die Leistung der Agentenoptimierung wurde von Forschern überprüft, die die Originalmodelle 13B und 70B von LlAMA-2 verfeinerten. Diese Methode vergleicht die Ausgabevorhersageverteilungen des Basismodells M und des Tuning-Modells M+ und leitet die Vorhersagen des Basismodells in Richtung des Tuning-Modells. Es handelt sich um eine innovative Tuning-Methode. Die Agent-Tuning-Methode bietet eine Lösung für die effiziente Optimierung großer Modelle bei gleichzeitiger besserer Beibehaltung des Trainingswissens während der Dekodierung, was voraussichtlich neue Erkenntnisse in den KI-Bereich bringen wird.Diese neue Methode bietet eine bequemere und effizientere Möglichkeit für die Abstimmung großer Modelle, reduziert die Notwendigkeit einer direkten Manipulation von Modellgewichten und verbessert effektiv die Modellleistung und die Fähigkeit zur Wissensspeicherung, was der Entwicklung des Bereichs der künstlichen Intelligenz neue Möglichkeiten eröffnet. Es wird erwartet, dass diese Methode in Zukunft bei der Optimierung von Sprachmodellen in größerem Maßstab angewendet wird, um den Fortschritt der KI-Technologie weiter voranzutreiben.