Microsoft a récemment publié une nouvelle méthode de compression de grands modèles de langage appelée SliceGPT. Cette technologie peut réduire considérablement la taille des paramètres des grands modèles de langage tout en conservant ses performances. En remplaçant intelligemment la matrice de poids, SliceGPT atteint un taux de compression des paramètres allant jusqu'à 25 % sans affecter l'efficacité des calculs. Cette décision est d'une grande importance pour le déploiement de grands modèles de langage sur des appareils aux ressources limitées et marque une avancée majeure dans l'amélioration de l'efficacité de la technologie de l'intelligence artificielle. Cela élargira considérablement la portée d’application des grands modèles de langage et offrira une commodité à davantage de développeurs et d’utilisateurs.
Microsoft lance SliceGPT, une nouvelle méthode de compression de grands modèles de langage. En remplaçant la matrice de pondération et en maintenant l'invariance de calcul, SLICE GPT peut réduire les grands paramètres du modèle de langage jusqu'à 25 % tout en maintenant les performances. Cette méthode convient à divers modèles de réseaux de convertisseurs et présente de larges perspectives d’application dans les dispositifs aux ressources limitées.
L'émergence de SliceGPT offre un moyen efficace de résoudre le problème du déploiement de modèles de langage à grande échelle. À l’avenir, nous pouvons nous attendre à l’émergence de technologies plus similaires pour promouvoir davantage la vulgarisation et le développement de la technologie de l’intelligence artificielle, permettant ainsi à la technologie de l’IA de bénéficier à un plus large éventail de domaines et de personnes. Cela apportera une nouvelle vitalité au domaine de l’intelligence artificielle, et il vaut la peine d’attendre avec impatience les applications et développements ultérieurs.