Affinez n'importe quel modèle avec des performances, une vitesse et une fiabilité inégalées en utilisant Qlora, BNB, Lora, Peft en moins de 30 secondes, appuyez simplement sur GO.
Réservez une séance individuelle avec Kye, le créateur, pour discuter de tout problème, fournir des commentaires ou découvrir comment nous pouvons améliorer Zeta pour vous.
$ pip3 installer ft-suite
depuis l'importation fts FineTuner# Initialiser le réglage finmodel_id="google/flan-t5-xxl"dataset_name = "samsung"tuner = FineTuner( model_id=model_id, dataset_name=dataset_name, max_length=150, lora_r=16, lora_alpha=32, quantize= True)# Generate contentprompt_text = "Résumez cette idée pour moi."print(tuner(prompt_text))
depuis fts import Inferencemodel = Inference( model_id="georgesung/llama2_7b_chat_uncensored", quantized=True)model.run("Quel est votre nom")
depuis fts import GPTQInferencemodel_id = "facebook/opt-125m"model = GPTQInference(model_id=model_id, max_length=400)prompt = "dans un pays très lointain"result = model.run(prompt)print(result)
Quantification de classe mondiale : tirez le meilleur parti de vos modèles avec des performances de premier ordre et une précision préservée ! ?️♂️
PEFT automatisé : Simplifiez votre flux de travail ! Laissez notre boîte à outils gérer les optimisations.
Configuration LoRA : Plongez dans le potentiel des configurations LoRA flexibles, qui changent la donne en termes de performances ! ?
Intégration transparente : conçu pour fonctionner de manière transparente avec les modèles populaires tels que LAMA, Falcon et plus encore ! ?
Voici un aperçu de notre ambitieuse feuille de route ! Nous sommes en constante évolution, et vos commentaires et contributions peuvent façonner notre voyage !
Plus d'exemples de scripts :
Utiliser des modèles GPT
Exemples d’apprentissage par transfert
Exemples d'applications réelles
Fonction de prétraitement polymorphe :
Concevoir une fonction pour gérer divers ensembles de données
Intégration aux structures d'ensembles de données connues provenant de sources populaires
Modèle d'ensemble de données personnalisé pour les structures définies par l'utilisateur
Prise en charge étendue des modèles :
Intégration avec Lama, Falcon, etc.
Prise en charge des modèles non anglais
Documentation complète :
Guide d'utilisation détaillé
Meilleures pratiques pour un réglage fin
Benchmarks pour les fonctionnalités de quantification et LoRA
Interface Web interactive :
Interface graphique pour un réglage facile
Outils de visualisation pour les informations sur les modèles
Fonctionnalités avancées :
Intégration avec d'autres techniques de quantification
Prise en charge d'un plus grand nombre de types de tâches au-delà de la génération de texte
Outils de débogage et d'introspection de modèles
Intégrer TRLX de Carper
... Et bien d'autres choses encore à venir !
Nous sommes enthousiasmés par le voyage à venir et serions ravis de vous avoir parmi nous ! Pour des commentaires, des suggestions ou des contributions, n'hésitez pas à ouvrir un problème ou une pull request. Façonnons ensemble l'avenir du réglage fin ! ?
MIT
Diffusez le message de la Finetuning-Suite, il s'agit d'un outil fondamental pour aider chacun à quantifier et à affiner les modèles de pointe.
Partager le projet nous aide à toucher davantage de personnes susceptibles d’en bénéficier et nous motive à continuer à développer et à améliorer la suite.
Cliquez sur les boutons ci-dessous pour partager Finetuning-Suite sur vos plateformes de médias sociaux préférées :
Partager sur Twitter
Partager sur Facebook
Partager sur LinkedIn
Partager sur Reddit
Nous aimerions également voir comment vous utilisez Finetuning-Suite ! Partagez vos projets et expériences avec nous en nous identifiant sur Twitter @finetuning-suite.
Enfin, n'oubliez pas de ️ le référentiel si vous le trouvez utile. Votre soutien compte beaucoup pour nous ! Merci! ?