Optimieren Sie jedes Modell mit beispielloser Leistung, Geschwindigkeit und Zuverlässigkeit mithilfe von Qlora, BNB, Lora und Peft in weniger als 30 Sekunden. Drücken Sie einfach GO.
Buchen Sie eine Einzelsitzung mit Kye, dem Schöpfer, um etwaige Probleme zu besprechen, Feedback zu geben oder herauszufinden, wie wir Zeta für Sie verbessern können.
$ pip3 ft-suite installieren
from fts import FineTuner# Initialisieren Sie den Feintunermodel_id="google/flan-t5-xxl"dataset_name = "samsung"tuner = FineTuner( model_id=model_id, dataset_name=dataset_name, max_length=150, lora_r=16, lora_alpha=32, quantize= True)# Generate contentprompt_text = „Diese Idee zusammenfassen für ich.“print(tuner(prompt_text))
from fts import Inferencemodel = Inference( model_id="georgesung/llama2_7b_chat_uncensored", quantized=True)model.run("Wie heißt du")
from fts import GPTQInferencemodel_id = "facebook/opt-125m"model = GPTQInference(model_id=model_id, max_length=400)prompt = "in einem weit weit entfernten Land"result = model.run(prompt)print(result)
Erstklassige Quantisierung : Holen Sie mit erstklassiger Leistung und erhaltener Genauigkeit das Beste aus Ihren Modellen heraus! ?️♂️
Automatisiertes PEFT : Vereinfachen Sie Ihren Arbeitsablauf! Überlassen Sie die Optimierungen unserem Toolkit.
LoRA-Konfiguration : Tauchen Sie ein in das Potenzial flexibler LoRA-Konfigurationen, die die Leistung entscheidend verändern! ?
Nahtlose Integration : Entwickelt für die nahtlose Zusammenarbeit mit beliebten Modellen wie LLAMA, Falcon und mehr! ?
Hier ist ein kleiner Einblick in unsere ehrgeizige Roadmap! Wir entwickeln uns ständig weiter und Ihr Feedback und Ihre Beiträge können unsere Reise prägen!
Weitere Beispielskripte :
Verwendung von GPT-Modellen
Lernbeispiele übertragen
Anwendungsbeispiele aus der Praxis
Polymorphe Vorverarbeitungsfunktion :
Entwerfen Sie eine Funktion zur Verarbeitung verschiedener Datensätze
Integrieren Sie bekannte Datensatzstrukturen aus beliebten Quellen
Benutzerdefinierter Datensatzentwurf für benutzerdefinierte Strukturen
Erweiterte Modellunterstützung :
Integration mit Lama, Falcon usw.
Unterstützung für nicht-englische Modelle
Umfangreiche Dokumentation :
Ausführliche Gebrauchsanweisung
Best Practices für die Feinabstimmung
Benchmarks für Quantisierung und LoRA-Funktionen
Interaktive Weboberfläche :
GUI zur einfachen Feinabstimmung
Visualisierungstools für Modelleinblicke
Erweiterte Funktionen :
Integration mit anderen Quantisierungstechniken
Unterstützung für weitere Aufgabentypen über die Textgenerierung hinaus
Modell-Debugging- und Introspektion-Tools
Integrieren Sie TRLX von Carper
... Und es kommt noch viel mehr!
Wir freuen uns auf die bevorstehende Reise und würden uns freuen, Sie bei uns zu haben! Für Feedback, Vorschläge oder Beiträge können Sie gerne ein Problem oder eine Pull-Anfrage eröffnen. Lassen Sie uns gemeinsam die Zukunft des Feintunings gestalten! ?
MIT
Verbreiten Sie die Botschaft der Finetuning-Suite. Dies ist ein grundlegendes Werkzeug, das jedem hilft, modernste Modelle zu quantifizieren und zu verfeinern.
Das Teilen des Projekts hilft uns, mehr Menschen zu erreichen, die davon profitieren könnten, und motiviert uns, die Suite weiterzuentwickeln und zu verbessern.
Klicken Sie auf die Schaltflächen unten, um Finetuning-Suite auf Ihren bevorzugten Social-Media-Plattformen zu teilen:
Auf Twitter teilen
Auf Facebook teilen
Auf LinkedIn teilen
Auf Reddit teilen
Außerdem würden wir gerne sehen, wie Sie die Finetuning-Suite nutzen! Teilen Sie Ihre Projekte und Erfahrungen mit uns, indem Sie uns auf Twitter @finetuning-suite markieren.
Vergessen Sie nicht, das Repository zu aktualisieren, wenn Sie es nützlich finden. Ihre Unterstützung bedeutet uns sehr viel! Danke schön! ?