Qlora、BNB、Lora、Peft を使用して比類のないパフォーマンス、速度、信頼性を備えたモデルを 30 秒以内に微調整し、GO を押すだけです。
クリエイターの Kye との 1 対 1 セッションを予約して、問題について話し合い、フィードバックを提供し、Zeta を改善する方法を検討してください。
$ pip3 ft-suite をインストールします
from fts import FineTuner# ファインチューナーを初期化しますmodel_id="google/flan-t5-xxl"dataset_name = "samsung"tuner = FineTuner(model_id=model_id, dataset_name=dataset_name, max_length=150, lora_r=16, lora_alpha=32, quantize= True)# contentprompt_text = "これを要約します私のためのアイデア。"print(tuner(prompt_text))
from fts import Inferencemodel = Inference(model_id="georgesung/llama2_7b_chat_uncirced", quantized=True)model.run("あなたの名前は何ですか")
from fts import GPTQInferencemodel_id = "facebook/opt-125m"model = GPTQInference(model_id=model_id, max_length=400)prompt = "遠く離れた土地で"result = model.run(prompt)print(result)
ワールドクラスの量子化: 最高レベルのパフォーマンスと維持された精度でモデルを最大限に活用します。 ?️♂️
自動化された PEFT : ワークフローを簡素化します。ツールキットに最適化を処理させます。
LoRA 構成: パフォーマンスを大きく変える、柔軟な LoRA 構成の可能性を掘り下げてみましょう。 ?
シームレスな統合: LLAMA、Falcon などの人気モデルとシームレスに連携するように設計されています。 ?
私たちの野心的なロードマップを少しだけご紹介します。私たちは常に進化しており、あなたのフィードバックと貢献が私たちの旅を形作ることができます。
その他のスクリプト例:
GPT モデルの使用
転移学習の例
実際のアプリケーションのサンプル
ポリモーフィックな前処理関数:
多様なデータセットを処理する関数を設計する
一般的なソースからの既知のデータセット構造と統合する
ユーザー定義構造のカスタム データセット ブループリント
拡張モデルのサポート:
ラマ、ファルコンなどとの統合
英語以外のモデルのサポート
包括的なドキュメント:
詳しい使い方ガイド
微調整のベストプラクティス
量子化と LoRA 機能のベンチマーク
インタラクティブなウェブインターフェイス:
微調整が簡単なGUI
モデルの洞察のための視覚化ツール
高度な機能:
他の量子化手法との統合
テキスト生成以外のより多くのタスクタイプのサポート
モデルのデバッグおよびイントロスペクション ツール
Carper の TRLX を統合
...そしてさらに多くのことが予定されています!
私たちは今後の旅に興奮しており、皆さんと一緒に過ごせることを楽しみにしています。フィードバック、提案、貢献が必要な場合は、お気軽に Issue またはプル リクエストを開いてください。微調整の未来を一緒に形作りましょう! ?
マサチューセッツ工科大学
Finetuning-Suite のメッセージを広めてください。これは、誰もが最先端のモデルを量子化し、微調整するのに役立つ基本的なツールです。
プロジェクトを共有することで、その恩恵を受ける可能性のあるより多くの人々にリーチすることができ、スイートの開発と改善を継続する動機になります。
下のボタンをクリックして、お気に入りのソーシャル メディア プラットフォームで Finetuning-Suite を共有してください。
Twitterでシェアする
Facebook でシェアする
LinkedIn で共有する
Redditで共有する
また、Finetuning-Suite をどのように使用しているかぜひお聞かせください。 Twitter で @finetuning-suite をタグ付けして、プロジェクトや経験を私たちと共有してください。
最後に、便利だと思ったらリポジトリを ️ することを忘れないでください。あなたのサポートは私たちにとって大きな意味があります!ありがとう! ?