LLM で遊ぶ
大規模な言語モデルをトレーニングおよび評価し、RAG、エージェント、およびチェーンに基づいて興味深い LLM アプリケーションを構築する方法を共有します。
すぐに使用できます | 私がこれをコーディングする必要はありません。
- Mistral-8x7b-Instruct は、Llamacpp 文法と組み合わせて Json 形式を安定して出力します
- ミストラル-8x7b-CoT エージェントに指示、段階的に考える
- Mistral-8x7b-ツール呼び出しによる ReAct Agent の指示
- Llama3-8b-Instruct、トランスフォーマー、vLLM および Llamacpp
- Llama3-8b-Instruct、vLLM による CoT
- Llama3-8b-Instruct、ツール呼び出しによる ReAct の純粋な中国語実装
- Chinese-Llama3-8b、DPO の微調整により Llama3 は中国語を話すようになりました
- llama-cpp-convert-GGUF、モデルの定量化を GGUF 形式に変換し、huggingface をアップロードします
- アドバンストリアクト
?詳細な LLM 、事前トレーニング、微調整、RLHF および ?>
ケースディスプレイ
ミストラル 8x7b リアクト | Llama3-8b 反応 |
---|
| |