LLMOps に関する ODSC ワークショップの GitHub リポジトリへようこそ。このワークショップは、量子化、蒸留、微調整、Kubernetes などを通じて LLM の可能性を最大限に引き出すことができるように設計されています。
これらのケーススタディのほとんどは、私の著書「LLM のクイック スタート ガイド」から引用したものです。
詳細およびワークショップへの参加については、ここをクリックしてください。
包括的なノートブックを使用して、実際のアプリケーションを深く掘り下げてください。これらのノートブックは、ワークショップで取り上げられた 2 つのケーススタディを段階的にガイドし、インタラクティブで実践的な学習体験を可能にします。
こちらがワークショップのスライドです。
Llama-3 を動的に量子化する- ビットサンドバイトを使用して、ロード時にモデルをリアルタイムで量子化します。量子化前と後の違いを調べます
Llama の事前量子化バージョンをロードして速度とメモリ使用量を比較する方法を参照してください。
GGUF での作業 (GPU なし)
GGUF での作業 (GPU を使用)
ルーブリックを使用した LLM の評価- ルーブリック プロンプトを探索して生成出力を評価する
調整の評価 (時間が許す限り) - LLM がエージェントの応答をどのように判断できるかを確認する
以下に、ワークショップ中に参照するノートをいくつか紹介しますが、詳しく説明する時間がありません。
ケーススタディを気に入っていただけましたら、Amazon で私の本に 5 つ星の評価を与えることをご検討ください。これは著者として本当に役に立ちます。詳細およびワークショップへの参加については、ここをクリックしてください。