Willkommen im GitHub-Repository für den ODSC-Workshop zu LLMOps. Dieser Workshop soll Ihnen dabei helfen, das volle Potenzial von LLMs durch Quantisierung, Destillation, Feinabstimmung, Kubernetes und vieles mehr auszuschöpfen!
Die meisten dieser Fallstudien stammen aus meinem Buch: Quick Start Guide to LLMs
Für weitere Details und die Teilnahme am Workshop klicken Sie hier.
Tauchen Sie mit unseren umfassenden Notizbüchern tief in die praktische Anwendung ein. Diese Notizbücher führen Sie Schritt für Schritt durch die beiden im Workshop behandelten Fallstudien und ermöglichen so ein interaktives und praktisches Lernerlebnis.
Hier sind die Folien zum Workshop.
Dynamische Quantisierung von Llama-3 – Verwendung von Bits und Bytes zur Quantisierung eines Modells in Echtzeit unter Last. Wir werden die Unterschiede vor und nach der Quantisierung untersuchen
Sehen Sie, wie Sie eine vorquantisierte Version von Llama laden, um Geschwindigkeit und Speichernutzung zu vergleichen:
Arbeiten mit GGUF (keine GPU)
Arbeiten mit GGUF (mit einer GPU)
Bewertung von LLMs mit Rubriken – Erkundung einer Rubrik-Eingabeaufforderung zur Bewertung des generativen Outputs
Ausrichtung bewerten (je nach Zeit) – Sehen, wie ein LLM die Antworten des Agenten beurteilen kann
Hier sind einige Notizbücher, auf die ich während des Workshops verweise, für die ich aber keine Zeit habe:
Wenn Ihnen die Fallstudien gefallen haben, denken Sie bitte darüber nach, meinem Buch bei Amazon eine 5-Sterne-Bewertung zu geben, da es mir als Autor wirklich hilft! Für weitere Details und die Teilnahme am Workshop klicken Sie hier.