Tolle LLMOps
Inhaltsverzeichnis
- Inhaltsverzeichnis
- Was ist LLMOps?
- Schnelles Engineering
- Modelle
- Optimierung
- Werkzeuge (GitHub)
- Werkzeuge (Sonstige)
- RLHF
- Eindrucksvoll
- Mitwirken
Was ist LLMOps?
LLMOps ist ein Teil der MLOps-Praktiken, einer speziellen Form von MLOps, die sich auf die Verwaltung des gesamten Lebenszyklus großer Sprachmodelle (LLM) konzentriert.
Ab 2021, als sich LLMs schnell weiterentwickelten und die Technologie ausgereift war, begannen wir, uns auf Praktiken zur effizienten Verwaltung von LLMs zu konzentrieren, und es begann über LLMOps zu sprechen, bei denen es sich um Anpassungen traditioneller MLOps-Praktiken an LLMs handelt.
LLMOps vs. MLOps
| LLMOps | MLOps |
---|
Definition | Tools und Infrastruktur speziell für die Entwicklung und Bereitstellung großer Sprachmodelle | Tools und Infrastruktur für allgemeine maschinelle Lernworkflows |
Fokus | Einzigartige Anforderungen und Herausforderungen großer Sprachmodelle | Allgemeine Arbeitsabläufe für maschinelles Lernen |
Schlüsseltechnologien | Sprachmodell, Transformers-Bibliothek, Human-in-the-Loop-Annotationsplattformen | Kubeflow, MLflow, TensorFlow Extended |
Schlüsselkompetenzen | NLP-Expertise, Kenntnisse großer Sprachmodelle, Datenmanagement für Textdaten | Daten-Engineering, DevOps, Software-Engineering, Fachwissen im Bereich maschinelles Lernen |
Wichtigste Herausforderungen | Verwalten und Kennzeichnen großer Textdatenmengen, Feinabstimmung von Basismodellen für bestimmte Aufgaben, Gewährleistung von Fairness und Ethik in Sprachmodellen | Verwaltung komplexer Datenpipelines, Sicherstellung der Interpretierbarkeit und Erklärbarkeit des Modells, Bekämpfung von Modellverzerrungen und Fairness |
Branchenakzeptanz | Aufstrebend, mit einer wachsenden Zahl von Startups und Unternehmen, die sich auf LLMOps konzentrieren | Etabliert, mit einem großen Ökosystem an verfügbaren Tools und Frameworks |
Zukunftsaussichten | Es wird erwartet, dass LLMOps zu einem immer wichtigeren Studienbereich wird, da große Sprachmodelle immer häufiger vorkommen und leistungsfähiger werden | MLOps werden weiterhin eine entscheidende Komponente der maschinellen Lernbranche sein, wobei der Schwerpunkt auf der Verbesserung der Effizienz, Skalierbarkeit und Modellzuverlässigkeit liegt |
⬆️ Nach oben gehen
Schnelles Engineering
- PromptBase – Marktplatz des Prompt Engineering
- PromptHero – Die Website für Prompt Engineering
- Prompt Search – Die Suchmaschine für das Prompt Engineering
- Prompt Perfect – Optimierer für automatische Eingabeaufforderungen
- Learn Prompting – Die Tutorial-Website für das Prompt Engineering
- Blog: Erforschung von Prompt-Injection-Angriffen
- Blog: Prompt Leaking
- Artikel: Präfix-Tuning: Optimierung kontinuierlicher Eingabeaufforderungen für die Generierung
⬆️ Nach oben gehen
Modelle
Name | Parametergröße | Ankündigungsdatum |
---|
BERT-Groß (336M) | 336 Millionen | 2018 |
T5 (11B) | 11 Milliarden | 2020 |
Gopher (280B) | 280 Milliarden | 2021 |
GPT-J (6B) | 6 Milliarden | 2021 |
LaMDA (137B) | 137 Milliarden | 2021 |
Megatron-Turing NLG (530B) | 530 Milliarden | 2021 |
T0 (11B) | 11 Milliarden | 2021 |
Ara (11B) | 11 Milliarden | 2021 |
GLaM (1.2T) | 1,2 Billionen | 2021 |
T5 FLAN (540B) | 540 Milliarden | 2022 |
OPT-175B (175B) | 175 Milliarden | 2022 |
ChatGPT (175B) | 175 Milliarden | 2022 |
GPT 3.5 (175B) | 175 Milliarden | 2022 |
AlexaTM (20B) | 20 Milliarden | 2022 |
Blüte (176B) | 176 Milliarden | 2022 |
Barde | Noch nicht angekündigt | 2023 |
GPT 4 | Noch nicht angekündigt | 2023 |
AlphaCode (41.4B) | 41,4 Milliarden | 2022 |
Chinchilla (70B) | 70 Milliarden | 2022 |
Spatz (70B) | 70 Milliarden | 2022 |
PaLM (540B) | 540 Milliarden | 2022 |
NLLB (54,5B) | 54,5 Milliarden | 2022 |
Alexa TM (20B) | 20 Milliarden | 2022 |
Galactica (120B) | 120 Milliarden | 2022 |
UL2 (20B) | 20 Milliarden | 2022 |
Jura-1 (178B) | 178 Milliarden | 2022 |
LLaMA (65B) | 65 Milliarden | 2023 |
Stanford Alpaka (7B) | 7 Milliarden | 2023 |
GPT-NeoX 2.0 (20B) | 20 Milliarden | 2023 |
BloombergGPT | 50 Milliarden | 2023 |
Dolly | 6 Milliarden | 2023 |
Jura-2 | Noch nicht angekündigt | 2023 |
OpenAssistant LLaMa | 30 Milliarden | 2023 |
Koala | 13 Milliarden | 2023 |
Vicuna | 13 Milliarden | 2023 |
PaLM2 | Noch nicht angekündigt, kleiner als PaLM1 | 2023 |
LIMA | 65 Milliarden | 2023 |
MPT | 7 Milliarden | 2023 |
Falke | 40 Milliarden | 2023 |
Lama 2 | 70 Milliarden | 2023 |
Google Gemini | Noch nicht angekündigt | 2023 |
Microsoft Phi-2 | 2,7 Milliarden | 2023 |
Grok-0 | 33 Milliarden | 2023 |
Grok-1 | 314 Milliarden | 2023 |
Solar | 10,7 Milliarden | 2024 |
Gemma | 7 Milliarden | 2024 |
Grok-1.5 | Noch nicht angekündigt | 2024 |
DBRX | 132 Milliarden | 2024 |
Claude 3 | Noch nicht angekündigt | 2024 |
Gemma 1.1 | 7 Milliarden | 2024 |
Lama 3 | 70 Milliarden | 2024 |
⬆️ Nach oben gehen
Optimierung
- Blog: Eine sanfte Einführung in die 8-Bit-Matrixmultiplikation für Transformatoren im großen Maßstab mit Hugging Face Transformers, Accelerate und Bitsandbytes
- Blog: Feinabstimmung von 20 Milliarden LLMs mit RLHF auf einer 24-GB-Consumer-GPU
- Blog: Umgang mit großen Modellen für Schlussfolgerungen
- Blog: So optimieren Sie das Alpaka-Modell für jede Sprache | ChatGPT-Alternative
- Artikel: LLM.int8(): 8-Bit-Matrixmultiplikation für Transformers at Scale
- Kern: Skript zum Zerlegen/Neuzusammensetzen von LLAMA-LLM-Modellen mit unterschiedlicher Anzahl von Shards
⬆️ Nach oben gehen
Werkzeuge (GitHub)
- Stanford Alpaca – – Ein Repository des Stanford Alpaca-Projekts, ein Modell, das vom LLaMA 7B-Modell auf 52K-Anweisungsdemonstrationen verfeinert wurde.
- LoRA – – Eine Implementierung von „LoRA: Low-Rank Adaptation of Large Language Models“.
- Dolly – – Ein großes Sprachmodell, das auf der Databricks Machine Learning Platform trainiert wurde.
- DeepSpeed – – Eine Deep-Learning-Optimierungsbibliothek, die verteiltes Training und Inferenz einfach, effizient und effektiv macht.
- LMFlow – – Ein erweiterbares Toolkit für die Feinabstimmung und Inferenz großer Fundamentmodelle. Großes Modell für alle.
- Promptify – Ein Dienstprogramm / takeit für Prompt-Engineering.
- Auto-GPT – – Ein experimenteller Open-Source-Versuch, GPT-4 vollständig autonom zu machen.
- Jarvis – Ein System zur Verbindung von LLMs mit der ML-Community, einem Verbundmodell-Connector über die LLM-Schnittstelle.
- dalai – Das CLI-Tool zum Ausführen von LLaMA auf dem lokalen Computer.
- Haystack – ein Open-Source-NLP-Framework zur Interaktion mit den Daten mithilfe von Transformer-Modellen und LLMs.
- langchain – Die Bibliothek, die bei der Entwicklung von Anwendungen mit LLM hilft.
- langflow – Eine Benutzeroberfläche für LangChain, die mit React-Flow entwickelt wurde, um eine mühelose Möglichkeit zum Experimentieren und Prototypen von Abläufen zu bieten.
- deeplake – Data Lake für Deep Learning. Datensätze erstellen, verwalten, abfragen, versionieren und visualisieren.
- alpaca-lora – – Anweisen und Tunen von LLaMA auf Consumer-Hardware.
- bosquet – LLMOps für Anwendungen, die auf großen Sprachmodellen basieren.
- llama_index – Ein Projekt, das eine zentrale Schnittstelle zur Verbindung Ihrer LLMs mit externen Daten bereitstellt.
- gradio – – Ein UI-Helfer für das maschinelle Lernmodell.
- sharegpt – Eine Open-Source-Chrome-Erweiterung, mit der Sie Ihre wildesten ChatGPT-Konversationen mit einem Klick teilen können.
- keras-nlp – – Eine Bibliothek zur Verarbeitung natürlicher Sprache, die Benutzer während ihres gesamten Entwicklungszyklus unterstützt.
- Snowkel AI – – Die Datenplattform für Fundamentmodelle.
- promptflow – Ein Toolkit, das die Entwicklung LLM-basierter KI-Anwendungen von der Idee bis zur Bereitstellung vereinfacht.
⬆️ Nach oben gehen
Werkzeuge (Sonstige)
- PaLM2 API – Ein API-Dienst, der PaLM2, Large Language Models (LLMs), für Google Cloud Vertex AI verfügbar macht.
- Perspective API – Ein Tool, das dazu beitragen kann, Toxizität zu mindern und einen gesunden Online-Dialog sicherzustellen.
⬆️ Nach oben gehen
RLHF
- evals – – Eine kuratierte Liste von Ressourcen zum verstärkenden Lernen mit menschlichem Feedback.
- trlx – – Ein Repo für verteiltes Training von Sprachmodellen mit Reinforcement Learning via Human Feedback. (RLHF)
- PaLM-rlhf-pytorch – – Implementierung von RLHF (Reinforcement Learning with Human Feedback) auf der PaLM-Architektur.
⬆️ Nach oben gehen
Eindrucksvoll
- Hannibal046/Awesome-LLM
- KennethanCeyer/awesome-llm
- f/awesome-chatgpt-prompts
- promptslab/Awesome-Prompt-Engineering
- tensorchord/awesome-open-source-llmops
- opendilab/awesome-RLHF
⬆️ Nach oben gehen
Mitwirken
Wir freuen uns über Beiträge zur Awesome LLMOps-Liste! Wenn Sie eine Ergänzung vorschlagen oder eine Korrektur vornehmen möchten, befolgen Sie bitte diese Richtlinien:
- Forken Sie das Repository und erstellen Sie einen neuen Branch für Ihren Beitrag.
- Nehmen Sie Ihre Änderungen an der Datei README.md vor.
- Stellen Sie sicher, dass Ihr Beitrag für das Thema LLMOps relevant ist.
- Verwenden Sie das folgende Format, um Ihren Beitrag hinzuzufügen:
[ Name of Resource ] (Link to Resource) - Description of resource
- Fügen Sie Ihren Beitrag in alphabetischer Reihenfolge innerhalb seiner Kategorie hinzu.
- Stellen Sie sicher, dass Ihr Beitrag nicht bereits aufgeführt ist.
- Geben Sie eine kurze Beschreibung der Ressource an und erklären Sie, warum sie für LLMOps relevant ist.
- Erstellen Sie eine Pull-Anfrage mit einem klaren Titel und einer Beschreibung Ihrer Änderungen.
Wir freuen uns über Ihre Beiträge und danken Ihnen, dass Sie dazu beigetragen haben, die Awesome LLMOps-Liste noch großartiger zu machen!
⬆️ Nach oben gehen