Super LLMOps
Table des matières
- Table des matières
- Qu’est-ce que LLMOps ?
- Ingénierie rapide
- Modèles
- Optimisation
- Outils (GitHub)
- Outils (Autres)
- RLHF
- Génial
- Contribuer
Qu’est-ce que LLMOps ?
LLMOps fait partie des pratiques MLOps, forme spécialisée de MLOps qui se concentre sur la gestion de l'ensemble du cycle de vie des grands modèles de langage (LLM).
À partir de 2021, alors que les LLM évoluaient rapidement et que la technologie mûrissait, nous avons commencé à nous concentrer sur les pratiques permettant de gérer efficacement les LLM, et les LLMOps, qui sont des adaptations des pratiques MLOps traditionnelles aux LLM, ont commencé à faire parler de eux.
LLMOps et MLOps
| LLMOps | MLOps |
---|
Définition | Outils et infrastructure spécifiquement pour le développement et le déploiement de grands modèles de langage | Outils et infrastructure pour les flux de travail généraux d'apprentissage automatique |
Se concentrer | Exigences et défis uniques des grands modèles de langage | Flux de travail généraux d'apprentissage automatique |
Technologies clés | Modèle de langage, bibliothèque Transformers, plateformes d'annotation human-in-the-loop | Kubeflow, MLflow, TensorFlow étendu |
Compétences clés | Expertise PNL, connaissance des grands modèles de langage, gestion des données pour les données texte | Ingénierie des données, DevOps, Génie logiciel, Expertise en apprentissage automatique |
Principaux défis | Gérer et étiqueter de grandes quantités de données textuelles, affiner les modèles de base pour des tâches spécifiques, garantir l'équité et l'éthique dans les modèles de langage | Gérer des pipelines de données complexes, garantir l'interprétabilité et l'explicabilité des modèles, remédier aux biais et à l'équité des modèles |
Adoption par l'industrie | Émergent, avec un nombre croissant de startups et d’entreprises se concentrant sur les LLMOps | Établi, avec un vaste écosystème d’outils et de frameworks disponibles |
Perspectives d'avenir | LLMOps devrait devenir un domaine d'étude de plus en plus important à mesure que les grands modèles de langage deviennent plus répandus et plus puissants. | MLOps continuera d'être un élément essentiel du secteur de l'apprentissage automatique, en mettant l'accent sur l'amélioration de l'efficacité, de l'évolutivité et de la fiabilité des modèles. |
⬆️ Aller en haut
Ingénierie rapide
- PromptBase - Marketplace de l'ingénierie prompte
- PromptHero - Le site Web pour l'ingénierie rapide
- Prompt Search - Le moteur de recherche pour l'ingénierie rapide
- Prompt Perfect - Optimiseur d'invite automatique
- Learn Prompting - Le site Web didacticiel pour l'ingénierie des invites
- Blog : Explorer les attaques par injection rapide
- Blog : Fuite rapide
- Article : Réglage des préfixes : optimisation des invites continues pour la génération
⬆️ Aller en haut
Modèles
Nom | Taille du paramètre | Date de l'annonce |
---|
BERT-Grand (336M) | 336 millions | 2018 |
T5 (11B) | 11 milliards | 2020 |
Gopher (280B) | 280 milliards | 2021 |
GPT-J (6B) | 6 milliards | 2021 |
LaMDA (137B) | 137 milliards | 2021 |
Mégatron-Turing NLG (530B) | 530 milliards | 2021 |
T0 (11B) | 11 milliards | 2021 |
Ara (11B) | 11 milliards | 2021 |
GLAM (1,2T) | 1,2 billion | 2021 |
FLAN T5 (540B) | 540 milliards | 2022 |
OPT-175B (175B) | 175 milliards | 2022 |
ChatGPT (175B) | 175 milliards | 2022 |
GPT 3.5 (175B) | 175 milliards | 2022 |
AlexaTM (20B) | 20 milliards | 2022 |
Floraison (176B) | 176 milliards | 2022 |
Barde | Pas encore annoncé | 2023 |
GPT 4 | Pas encore annoncé | 2023 |
Code Alpha (41.4B) | 41,4 milliards | 2022 |
Chinchilla (70B) | 70 milliards | 2022 |
Moineau (70B) | 70 milliards | 2022 |
PaLM (540B) | 540 milliards | 2022 |
NLLB (54,5B) | 54,5 milliards | 2022 |
Alexa MC (20B) | 20 milliards | 2022 |
Galactique (120B) | 120 milliards | 2022 |
UL2 (20B) | 20 milliards | 2022 |
Jurassique-1 (178B) | 178 milliards | 2022 |
LLaMA (65B) | 65 milliards | 2023 |
Alpaga de Stanford (7B) | 7 milliards | 2023 |
GPT-NeoX 2.0 (20B) | 20 milliards | 2023 |
BloombergGPT | 50 milliards | 2023 |
Chariot | 6 milliards | 2023 |
Jurassique-2 | Pas encore annoncé | 2023 |
OpenAssistant LLaMa | 30 milliards | 2023 |
Koala | 13 milliards | 2023 |
Vigogne | 13 milliards | 2023 |
PaLM2 | Pas encore annoncé, plus petit que PaLM1 | 2023 |
LIMA | 65 milliards | 2023 |
MPT | 7 milliards | 2023 |
Faucon | 40 milliards | 2023 |
Lama 2 | 70 milliards | 2023 |
Google Gémeaux | Pas encore annoncé | 2023 |
Microsoft Phi-2 | 2,7 milliards | 2023 |
Grok-0 | 33 milliards | 2023 |
Grok-1 | 314 milliards | 2023 |
Solaire | 10,7 milliards | 2024 |
Gemme | 7 milliards | 2024 |
Grok-1.5 | Pas encore annoncé | 2024 |
DBRX | 132 milliards | 2024 |
Claude 3 | Pas encore annoncé | 2024 |
Gemme 1.1 | 7 milliards | 2024 |
Lama 3 | 70 milliards | 2024 |
⬆️ Aller en haut
Optimisation
- Blog : Une introduction douce à la multiplication matricielle 8 bits pour les transformateurs à grande échelle utilisant Hugging Face Transformers, Accelerate et bitsandbytes
- Blog : Affiner 20 milliards de LLM avec RLHF sur un GPU grand public de 24 Go
- Blog : Gestion de grands modèles pour l'inférence
- Blog : Comment affiner le modèle Alpaga pour n'importe quelle langue | Alternative à ChatGPT
- Article : LLM.int8() : multiplication matricielle 8 bits pour les transformateurs à grande échelle
- Gist : Script pour décomposer/recomposer des modèles LLLAMA LLM avec un nombre différent de fragments
⬆️ Aller en haut
Outils (GitHub)
- Stanford Alpaca - - Un référentiel du projet Stanford Alpaca, un modèle affiné à partir du modèle LLaMA 7B sur des démonstrations de suivi d'instructions de 52K.
- LoRA - - Une implémentation de "LoRA : Low-Rank Adaptation of Large Language Models".
- Dolly - - Un grand modèle de langage formé sur la plateforme d'apprentissage automatique Databricks.
- DeepSpeed - - Une bibliothèque d'optimisation d'apprentissage en profondeur qui rend la formation et l'inférence distribuées faciles, efficaces et efficientes.
- LMFlow - - Une boîte à outils extensible pour le réglage fin et l'inférence de grands modèles de fondation. Grand modèle pour tous.
- Promptify - - Un utilitaire /takeit pour l'ingénierie Prompt.
- Auto-GPT - - Une tentative expérimentale open source pour rendre GPT-4 entièrement autonome.
- Jarvis - - Un système pour connecter les LLM à la communauté ML, un connecteur de modèle composite via l'interface LLM.
- dalai - - L'outil cli pour exécuter LLaMA sur la machine locale.
- haystack - un framework NLP open source pour interagir avec les données à l'aide de modèles Transformer et de LLM.
- langchain - - La bibliothèque qui aide au développement d'applications avec LLM.
- langflow - - Une interface utilisateur pour LangChain, conçue avec React-Flow pour fournir un moyen sans effort d'expérimenter et de prototyper des flux.
- deeplake - - Lac de données pour le Deep Learning. Créez, gérez, interrogez, versionnez et visualisez des ensembles de données.
- alpaca-lora - - Instruire et régler LLaMA sur le matériel grand public.
- bosquet - - LLMOps pour les applications basées sur un grand modèle de langage.
- llama_index - - Un projet qui fournit une interface centrale pour connecter vos LLM avec des données externes.
- gradio - - Un assistant d'interface utilisateur pour le modèle d'apprentissage automatique.
- sharegpt - - Une extension Chrome open source pour vous permettre de partager vos conversations ChatGPT les plus folles en un seul clic.
- keras-nlp - - Une bibliothèque de traitement du langage naturel qui accompagne les utilisateurs tout au long de leur cycle de développement.
- Snowkel AI - - La plateforme de données pour les modèles de fondation.
- promptflow - - Une boîte à outils qui simplifie le développement d'applications d'IA basées sur LLM, de l'idéation au déploiement.
⬆️ Aller en haut
Outils (Autres)
- API PaLM2 : un service API qui met PaLM2, les grands modèles linguistiques (LLM), à la disposition de Google Cloud Vertex AI.
- API Perspective – Un outil qui peut aider à atténuer la toxicité et à garantir un dialogue sain en ligne.
⬆️ Aller en haut
RLHF
- evals - - Une liste organisée d'apprentissage par renforcement avec des ressources de rétroaction humaine.
- trlx - - Un référentiel pour la formation distribuée de modèles de langage avec apprentissage par renforcement via Human Feedback. (RLHF)
- PaLM-rlhf-pytorch - - Implémentation du RLHF (Reinforcement Learning with Human Feedback) au-dessus de l'architecture PaLM.
⬆️ Aller en haut
Génial
- Hannibal046/Génial-LLM
- KennethanCeyer/génial-llm
- f/super-chatgpt-invites
- promptslab/Awesome-Prompt-Ingénierie
- tensorchord/génial-open-source-llmops
- opendilab/génial-RLHF
⬆️ Aller en haut
Contribuer
Nous apprécions les contributions à la liste Awesome LLMOps ! Si vous souhaitez suggérer un ajout ou apporter une correction, veuillez suivre ces directives :
- Forkez le référentiel et créez une nouvelle branche pour votre contribution.
- Apportez vos modifications au fichier README.md.
- Assurez-vous que votre contribution est pertinente par rapport au sujet de LLMOps.
- Utilisez le format suivant pour ajouter votre contribution :
[ Name of Resource ] (Link to Resource) - Description of resource
- Ajoutez votre contribution par ordre alphabétique dans sa catégorie.
- Assurez-vous que votre contribution n'est pas déjà répertoriée.
- Fournissez une brève description de la ressource et expliquez pourquoi elle est pertinente pour LLMOps.
- Créez une pull request avec un titre clair et une description de vos modifications.
Nous apprécions vos contributions et vous remercions d’avoir contribué à rendre la liste Awesome LLMOps encore plus impressionnante !
⬆️ Aller en haut