LLMOps impresionantes
![Impresionantes LLMOps: impresionante lista de LLMOps](https://images.downcodes.com/uploads/20241129/img_67498291ad76130.png)
Tabla de contenido
- Tabla de contenido
- ¿Qué es LLMOps?
- Ingeniería rápida
- Modelos
- Mejoramiento
- Herramientas (GitHub)
- Herramientas (otras)
- RLHF
- Impresionante
- Contribuyendo
¿Qué es LLMOps?
LLMOps es parte de las prácticas de MLOps, una forma especializada de MLOps que se centra en gestionar todo el ciclo de vida de grandes modelos de lenguaje (LLM).
A partir de 2021, a medida que los LLM evolucionaron rápidamente y la tecnología maduró, comenzamos a centrarnos en prácticas para gestionar los LLM de manera eficiente, y se comenzó a hablar de los LLMOps, que son adaptaciones de las prácticas tradicionales de MLOps a los LLM.
LLMOps frente a MLOps
| LLMOps | MLOps |
---|
Definición | Herramientas e infraestructura específicas para el desarrollo y la implementación de grandes modelos de lenguaje. | Herramientas e infraestructura para flujos de trabajo generales de aprendizaje automático |
Enfocar | Requisitos y desafíos únicos de los grandes modelos de lenguaje. | Flujos de trabajo generales de aprendizaje automático |
Tecnologías clave | Modelo de lenguaje, biblioteca Transformers, plataformas de anotación humanas en el circuito | Kubeflow, MLflow, TensorFlow extendido |
Habilidades clave | Experiencia en PNL, conocimiento de grandes modelos de lenguaje, gestión de datos para datos de texto. | Ingeniería de datos, DevOps, Ingeniería de software, Experiencia en aprendizaje automático |
Desafíos clave | Gestionar y etiquetar grandes cantidades de datos de texto, ajustar los modelos básicos para tareas específicas y garantizar la equidad y la ética en los modelos de lenguaje. | Gestionar canales de datos complejos, garantizar la interpretabilidad y explicabilidad del modelo, abordar el sesgo y la equidad del modelo. |
Adopción de la industria | Emergente, con un número creciente de nuevas empresas y empresas centradas en LLMOps | Establecido, con un gran ecosistema de herramientas y marcos disponibles. |
Perspectivas de futuro | Se espera que LLMOps se convierta en un área de estudio cada vez más importante a medida que los grandes modelos de lenguaje se vuelvan más frecuentes y poderosos. | MLOps seguirá siendo un componente fundamental de la industria del aprendizaje automático, centrándose en mejorar la eficiencia, la escalabilidad y la confiabilidad del modelo. |
⬆️ Ir arriba
Ingeniería rápida
- PromptBase - Mercado de la ingeniería rápida
- PromptHero: el sitio web para ingeniería rápida
- Búsqueda rápida: el motor de búsqueda para la ingeniería rápida
- Prompt Perfect - Optimizador automático de avisos
- Learn Promptting: el sitio web de tutoriales para la ingeniería rápida
- Blog: Explorando los ataques de inyección rápida
- Blog: Fugas rápidas
- Documento: Ajuste de prefijos: optimización de indicaciones continuas para la generación
⬆️ Ir arriba
Modelos
Nombre | Tamaño del parámetro | fecha de anuncio |
---|
BERT-Grande (336M) | 336 millones | 2018 |
T5 (11B) | 11 mil millones | 2020 |
Topo (280B) | 280 mil millones | 2021 |
GPT-J (6B) | 6 mil millones | 2021 |
LaMDA (137B) | 137 mil millones | 2021 |
Megatrón-Turing NLG (530B) | 530 mil millones | 2021 |
T0 (11B) | 11 mil millones | 2021 |
Guacamayo (11B) | 11 mil millones | 2021 |
GLAM (1.2T) | 1,2 billones | 2021 |
FLAN T5 (540B) | 540 mil millones | 2022 |
OPT-175B (175B) | 175 mil millones | 2022 |
ChatGPT (175B) | 175 mil millones | 2022 |
GPT 3,5 (175B) | 175 mil millones | 2022 |
AlexaTM (20B) | 20 mil millones | 2022 |
Florecer (176B) | 176 mil millones | 2022 |
Bardo | Aún no anunciado | 2023 |
GPT 4 | Aún no anunciado | 2023 |
Código Alfa (41.4B) | 41,4 mil millones | 2022 |
Chinchilla (70B) | 70 mil millones | 2022 |
Gorrión (70B) | 70 mil millones | 2022 |
Palma (540B) | 540 mil millones | 2022 |
NLLB (54,5 mil millones) | 54,5 mil millones | 2022 |
AlexaTM (20B) | 20 mil millones | 2022 |
Galáctica (120B) | 120 mil millones | 2022 |
UL2 (20B) | 20 mil millones | 2022 |
Jurásico-1 (178B) | 178 mil millones | 2022 |
Llama (65B) | 65 mil millones | 2023 |
Alpaca Stanford (7B) | 7 mil millones | 2023 |
GPT-NeoX 2.0 (20B) | 20 mil millones | 2023 |
BloombergGPT | 50 mil millones | 2023 |
Muñequita | 6 mil millones | 2023 |
Jurásico-2 | Aún no anunciado | 2023 |
OpenAssistant LLaMa | 30 mil millones | 2023 |
Coala | 13 mil millones | 2023 |
Vicuña | 13 mil millones | 2023 |
PaLM2 | Aún no anunciado, más pequeño que PaLM1 | 2023 |
LIMA | 65 mil millones | 2023 |
MPT | 7 mil millones | 2023 |
Halcón | 40 mil millones | 2023 |
Llama 2 | 70 mil millones | 2023 |
Google Géminis | Aún no anunciado | 2023 |
Microsoft Phi-2 | 2,7 mil millones | 2023 |
Grok-0 | 33 mil millones | 2023 |
Grok-1 | 314 mil millones | 2023 |
Solar | 10,7 mil millones | 2024 |
Gema | 7 mil millones | 2024 |
Grok-1.5 | Aún no anunciado | 2024 |
DBRX | 132 mil millones | 2024 |
claudio 3 | Aún no anunciado | 2024 |
Gema 1.1 | 7 mil millones | 2024 |
Llama 3 | 70 mil millones | 2024 |
⬆️ Ir arriba
Mejoramiento
- Blog: Una suave introducción a la multiplicación de matrices de 8 bits para transformadores a escala usando Hugging Face Transformers, Accelerate y bitsandbytes
- Blog: Ajuste de 20 mil millones de LLM con RLHF en una GPU de consumo de 24 GB
- Blog: Manejo de grandes modelos para inferencia
- Blog: Cómo ajustar el modelo Alpaca para cualquier idioma | Alternativa ChatGPT
- Documento: LLM.int8(): Multiplicación de matrices de 8 bits para transformadores a escala
- Gist: Script para descomponer/recomponer modelos LLAMA LLM con diferente número de fragmentos
⬆️ Ir arriba
Herramientas (GitHub)
- Stanford Alpaca - - Un repositorio del proyecto Stanford Alpaca, un modelo ajustado a partir del modelo LLaMA 7B en demostraciones de seguimiento de instrucciones de 52K.
- LoRA - - Una implementación de "LoRA: Adaptación de bajo rango de modelos de lenguaje grandes".
- Dolly: un modelo de lenguaje grande entrenado en la plataforma de aprendizaje automático Databricks.
- DeepSpeed: una biblioteca de optimización del aprendizaje profundo que hace que la inferencia y el entrenamiento distribuido sean fáciles, eficientes y efectivos.
- LMFlow - - Un conjunto de herramientas extensible para el ajuste y la inferencia de modelos de cimentaciones grandes. Modelo grande para todos.
- Promptify - - Una utilidad/takeit para ingeniería rápida.
- Auto-GPT: un intento experimental de código abierto para hacer que GPT-4 sea completamente autónomo.
- Jarvis - - Un sistema para conectar LLM con la comunidad ML, un conector de modelo compuesto a través de la interfaz LLM.
- dalai - - La herramienta cli para ejecutar LLaMA en la máquina local.
- haystack: un marco de PNL de código abierto para interactuar con los datos utilizando modelos Transformer y LLM.
- langchain - - La biblioteca que ayuda en el desarrollo de aplicaciones con LLM.
- langflow - - Una interfaz de usuario para LangChain, diseñada con reaccionar-flow para proporcionar una forma sencilla de experimentar y crear prototipos de flujos.
- deeplake - - Lago de datos para aprendizaje profundo. Cree, administre, consulte, versione y visualice conjuntos de datos.
- alpaca-lora - - Instruct-tune LLaMA en hardware de consumo.
- bosquet - - LLMOps para aplicaciones basadas en modelos de lenguaje grandes.
- llama_index - - Un proyecto que proporciona una interfaz central para conectar su LLM con datos externos.
- gradio - - Un asistente de interfaz de usuario para el modelo de aprendizaje automático.
- sharegpt - - Una extensión de Chrome de código abierto para que puedas compartir tus conversaciones ChatGPT más locas con un solo clic.
- keras-nlp - - Una biblioteca de procesamiento de lenguaje natural que apoya a los usuarios durante todo su ciclo de desarrollo.
- Snowkel AI - - La plataforma de datos para modelos de cimentaciones.
- Promptflow - - Un conjunto de herramientas que simplifica el desarrollo de aplicaciones de IA basadas en LLM, desde la idea hasta la implementación.
⬆️ Ir arriba
Herramientas (otras)
- API PaLM2: un servicio API que hace que PaLM2, modelos de lenguaje grandes (LLM), esté disponible para Google Cloud Vertex AI.
- Perspective API: una herramienta que puede ayudar a mitigar la toxicidad y garantizar un diálogo saludable en línea.
⬆️ Ir arriba
RLHF
- evals - - Una lista seleccionada de aprendizaje por refuerzo con recursos de retroalimentación humana.
- trlx - - Un repositorio para la capacitación distribuida de modelos de lenguaje con aprendizaje por refuerzo mediante retroalimentación humana. (RLHF)
- PaLM-rlhf-pytorch - - Implementación de RLHF (aprendizaje por refuerzo con retroalimentación humana) sobre la arquitectura PaLM.
⬆️ Ir arriba
Impresionante
- Hannibal046/Awesome-LLM
- KennethanCeyer/impresionante-llm
- f/avisos-de-chatgpt-impresionantes
- Promptslab/Awesome-Prompt-Ingeniería
- tensorchord/increíble-llmops-de-código-abierto
- opendilab/awesome-RLHF
⬆️ Ir arriba
Contribuyendo
¡Agradecemos las contribuciones a la lista Awesome LLMOps! Si desea sugerir una adición o hacer una corrección, siga estas pautas:
- Bifurca el repositorio y crea una nueva rama para tu contribución.
- Realice los cambios en el archivo README.md.
- Asegúrese de que su contribución sea relevante para el tema de LLMOps.
- Utilice el siguiente formato para agregar su contribución:
[ Name of Resource ] (Link to Resource) - Description of resource
- Añade tu contribución en orden alfabético dentro de su categoría.
- Asegúrese de que su contribución no esté incluida en la lista.
- Proporcione una breve descripción del recurso y explique por qué es relevante para LLMOps.
- Cree una solicitud de extracción con un título claro y una descripción de sus cambios.
¡Apreciamos sus contribuciones y le agradecemos por ayudar a que la lista Awesome LLMOps sea aún más increíble!
⬆️ Ir arriba