Este repositorio constituye algunos de los recursos que utilizaré para aprender sobre los modelos de lenguajes grandes. También intentaré elaborar una hoja de ruta a medida que avance en este viaje de autoaprendizaje, ya que una hoja de ruta clara con hitos será una de las mejores formas de aprender sobre los LLM de manera adecuada.
Para ello, incluiré una combinación de recursos prácticos teóricos y prácticos para aprender.
PD: Necesito hacer esto más visual.
Editar: 6 de noviembre de 2024
Es necesario refactorizar en gran medida el repositorio.
Elimine cursos o recursos que no sean relevantes.
En la carrera de modelos, no podemos seguir enumerando modelos en el repositorio ya que es difícil realizar un seguimiento de los modelos y las actualizaciones harán que los modelos anteriores sean inútiles. Necesito pensar en una mejor manera de organizar un zoológico modelo.
Tal vez agregue 1 o 2 contribuyentes o abra el repositorio de contribuciones para ayudar.
¿Cómo podemos convertirlo en una excelente experiencia de aprendizaje, albergar notas y tutoriales, debates abiertos y una página web?
CS224N Procesamiento del lenguaje natural con aprendizaje profundo, Stanford
Especialización en procesamiento del lenguaje natural, Coursera
Curso HuggingFace PNL + Transformers
CS25: Transformers United V2, Stanford CS25, versión otoño 2021
Activeloop Learn, esta iniciativa GenAI360 ofrece 3 cursos gratuitos sobre RAG, ajuste de LLM, LangChain y VectorDB.
Curso LLM de Maxime Labonne, Curso para adentrarse en Large Language Models (LLM) con hojas de ruta y cuadernos Colab.
Curso práctico de LLM: obtenga información sobre LLM, LLMOps y Vector DB de forma gratuita mediante el diseño, la capacitación y la implementación de un código fuente del sistema LLM de asesor financiero en tiempo real + videos y materiales de lectura.
Full Stack Deep Learning, que comenzó como un bootcamp de aprendizaje profundo y evolucionó hasta convertirse en un bootcamp de LLM alrededor de abril de 2023, ahora es gratuito.
LLM University by Cohere, este curso consta de 8 módulos impartidos por el famoso Luis Serrano, conocido por enseñar conceptos de una manera fácil y visualmente atractiva. El curso contiene temas como fundamentos, implementación, búsqueda semántica y RAG.
Cursos cortos de Deeplearning.ai, cursos cortos de DL.AI sobre varios dominios de LLM e IA generativa. Estos cursos cortos son realmente útiles ya que tienen la combinación perfecta de sesiones teóricas y prácticas. Los cursos suelen realizarse en colaboración con empresas como Hugging Face, Mistral, OpenAI, Microsoft, Meta, Google, etc.
LLM Zoomcamp de DataTalksClub, LLM Zoomcamp: un curso en línea gratuito sobre cómo crear un sistema de preguntas y respuestas.
Curso Applied LLMs Mastery 2024 de Aishwarya N Reganti, curso gratuito de 10 semanas con una hoja de ruta definida que va desde fundamentos, herramientas y técnicas de LLM, implementación y evaluación hasta desafíos y tendencias futuras.
Cursos de pesos y sesgos, ofrece diferentes cursos sobre MLOps, aplicaciones impulsadas por LLM, etc.
Curso LLM Models, DataBricks x ed, certificación profesional por DataBricks.
Deeplearning.ai ofrece varios cursos cortos sobre LLM como LangChain para desarrollo de aplicaciones LLM, LLM sin servidor con AWS Bedrock, LLM de ajuste fino, LLM con búsqueda semántica, etc.
Introducción a la ruta de aprendizaje de IA generativa, Google Cloud.
La Universidad de Arize alberga cursos como evaluación de llm, herramientas y cadenas de agentes de llm, observabilidad de llm, etc.
Procesamiento del lenguaje natural con el libro Transformers
Blogs de Langchain
Blog de AIMultiple sobre modelos de lenguajes grandes: guía completa en 2023
Cohere documentos
Blog de FutureSmart AI sobre la creación de chatbots utilizando LangChain y ChatGPT
Agente autónomo basado en tareas que utiliza GPT-4, Pinecone y LangChain para diversas aplicaciones
Una encuesta de modelos de lenguajes grandes Consulte también este repositorio: https://github.com/RUCAIBox/LLMSurvey
Comprensión de modelos de lenguaje grandes: una lista de lectura transformadora, Sebastian Raschka
Wiki CLSP, NLP Reading Group, una lista de grupos de lectura relacionados con PNL que se actualiza con frecuencia.
La historia interna del asombroso potencial de ChatGPT | Greg Brockman | TED
Por qué la IA es increíblemente inteligente y sorprendentemente estúpida | Yejin Choi | TED
25 de abril de 2023, Arize: Observar
27 de abril de 2023, LLM de ajuste con PyTorch 2.0 y ChatGPT
Organización H2O, HuggingFaces
Organización OpenAssistant, HuggingFaces
Organización DataBricks, HuggingFaces
Organización BigScience, HuggingFaces
Organización EleutherAI, HuggingFaces
Organización NomicAI, HuggingFaces
Organización de Cerebras, HuggingFaces
LLMStudio, H2O AI
LlamaIndex
NeMo Guardrails, NVIDIA, para prevenir alucinaciones y añadir guardrails programables
MLC LLM, desarrollar, optimizar e implementar LLM de forma nativa en los dispositivos de todos)
LaMini LLM
ChatGPT, OpenAI, lanzado el 30 de noviembre de 2022
Google Bard, lanzado el 21 de marzo de 2023
Tongyi Qianwen AI, Alibaba, lanzado el 11 de abril de 2023
StableLM, IA de estabilidad, lanzado el 20 de abril de 2023
Titán Amazonas
HuggingChat, HuggingFaces, publicado el 25 de abril de 2023
H2OGPT
Modelo Bloom, uso comercial permitido con RAIL
GPT-J, EleutherAI, Apache 2.0
GPT-NeoX, EleutherAI, Apache 2.0
GPT4All, NomicAI, Licencia MIT
Licencia GPT4All-J, NomicAI, MIT
Licencia Pythia, EleutherAI, MIT
GLM-130B
Palm, Google
OPT, Meta
FLAN-T5
LLaMA, Meta
Alpaca, Stanford
Vicuña, lm-sys
CompartirGPT
Piña
Weaviate
milvus
cromadb
BebéAGI
AutoGPT
Personas a las que definitivamente deberías seguir para mantenerte actualizado sobre los LLM. Investigadores/Fundadores/Desarrolladores/Creadores de contenido de IA involucrados en la producción/investigación/desarrollo de LLM
Sebastian Raschka, es una leyenda y hará estallar tu burbuja de LLM con sus increíbles tweets, blogs y tutoriales. Suscríbete a su newsletter Ahead of AI
Andrej Karpathy, así que esta leyenda trabajó en Tesla, se tomó un descanso, comenzó su canal de YouTube para enseñar los fundamentos y nos sorprendió a todos con su increíble video sobre la implementación de GPT desde cero y finalmente se reincorporó a OpenAI. Supongo que no puedes perder una leyenda :D
Jay Alammar, sí, si no conoces su blog ELI sobre Transformers, léelo primero y asegúrate de seguirlo para obtener actualizaciones.
Tomaz Bratanic, es autor del famoso libro Graph Algorithms for Data Science y actualmente escribe excelentes blogs en Medium relacionados con GPT, Langchain y demás.