Dieses Repository stellt einige der Ressourcen dar, die ich nutzen werde, um etwas über große Sprachmodelle zu lernen. Ich werde auch versuchen, eine Roadmap zu erstellen, während ich auf dieser Reise zum Selbstlernen voranschreite, da eine klare Roadmap mit Meilensteinen eine der besten Möglichkeiten ist, LLMs richtig kennenzulernen.
Zu diesem Zweck werde ich eine Mischung aus theoretischen und praktischen praktischen Ressourcen zum Lernen einbeziehen.
PS: Das muss visueller gestaltet werden
Bearbeiten: 6. November 2024
Das Repository muss grundlegend umgestaltet werden.
Entfernen Sie Kurse oder Ressourcen, die nicht relevant sind.
Im Modellwettlauf können wir nicht weiterhin Modelle im Repository auflisten, da es schwierig ist, den Überblick über die Modelle zu behalten, und Aktualisierungen die vorherigen Modelle unbrauchbar machen. Wir müssen uns eine bessere Möglichkeit überlegen, einen Modellzoo zu organisieren.
Fügen Sie möglicherweise 1-2 Mitwirkende hinzu oder öffnen Sie das Repository für Beiträge, um zu helfen.
Wie können wir es zu einer großartigen Lernerfahrung machen, indem wir Notizen und Tutorials, offene Diskussionen und eine Webseite bereitstellen?
CS224N Verarbeitung natürlicher Sprache mit Deep Learning, Stanford
Spezialisierung auf Verarbeitung natürlicher Sprache, Coursera
HuggingFace NLP + Transformers-Kurs
CS25: Transformers United V2, Stanford CS25, Herbstversion 2021
Activeloop Learn, diese Initiative GenAI360, bietet 3 kostenlose Kurse zu RAGs, zur Feinabstimmung von LLMs, LangChain und VectorDBs.
LLM-Kurs von Maxime Labonne, Kurs zum Einstieg in Large Language Models (LLMs) mit Roadmaps und Colab-Notizbüchern.
Praktischer LLM-Kurs. Erfahren Sie kostenlos mehr über LLMs, LLMOps und Vector DBs, indem Sie einen Quellcode für ein Echtzeit-Finanzberater-LLM-System sowie Videos und Lesematerialien entwerfen, schulen und bereitstellen.
Full Stack Deep Learning begann als Deep-Learning-Bootcamp und entwickelte sich etwa im April 2023 zum LLM-Bootcamp. Die Teilnahme ist jetzt kostenlos.
LLM University by Cohere, dieser Kurs besteht aus 8 Modulen, die vom berühmten Luis Serrano unterrichtet werden, der dafür bekannt ist, Konzepte auf einfache und optisch ansprechende Weise zu vermitteln. Der Kurs umfasst Themen wie Grundlagen, Bereitstellung, semantische Suche und RAG.
Deeplearning.ai-Kurzkurse, Kurzkurse von DL.AI zu verschiedenen Bereichen von LLMs und generativer KI. Diese kurzen Kurse sind wirklich nützlich, da sie die perfekte Mischung aus theoretischen und praktischen Sitzungen bieten. Die Kurse werden in der Regel in Zusammenarbeit mit Unternehmen wie Hugging Face, Mistral, OpenAI, Microsoft, Meta, Google usw. durchgeführt.
LLM Zoomcamp von DataTalksClub, LLM Zoomcamp – ein kostenloser Online-Kurs zum Aufbau eines Frage-und-Antwort-Systems.
Applied LLMs Mastery 2024-Kurs von Aishwarya N Reganti, kostenloser 10-wöchiger Kurs mit einer konkreten Roadmap, die von LLM-Grundlagen, Tools und Techniken, Bereitstellung und Bewertung bis hin zu Herausforderungen und zukünftigen Trends reicht.
Weights and Biases Courses bietet verschiedene Kurse zu MLOps, LLM Powered Apps usw.
LLM Models-Kurs, DataBricks x ed, professionelle Zertifizierung durch DataBricks.
Deeplearning.ai bietet verschiedene Kurzkurse zu LLMs wie LangChain für LLM-App-Entwicklung, serverlose LLMs mit AWS Bedrock, Feinabstimmung von LLMs, LLMs mit semantischer Suche usw. an.
Einführung in den Generative AI Learning Path, Google Cloud.
Die Arize University bietet Kurse wie LLM-Bewertung, LLM-Agenten-Tools und -Ketten, LLM-Beobachtbarkeit usw. an.
Buch zur Verarbeitung natürlicher Sprache mit Transformers
Langchain-Blogs
AIMultiples Blog zu großen Sprachmodellen: Vollständiger Leitfaden im Jahr 2023
Cohere-Dokumente
FutureSmart AI-Blog zum Erstellen von Chatbots mit LangChain und ChatGPT
Aufgabengesteuerter autonomer Agent, der GPT-4, Pinecone und LangChain für verschiedene Anwendungen nutzt
Eine Übersicht über große Sprachmodelle. Schauen Sie sich auch dieses Repo an: https://github.com/RUCAIBox/LLMSurvey
Große Sprachmodelle verstehen – Eine transformative Leseliste, Sebastian Raschka
Wiki CLSP, NLP Reading Group, eine Liste von Lesegruppen zum Thema NLP, die regelmäßig aktualisiert wird.
Die Insider-Geschichte des erstaunlichen Potenzials von ChatGPT | Greg Brockman | TED
Warum KI unglaublich intelligent – und erschreckend dumm ist | Yejin Choi | TED
25. April 2023, Arize: Beobachten
27. April 2023, Feinabstimmung von LLMs mit PyTorch 2.0 und ChatGPT
H2O Organization, HuggingFaces
OpenAssistant-Organisation, HuggingFaces
DataBricks-Organisation, HuggingFaces
BigScience-Organisation, HuggingFaces
EleutherAI-Organisation, HuggingFaces
NomicAI-Organisation, HuggingFaces
Cerebras Organization, HuggingFaces
LLMStudio, H2O AI
LLamaIndex
NeMo Guardrails, NVIDIA, um Halluzinationen vorzubeugen und programmierbare Leitplanken hinzuzufügen
MLC LLM, Entwicklung, Optimierung und Bereitstellung von LLMs nativ auf allen Geräten)
LaMini LLM
ChatGPT, OpenAI, veröffentlicht am 30. November 2022
Google Bard, veröffentlicht am 21. März 2023
Tongyi Qianwen AI, Alibaba, veröffentlicht am 11. April 2023
StableLM, Stabilitäts-KI, veröffentlicht am 20. April 2023
Amazon Titan
HuggingChat, HuggingFaces, veröffentlicht am 25. April 2023
H2OGPT
Bloom-Modell, kommerzielle Nutzung mit RAIL erlaubt
GPT-J, EleutherAI, Apache 2.0
GPT-NeoX, EleutherAI, Apache 2.0
GPT4All, NomicAI, MIT-Lizenz
GPT4All-J, NomicAI, MIT-Lizenz
Pythia, EleutherAI, MIT-Lizenz
GLM-130B
PaLM, Google
OPT, Meta
FLAN-T5
LLaMA, Meta
Alpaka, Stanford
Vicuna, lm-sys
TeilenGPT
Tannenzapfen
Weben
Milvus
ChromaDB
BabyAGI
AutoGPT
Personen, denen Sie unbedingt folgen sollten, um über LLMs auf dem Laufenden zu bleiben. Forscher/Gründer/Entwickler/Ersteller von KI-Inhalten, die an der LLM-Produktion/Forschung/Entwicklung beteiligt sind
Sebastian Raschka, er ist eine Legende und wird mit seinen tollen Tweets, Blogs und Tutorials Ihre LLM-Hype-Blase zum Platzen bringen. Abonnieren Sie seinen Newsletter Ahead of AI
Andrej Karpathy, also diese Legende, arbeitete bei Tesla, machte eine Pause, startete seinen YouTube-Kanal, um die Grundlagen zu vermitteln, verblüffte uns alle mit seinem erstaunlichen Video über die Implementierung von GPT von Grund auf und kehrte schließlich zu OpenAI zurück. Ich schätze, man kann eine Legende nicht verlieren :D
Jay Alammar, ja, wenn Sie nichts über seinen ELI-Blog zu Transformers wissen, lesen Sie ihn zuerst durch und folgen Sie ihm für Updates.
Tomaz Bratanic ist der Autor des berühmten Buches „Graph Algorithms for Data Science“ und schreibt derzeit großartige Blogs auf Medium zum Thema GPT, Langchain und so weiter.