
Die weltbesten großsprachigen Modellressourcen der Welt werden ständig aktualisiert
Weitere Informationen überprüfen
[Online lesen]
Inhalt
- Daten
- Feinabstimmung
- Schlussfolgerung
- Auswertung
- Nutzung erleben
- Wissensbasislappen
- Agenten
- Suchen
- Bücher
- Kurs
- Tutorial
- Papier
- Tipps
Daten
Notiz
Hier werden数据
bezeichnet, aber hier gibt es keinen bestimmten Datensatz, aber eine Methode zur Verarbeitung großer Datenerfassung wird bereitgestellt
Wir glauben immer, dass es besser ist, den Menschen beizubringen, wie man fischt, als den Menschen beizubringen, wie man fischt
- Aotolabel: SMACT, REINIGEN- und ANAGELN SMS -Datensätze mit LLMs.
- LabellLM: Die Open-Source-Datenannotationsplattform.
- Data-Juicer: Ein One-Stop-Datenverarbeitungssystem, mit dem Daten höherwertig, saftiger und für LLMs verdaulicher werden!
- Omniparser: Ein nationaler Golang ETL -Streaming -Parser und Transformationsbibliothek für CSV, JSON, XML, EDI, Text usw.
- Mineru: Mineru ist ein Open-Source-Tool mit einer Open-Source-Datenextraktion, unterstützt die PDF/Webseite/E-Book-Extraktion.
- PDF-Extract-Kit: Ein umfassendes Toolkit für eine qualitativ hochwertige PDF-Inhaltsextraktion.
- Parsena: Leichte Bibliothek für das Kratzen von Websites mit LLMs.
- Sparrow: Sparrow ist eine innovative Open-Source-Lösung für die effiziente Datenextraktion und -verarbeitung aus verschiedenen Dokumenten und Bildern.
- Docling: PDF mit Leichtigkeit und Geschwindigkeit in JSON oder Markdown verwandeln.
- GOT-OCR2.0: OCR-Modell.
- LLM Dekontaminator: Überdenken von Benchmark und Kontamination für Sprachmodelle mit umformulierten Proben.
- DataTrove: DataTrove ist eine Bibliothek, um Textdaten in sehr großem Maßstab zu verarbeiten, zu filtern und zu deduplizieren.
- LLM-Swarm: Erzeugen Sie große synthetische Datensätze wie Cosmopedia.
- Distilabel: Distilabel ist ein Rahmen für synthetische Daten und KI -Feedback für Ingenieure, die schnelle, zuverlässige und skalierbare Pipelines benötigen, die auf verifizierten Forschungsarbeiten basieren.
- Common-Crawl-Pipeline-Schöpfer: Der Common Crawl Pipeline Creator.
- Eingereicht: Erkennen und extrahieren Sie Tabellen in Markdown und CSV.
- Zerox: Zero Shot PDF OCR mit GPT-4O-Mini.
- Doclayout-Yolo: Verbesserung der Dokumentlayoutanalyse durch verschiedene synthetische Daten und die adaptive Wahrnehmung von globaler bis lokaler.
- TensorZero: Machen Sie LLMs durch Erfahrung.
- PromptWright: Generieren Sie große synthetische Daten mit einem lokalen LLM.
- PDF-Extract-API: Dokument (PDF) Extraktion und Parse API unter Verwendung des hochmodernen modernen OCRS + OLLAMA-unterstützten Modelle.
- PDF2HTMLEX: PDF in HTML konvertieren, ohne Text oder Format zu verlieren.
- Extraktous: Schnelle und effiziente unstrukturierte Datenextraktion.
↥ Zurück nach oben
Feinabstimmung
- LAMA-FAKTORY: Effiziente Feinabstimmung von 100+ LLMs vereinheitlich.
- Unloth: 2-5x schneller 80% weniger Speicher LLM Fineetning.
- TRL: Transformator -Verstärkungslernen.
- Firefly: Firefly: Ein großes Modelltrainingsinstrument, das das Training Dutzende großer Modelle unterstützt
- Xtuner: Ein effizientes, flexibles und voll ausgeprägtes Toolkit zur Feinabstimmung mit großer Modelle.
- Torchtune: Eine native Pytorch-Bibliothek für LLM-Feinabstimmung.
- Swift: Verwenden Sie PEFT oder Vollparameter, um 200+ LLMs oder 15+ Mllms zu beenden.
- Autotrain: Eine neue Möglichkeit, modernste maschinelle Lernmodelle automatisch zu trainieren, zu bewerten und bereitzustellen.
- OpenRLHF: Ein benutzerfreundliches, skalierbares und leistungsstarkes RLHF-Framework (Unterstützung von 70B+ Vollstimmung & Lora & Mixtral & KTO).
- Ludwig: Low-Code-Framework zum Aufbau von benutzerdefinierten LLMs, neuronalen Netzwerken und anderen KI-Modellen.
- Mistral-Finetune: Eine leichte Codebasis, die Speicher- und Performant-Finetuning der Modelle von Mistral ermöglicht.
- Aikit: Fine-Tune, Build und Bereitstellung von Open-Source-LLMs problemlos!
- H2O-Llmstudio: H2O LLM Studio-ein Framework- und No-Code-GUI für feine StimmungslMs.
- LITGPT: Vorbereitete, Finetune, 20+ LLMs für Ihre eigenen Daten einsetzen.
- LLMBox: Eine umfassende Bibliothek zur Implementierung von LLMs, einschließlich einer einheitlichen Schulungspipeline und einer umfassenden Modellbewertung.
- Paddlenlp: Einfach zu bedienende und leistungsstarke NLP- und LLM-Bibliothek.
- Workbench-Llamafactory: Dies ist ein Nvidia AI Workbench-Beispielprojekt, das einen End-to-End-Modellentwicklungsworkflow unter Verwendung von Llamafactory zeigt.
- OpenRLHF: Ein benutzerfreundliches, skalierbares und leistungsstarkes RLHF-Framework (70B+ PPO Full Tuning & Iterative DPO & Lora & Mixtral).
- Tinyllava-Fabrik: Ein Rahmen kleiner großer multimodaler Modelle.
- LLM-Foundry: LLM-Trainingscode für Datenbanken Foundation-Modelle.
- LMMS-Finetune: Eine einheitliche Codebasis für Finetuning (Full, LORA) große multimodale Modelle, unterstützt Llava-1.5, Qwen-Vl, Llava-Interleave, Llava-Next-Video, Phi3-V usw.
- Simplifine: Mit Simplifine können Sie LLM -Finenetuning mit nur einer Codezeile unter Verwendung eines beliebigen Umarmungs -Gesichts -Datensatzes oder -modells aufrufen.
- Transformator Lab: Open Source-Anwendung für Advanced LLM Engineering: Interagieren, trainieren, feinstimmen und bewerten Sie große Sprachmodelle auf Ihrem eigenen Computer.
- Liger-Kernel: Effiziente Triton-Kerne für das LLM-Training.
- Chatlearn: Ein flexibler und effizienter Trainingsrahmen für die groß angelegte Ausrichtung.
- Nanotron: Minimalistisches Großsprachenmodell 3D-Parallelism-Training.
- Proxy -Tuning: Tuning -Sprachmodelle nach Proxy.
- Effektive LLM -Ausrichtung: Effektives LLM -Alignment -Toolkit.
- Autotrain-Advanced
- META LINuA: Eine schlanke, effiziente und leicht zu hackende Codebasis für Research LLMs.
- Vision-Llm Alignemnt: Dieses Repository enthält den Code für SFT, RLHF und DPO, das für Vision-basierte LLMs ausgelegt ist, einschließlich der LLAVA-Modelle und der LLAMA-3.2-Vision-Modelle.
- Finetune-Qwen2-VL: Schnellstart für die Feinabstimmung oder fortzusetzen Sie das QWEN2-VL-Modell vor dem Training.
↥ Zurück nach oben
Schlussfolgerung
- Ollama: Steh mit Lama 3, Mistral, Gemma und anderen großen Sprachmodellen auf.
- Öffnen Sie Webui: Benutzerfreundliche Webui für LLMs (ehemals Ollama Webui).
- Textgeneration Webui: Eine Gradio -Web -Benutzeroberfläche für große Sprachmodelle.
- Xinferenz: Eine leistungsstarke und vielseitige Bibliothek, die Sprache, Spracherkennung und multimodale Modelle bedient.
- Langchain: Kontextbewusste Argumentationsanwendungen erstellen.
- Llamaindex: Ein Datenrahmen für Ihre LLM -Anwendungen.
- LABE-CHAT: Ein Open-Source-LLM-Framework für LLMs/AI-Chat unterstützt Multi-AI-Anbieter, Multi-Modals (Vision/TTS) und Plugin-System.
- Tensorrt-Llm: Tensorrt-Llm bietet Benutzern eine benutzerfreundliche Python-API, um Großsprachenmodelle (LLMs) zu definieren und Tensorrt-Motoren zu erstellen, die hochmoderne Optimierungen enthalten, um eine effiziente Durchführung von Inferenz bei NVIDIA-GPUs durchzuführen.
- VllM: Eine Hochdurchsatz- und Speicher-effiziente Inferenz- und Serviermotor für LLMs.
- LLAMACHAT: Chatten Sie mit Ihren Lieblings -Lama -Models in einer nativen MacOS -App.
- NVIDIA CHATRTX: CHATRTX ist eine Demo -App, mit der Sie ein GPT -großes Sprachmodell (LLM) personalisieren können, das mit Ihrem eigenen Inhalt verbunden ist - DOCs, Notizen oder andere Daten.
- LM Studio: Lokale LLMs entdecken, herunterladen und ausführen.
- Chat-with-MLX: Chat mit Ihren Daten nativ auf Apple Silicon mit MLX Framework.
- LLM -Preisgestaltung: Finden Sie schnell die API für die perfekte Großspracher -Modelle (LLM) für Ihr Budget!
- Open Interpreter: Eine natürliche Sprachschnittstelle für Computer.
- CHATE-ALLAMA: Ein Open-Source-Chatbot basiert auf LLMs.
- CHAT-UI: Open Source-Codebasis, das die HuggingChat-App betreibt.
- MEMGPT: Erstellen Sie LLM-Agenten mit Langzeitgedächtnis und benutzerdefinierten Tools.
- KOBOLDCPP: Eine einfache Möglichkeit, verschiedene GGML- und GGUF-Modelle mit der UI von Koboldai durchzuführen.
- LLMFARM: LLAMA und andere Großsprachenmodelle auf iOS und macOS offline unter Verwendung der GGML -Bibliothek.
- Enchanted: Enchanted ist iOS- und macOS -App zum Chatten mit privaten selbst gehosteten Sprachmodellen wie Llama2, Mistral oder Vicuna mit Ollama.
- Flowise: Drag & Drop UI, um Ihren angepassten LLM -Fluss zu erstellen.
- Jan: Jan ist eine Open-Source-Alternative zu Chatgpt, die auf Ihrem Computer 100% offline ausführt.
- LMDeploy: LMDeploy ist ein Toolkit zum Komprimieren, Bereitstellen und Servieren von LLMs.
- RoutellM: Ein Rahmen für das Servieren und Bewerten von LLM -Routern - Sparen Sie LLM -Kosten ohne Kompromisse bei der Qualität!
- Minenferation: In Übereinstimmung mit den Inferenz von Lontext LLMs, geeigneter und dynamischer Spannung, berechnen Sie die Aufmerksamkeit, wodurch die Inferenzlatenz um bis zu 10-fache für die Vorabfüllung eines A100 reduziert wird und gleichzeitig die Genauigkeit beibehalten wird.
- MEM0: Die Speicherschicht für personalisierte KI.
- Sglang: Sglang ist ein weiterer schneller Servierrahmen für große Sprachmodelle und Sehsprachmodelle.
- Airllm: Airllm optimiert die Verwendung von Inferenzgedächtnissen und ermöglicht es, 70B große Sprachmodelle auf einer einzelnen 4 GB -GPU -Karte ohne Quantisierung, Destillation und Beschneidung durchzuführen.
- LLMHUB: LLMHUB ist eine leichte Managementplattform, die den Betrieb und die Interaktion mit verschiedenen Sprachmodellen (LLMs) rationalisiert.
- Yuanchat
- Litellm: Rufen Sie alle LLM -APIs mit dem OpenAI -Format an [Grundgestein, Umarmung, Vertexai, zusammenhai, azural, Openai, GROQ usw.]
- GuidellM: GuidellM ist ein leistungsstarkes Instrument zur Bewertung und Optimierung der Bereitstellung von großsprachigen Modellen (LLMs).
- LLM-Engines: Eine einheitliche Inferenzmotor für Großsprachenmodelle (LLMs), einschließlich Open-Source-Modelle (VLLM, Sglang, zusammen) und kommerziellen Modellen (OpenAI, Mistral, Claude).
- OARC: OLLAMA_AGENT_ROLL_CAGE (OARC) ist ein lokaler Python-Agent, der OLLAMA LLM mit Coqui-TTS-Sprachmodellen, Keras-Klassen, Llava-Vision, Flüstererkennung und mehr, um einen einheitlichen Chatbot-Agenten für lokale, benutzerdefinierte Automatisierung zu erstellen.
- G1: Verwenden von LLAMA-3.1 70B auf COQ, um O1-ähnliche Argumentationsketten zu erstellen.
- MemoryScope: MemoryScope bietet LLM-Chatbots leistungsstarke und flexible Langzeitgedächtnisfunktionen und bietet ein Framework für den Aufbau solcher Fähigkeiten.
- OpenllM: Führen Sie alle Open-Source-LLMs wie Lama 3.1, Gemma, als OpenAI-kompatibler API-Endpunkt in der Cloud aus.
- Infinity: Die für LLM-Anwendungen erstellte AI-native Datenbank, die eine unglaublich schnelle hybride Suche nach dichtem Einbettung, spärlicher Einbettung, Tensor und Volltext bietet.
- OPTILLM: Eine openAI-API-kompatible optimierte Inferenzproxy, die mehrere hochmoderne Techniken implementiert, die die Genauigkeit und Leistung von LLMs verbessern können.
- LLAMA Box: LLM Inference Server -Implementierung basierend auf llama.cpp.
↥ Zurück nach oben
Auswertung
- LM-Evaluation-HARTNESS: Ein Rahmen für die Bewertung von Sprachmodellen für wenige Schüsse.
- OpenCompass: OpenCompass ist eine LLM-Bewertungsplattform, die eine breite Palette von Modellen (LLAMA3, Mistral, Internlm2, GPT-4, LLAMA2, QWEN, GLM, Claude usw.) über 100+ Datensätze unterstützt.
- LLM-Komplexator: LLM-Komparator ist ein interaktives Datenvisualisierungsinstrument zur Bewertung und Analyse von LLM-Antworten nebeneinander, die entwickelt wurden.
- Evalscope
- Weave: Ein leichtes Toolkit zum Verfolgen und Bewerten von LLM -Anwendungen.
- Mixeval: Die Weisheit der Menge aus LLM -Benchmark -Gemischen abgeleitet.
- Bewertungsleitfaden: Wenn Sie sich jemals gefragt haben, wie Sie sicherstellen können, dass ein LLM in Ihrer spezifischen Aufgabe eine gute Leistung erbringt, ist dieser Leitfaden genau das Richtige für Sie!
- Ollama Benchmark: LLM -Benchmark für den Durchsatz über Ollama (lokale LLMs).
- VLMevalkit: Open-Source-Bewertungs-Toolkit großer Sichtsprüche (LVLMS), Unterstützung ~ 100 VLMs, 40+ Benchmarks.
LLM API 服务平台
:
- Groq
- Siliziumbasis Fluss
- Vulkanmotor
- Wen Xin Qianfan
- DashScope
↥ Zurück nach oben
Nutzung erleben
- LMSYS Chatbot Arena: Benchmarking LLMs in freier Wildbahn
- Compassarena Sinan Mockup Arena
- Langya Bang
- Umarmungsflächen
- Wisemodell Räume
- Poe
- Bruder Lins großes Modell Wildliste
- OpenRouter
- Anychat
↥ Zurück nach oben
Wissensbasislappen
- ALLESLLM: Die All-in-One-AI-App für jeden LLM mit vollständigen RAG- und AI-Agentenfunktionen.
- MAXKB: Ein auf LLM großes Sprachmodell basierender Wissensbasis -Frage- und Beantwortungssystem. Unterstützen Sie nicht, um schnelle Einbettung in Geschäftssysteme von Drittanbietern zu unterstützen
- Ragflow: Ein Open-Source-Rag (Abruf-general-generierter Generation) Motor basiert auf einem tiefen Dokumentverständnis.
- DIFY: Eine Open-Source-LLM-App-Entwicklungsplattform.
- FASTGPT: Eine auf dem LLM basierende wissensbasierte Plattform bietet eine Auslagerung und Modellaufruffunktionen für die Datenverarbeitung und ermöglicht die Workflow-Orchestrierung durch Flow-Visualisierung.
- LangChain-Chatchat: Eine lokale Frage und Antwort, die auf verschiedenen großsprachigen Modellen wie Langchain und Chatglm basiert
- Qanything: Frage und Antwort basierend auf irgendetwas.
- Quivr: Ein persönlicher Produktivitätsassistent (LAG) ⚡️?
- RAG-GPT: RAG-GPT, Nutzung von LLM und RAG-Technologie, lernt von benutzerdefinierten Wissensbasis, um kontextbezogene Antworten für eine Vielzahl von Abfragen zu geben, um ein schnelles und genaues Abrufen des Informationen zu gewährleisten.
- VERBA: Abrufener Augmented Generation (RAG) Chatbot angetrieben von Weaviate.
- Flashrag: Ein Python -Toolkit für eine effiziente Lappenforschung.
- GraphRAG: Ein modulares graphbasiertes Abruf-System (RAG-System).
- Lightrag: Lightrag hilft Entwicklern, Retriever-Agent-Generator-Pipelines sowohl zu bauen als auch zu optimieren.
- Graphrag-Ollama-UI: GraphRag mit Ollama mit Gradio-Benutzeroberfläche und zusätzlichen Funktionen.
- Nano-Graphrag: Eine einfache, leicht zu hackende Graphgrag-Implementierung.
- RAG-Techniken: Dieses Repository zeigt verschiedene fortschrittliche Techniken zum Abrufen von RAG-Systemen (RAGS-Systeme).
- Ragas: Bewertungsrahmen für Ihre RAG -Pipelines (Abruf Augmented Generation).
- Kotaemon: Eine Open-Source-saubere und angepasste Lag-Benutzeroberfläche zum Chatten mit Ihren Dokumenten.
- RAGAPP: Der einfachste Weg, Agentic Rag in einem Unternehmen zu verwenden.
- Turborag: Beschleunigende Abrufgeneration mit vorberechtigtem KV-Caches für Tischtext.
- Lightrag: Einfache und schnelle Generation von Abruf.
- Ten: Der Ai-Agent-Framework der nächsten Generation, der erste wirklich in Echtzeit multimodale AI-Agenten-Framework der Welt.
- Autorag: Rag Automl -Tool zum automatischen Finden einer optischen Lag -Pipeline für Ihre Daten.
- KAG: KAG ist ein von Wissen verstärkter Generation, der auf OpenSPG-Engine basiert und zum Aufbau von Wissensdiensten für Wissensdienste für kenntnisse strenge Entscheidungsfindung und Informationsabruf verwendet wird.
- Fast-Graphrag: RAG, der sich intelligent an Ihren Anwendungsfall, Daten und Abfragen anpasst.
- Winzige Graphrag
- DB-GPT GRAFRAG: DB-GPT GRAPRAG integriert sowohl Triplet-basierte Wissensgrafiken als auch Dokumentenstruktur, während die Mechanismen der Community- und Dokumentabnahme zur Verbesserung von Lag-Funktionen nutzen, um eine vergleichbare Leistung zu erzielen, während nur 50% der von Microsoft geforderten Token auf das DB-GPT-Graph-Benutzerhandbuch für Details verwendet werden.
- Chonkie: Die sachliche Bibliothek mit Lappen, die leicht, blitzschnell und bereit ist, Ihre Texte zu chonkieren.
↥ Zurück nach oben
Agenten
- Autogen: Autogen ist ein Gerüst, das die Entwicklung von LLM -Anwendungen unter Verwendung mehrerer Mittel ermöglicht, die sich miteinander unterhalten können, um Aufgaben zu lösen
- Crewai: Rahmen für die orchestrierte Rollenspiele, autonome KI-Agenten.
- Coze
- AgentGPT: Montage, Konfigurieren und Bereitstellen autonomer KI -Agenten in Ihrem Browser.
- XAGENT: Ein autonomer LLM -Agent für komplexe Aufgabenlösung.
- MobileAgent: Die leistungsstarke Assistent der Mobilgerätebetriebsbetrieb.
- Verzögerung: Ein leichter Rahmen für den Bau von LLM-in LLM-Basis.
- QWEN-Agent: Agent Framework und Anwendungen auf QWEN2, mit Funktionsanruf, Code-Interpreter, Lappen und Chromerweiterung.
- Linkai: One-Stop-KI-intelligente Bauplattform
- Baidu Appbuilder
- AgentUniverse: AgentUniverse ist ein LLM-Multi-Agent-Framework, mit dem Entwickler Multi-Agent-Anwendungen problemlos erstellen können.
- Lazyllm: Entwicklungswerkzeug zum Aufbau von groß angelegten Anwendungen mit Multi-Agent-Anwendungen mit niedrigem Code
- AgentScope: Bauen Sie mit LLM-Multi-Agent-Anwendungen auf einfachere Weise.
- MOA: Mischung von Agenten (MOA) ist ein neuer Ansatz, der die kollektiven Stärken mehrerer LLMs nutzt, um die Leistung zu verbessern und hochmoderne Ergebnisse zu erzielen.
- AGENTIG: AI -Agenten -Anwendungsentwicklungsrahmen.
- Omagent: Ein multimodales Agenten -Framework zum Lösen komplexer Aufgaben.
- Stamm: Kein Code-Tool, um Multi-Agent-Teams schnell zu erstellen und zu koordinieren.
- Kamel: Erster LLM-Multi-Agent-Rahmen und eine Open-Source-Community, die sich der Suche nach dem Skalierungsgesetz von Agenten widmet.
- PRISISONAI: PRISISONAI-Anwendung kombiniert Autogen und Crewai oder ähnliche Rahmenbedingungen zu einer Lösung mit niedrigem Code zum Aufbau und zur Verwaltung von LLM-Systemen mit mehreren Agenten und konzentriert sich auf Einfachheit, Anpassung und effiziente Zusammenarbeit von Human-Agent.
- IOA: Ein Open-Source-Framework für kollaborative KI-Agenten, die die Vielfalt ermöglichen, verteilte Agenten, um komplexe Aufgaben durch internetähnliche Konnektivität zu verbinden und zu bekämpfen.
- Lama-Agentic-System: Agentenkomponenten der Lama-Stack-Apis.
- Agent Zero: Agent Zero ist kein vordefinierter Agent -Framework.
- Agenten: Ein Open-Source-Framework für datenorientierte, sich selbst entwickelnde autonome Sprachmittel.
- AgentScope: Bauen Sie mit LLM-Multi-Agent-Anwendungen auf einfachere Weise.
- FASTAGENCY: Der schnellste Weg, um Multi-Agent-Workflows in die Produktion zu bringen.
- SWARM: Rahmen für den Aufbau, die Orchestrierung und Bereitstellung von Multi-Agent-Systemen.
- Agent-S: Ein offenes Agenten-Framework, das Computer wie ein Mensch verwendet.
↥ Zurück nach oben
Suchen
- OpenSearch GPT: SearchGPT / Verwirrigkeitsklon, aber für Sie personalisiert.
- MindSearch: Ein LLM-basierter Multi-Agent-Framework der Web-Suchmaschine (wie Verwirrung.ai Pro und SearchGPT).
- Nanoperplexityai: Die einfachste Open-Source-Implementierung von Verwirrung.ai.
- Neugier: Versuchen Sie, eine verwirrende Benutzererfahrung aufzubauen.
↥ Zurück nach oben
Bücher
- Großes Sprachmodell: Von Theorie zur Praxis
- "Großes Sprachmodell"
- "Hand-on Mockup Tauchgang in LLMs"
- "Hand-on-AI-Agent"
- Erstellen Sie ein großes Sprachmodell (von Grund auf neu)
- "Multimodales Modell"
- Generatives KI -Handbuch: Eine Roadmap zum Lernen von Ressourcen
- Tiefes Lernen verstehen
- "Illustriertes Buch zum Erlernen von Transformers & LLMs"
- Bauen von LLMs für die Produktion: Verbesserung der LLM-Fähigkeiten und -vertrauungen durch Aufforderung, Feinabstimmung und Lappen
- "Praktischer Leitfaden für große Sprachmodelle: Anwendungspraxis und Szenario -Implementierung"
- "Praktische großsprachige Modelle"
- Verarbeitung natürlicher Sprache: Große Modelltheorie und -praxis
- "Hand-on Learning Destrocy Lernen"
- "Einführung in LLM für Entwickler"
- "Grundmodell"
↥ Zurück nach oben
Kurs
LLM Resources Hub
- Stanford CS224N: Verarbeitung natürlicher Sprache mit tiefem Lernen
- NG: Generative KI für alle
- NG: LLM -Reihe von Kursen
- ACL 2023 Tutorial: Retrieval-basierte Sprachmodelle und Anwendungen
- LLM-Kurs: Kurs, um in Großsprachmodelle (LLMs) mit Roadmaps und Colab-Notizbüchern einzusteigen.
- Microsoft: Generative KI für Anfänger
- Microsoft: Zustand der GPT
- Harmingface -NLP -Kurs
- Tsinghua nlp Liu Zhiyuan Team Big Model Open Class
- Stanford CS25: Transformers United V4
- Stanford CS324: Großsprachige Modelle
- Princeton COS 597G (Herbst 2022): Verständnis von großer Sprachmodellen
- Johns Hopkins CS 601.471/671 NLP: Selbstbewertete Modelle
- Li Hongyi Genai Kurs
- OpenAI-COOKBOOK: Beispiele und Richtlinien für die Verwendung der OpenAI-API.
- Hände on LLMs: Erfahren Sie kostenlos über LLM, LLMOPS und Vector DBS, indem Sie ein Echtzeit-Finanzberater LLM-System entwerfen, schulen und einsetzen.
- University of Waterloo CS 886: Aktuelle Fortgeschrittene zu Foundation -Modellen
- Mistral: Erste Schritte mit Mistral
- Stanford CS25: Transformers United V4
- Coursera: Chatgpt -Anwendung Eingabeaufforderung Projekt
- Langgpt: Ermächtigt alle, ein schneller Experte zu werden!
- Mistralai-Cookbook
- Einführung in die generative AI 2024 Frühling
- Erstellen Sie Nanogpt: Video+Code -Lektion zum Erstellen von Nanogpt von Grund auf neu.
- LLM101N: Lassen Sie uns einen Geschichtenerzähler bauen.
- Wissensgrafiken für Lappen
- LLMs von Grund auf (Datawhale -Version)
- Openrag
- Der Weg nach Agi
- Andrej Karpathy - Neuronale Netze: Null zu Helden
- Interaktive Visualisierung des Transformators
- Andysingal/LLM-Kurs
- LM-Klasse
- Google Advanced: Generative KI für Entwickler Lernweg
- Anthropics: Umkämpftes technisches interaktives Tutorial
- Llmsbook
- Großsprachenmodellagenten
- Cohere LLM Universität
- LLMs und Transformatoren
- SMOL Vision: Rezepte zum Schrumpfen, Optimieren, Anpassung in modernster Sichtmodelle.
- Multimodaler Lappen: Chat mit Videos
- LLMS -Interview Hinweis
- RAG ++: Von POC bis Produktion: Fortgeschrittener Rag -Kurs.
- Gewichte & Vorurteile AI Academy: Finetuning, Bauen mit LLMs, strukturierten Outputs und mehr LLM -Kursen.
- Tutorials und Ressourcen für Ingenieurwesen und KI
- Lernen Sie Lappen von Grund auf - Python AI Tutorial von einem Langchain -Ingenieur
- LLM -Bewertung: Ein vollständiger Kurs
↥ Zurück nach oben
Tutorial
- Lernen Sie die Entwicklung großer Modellanwendungen kennen
- AI -Entwicklerkanal
- B Station: Wulidun Teehaus
- B Station: Cheney Muyu
- YTB: Ai jederzeit
- B Station: Qi Nini
- Schnelltechnik Guide
- YTB: AI Super Metamorphose
- B Station: Techbeat Artificial Intelligence Community
- B Station: Huang Yihe
- B Station: Deep Learning Natural Sprachverarbeitung
- LLM -Visualisierung
- Zhihu: Rohstein Mensch
- B Station: Xiao Heihei spricht über KI
- Station B: Fahrzeugingenieur vor der Wand
- B Station: AI -Veteran Wenzhe
- Großsprachige Modelle (LLMs) mit Colab -Notizbüchern
- YTB: IBM -Technologie
- YTB: Lesungspapiergruppe vereinheitlichen
- Chip Huyen
- Wie viel VRAM
- Blog: Wissenschaftsraum (Su Jianlin)
- Ytb: Hyung gewann Chung
- Blog: Tejaswi Kashyap
- Blog: Xiaoshgs Blog
- Zhihu: Ybq
- W & B -Artikel
- Umarmungsface -Blog
- Blog: GBYAI
- Blog: Mlabonne
- LLM-Action
- Blog: lil'log (oponai)
↥ Zurück nach oben
Papier
Notiz
Daily Papers, coole Papiere, erklärten ML -Papiere
- Hermes-3-Technik-Report
- Die Lama 3 -Herde von Models
- QWEN Technischer Bericht
- QWEN2 Technischer Bericht
- Qwen2-vl-technischer Bericht
- Deepseek LLM: Skalierung von Open-Source-Sprachmodellen mit Langzeitismus
- Deepseek-V2: Ein starkes, wirtschaftliches und effizientes Sprachmodell der Expertenmischung
- Baichuan 2: Öffnen Sie groß angelegte Sprachmodelle
- Datacomp-LM: Auf der Suche nach der nächsten Generation von Trainingssätzen für Sprachmodelle
- Olmo: Beschleunigung der Wissenschaft der Sprachmodelle
- Map-Neo: Hochfächtige und transparente zweisprachige Großsprachenmodellserie
- Chinesische winzige LLM: Vorab ein chinesisch-zentriertes Großsprachmodell
- PHI-3-technischer Bericht: Ein sehr fähiges Sprachmodell vor Ort auf Ihrem Telefon
- Jamba-1.5: Hybridtransformatormamba-Modelle im Maßstab
- Jamba: Ein hybrides Transformator-Mamba-Sprachmodell
- Lehrbücher sind alles was Sie brauchen
-
data
- OLMOE: Open-Of-Experten-Sprachmodelle
- Modellverschmelzpapier
- Baichuan-Omni Technischer Bericht
- 1,5-Pints Technischer Bericht: Vorbetrag in Tagen, nicht Monaten-Ihr Sprachmodell lebt von Qualitätsdaten
- Technischer Bericht aus Baichuan -Ausrichtung
- Hunyuan-Large: Ein Open-Source-MOE-Modell mit 52 Milliarden aktivierten Parametern von Tencent
- Molmo und Pixmo: Öffnen und offene Daten für hochmoderne multimodale Modelle
- Tülu 3: Grenzen im offenen Sprachmodell nach dem Training drücken
↥ Zurück nach oben
Tipps
- Was wir aus einem Jahr des Gebäudes mit LLMs gelernt haben (Teil I)
- Was wir aus einem Jahr des Gebäudes mit LLMs gelernt haben (Teil II)
- Was wir aus einem Jahr des Gebäudes mit LLMs (Teil III) gelernt haben: Strategie
- Einfach zu beginnen mit dem großen Sprachmodell (LLM)
- LLMs für die Textklassifizierung: Ein Leitfaden zum überwachten Lernen
- Unüberwachte Textklassifizierung: kategorisieren Sie die natürliche Sprache mit LLMs
- Textklassifizierung mit LLMs: Eine Zusammenfassung der besten Methoden
- LLM -Preisgestaltung
- Unensur jeder LLM mit Abstraktion unzusammenhängend
- Winziges LLM -Universum
- Null-Chatgpt
- Zero-Qwen-VL
- Finetune-Qwen2-VL
- MPP-Llava
- Build_Minillm_From_Scratch
- Tiny LLM
- Minimind: 3 Stunden Training Ein kleiner Parameter -GPT mit nur 26 m, und mindestens 2G Grafikkarte ist erforderlich, um das Inferenztraining zu schließen.
- LLM-Reis: W ", widmet sich detailliertem Verständnis, Diskussion und Umsetzung verschiedener Technologien, Prinzipien und Anwendungen, die sich auf große Modelle beziehen
- Wissensdestillation: Lehre LLMs mit synthetischen Daten unterrichten
- Teil 1: Methoden zur Anpassung großer Sprachmodelle
- Teil 2: Fein ab Stimmen oder nicht zu optimieren
- Teil 3: Wie man feinstimmen: Konzentrieren Sie sich auf effektive Datensätze
- Leser-LM: kleine Sprachmodelle zum Reinigen und Konvertieren von HTML in Markdown
- LLMS -Anwendungskonstruktionserfahrung für ein Jahr
- LLM-Trainingsiegel
- Pytorch-Llama: Lama 2 in Pytorch von Grund auf neu implementiert.
- Präferenzoptimierung für Visionsprachmodelle mit TRL 【Support Model】
- Feinabstimmung visuelle Sprachmodelle mit SftTrainer 【Dokumenten】
- Eine visuelle Anleitung zur Mischung von Experten (MOE)
- Rollenspiel in großsprachigen Modellen wie Chatgpt
- Distributed Training Guide: Best Practices & Guides zum Schreiben von verteilten Pytorch -Trainingscode.
- Chat -Vorlagen
- Top 20+ Rag -Interviewfragen
↥ Zurück nach oben
Wenn Sie dieses Projekt für Sie hilfreich finden, zitieren Sie bitte:
@misc { wang2024llm ,
title = { awesome-LLM-resourses } ,
author = { Rongsheng Wang } ,
year = { 2024 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/WangRongsheng/awesome-LLM-resourses} } ,
}