Tolle Feinabstimmung der LLMs
Willkommen in der kuratierten Sammlung von Ressourcen zur Feinabstimmung von Large Language Models (LLMs) wie GPT, BERT, RoBERTa und ihren zahlreichen Varianten! Im Zeitalter der künstlichen Intelligenz ist die Fähigkeit, vorab trainierte Modelle an bestimmte Aufgaben und Bereiche anzupassen, zu einer unverzichtbaren Fähigkeit für Forscher, Datenwissenschaftler und Praktiker des maschinellen Lernens geworden.
Große Sprachmodelle, die auf riesigen Datensätzen trainiert werden, erfassen ein umfangreiches Spektrum an Wissen und sprachlichen Nuancen. Um jedoch ihr volles Potenzial in bestimmten Anwendungen auszuschöpfen, ist ihre Feinabstimmung auf gezielte Datensätze von größter Bedeutung. Dieser Prozess verbessert nicht nur die Leistung der Modelle, sondern stellt auch sicher, dass sie an den jeweiligen Kontext, die Terminologie und die Anforderungen der jeweiligen Aufgabe angepasst sind.
In dieser tollen Liste haben wir sorgfältig eine Reihe von Ressourcen zusammengestellt, darunter Tutorials, Dokumente, Tools, Frameworks und Best Practices, um Sie bei Ihrer Feinabstimmung zu unterstützen. Egal, ob Sie ein erfahrener Praktiker sind, der sein Fachwissen erweitern möchte, oder ein Anfänger, der in die Welt der LLMs einsteigen möchte, dieses Repository soll wertvolle Einblicke und Richtlinien zur Optimierung Ihrer Bemühungen bieten.
Inhaltsverzeichnis
- GitHub-Projekte
- Artikel und Blogs
- Online-Kurse
- Bücher
- Forschungsarbeiten
- Videos
- Tools und Software
- Konferenzen und Veranstaltungen
- Folien und Präsentationen
- Podcasts
GitHub-Projekte
- LlamaIndex?: Ein Datenframework für Ihre LLM-Anwendungen. (23010 Sterne)
- Blütenblätter?: Führen Sie LLMs zu Hause aus, im BitTorrent-Stil. Feinabstimmung und Schlussfolgerung bis zu 10x schneller als Offloading. (7768 Sterne)
- LLaMA-Factory: Ein benutzerfreundliches LLM-Feinabstimmungs-Framework (LLaMA-2, BLOOM, Falcon, Baichuan, Qwen, ChatGLM3). (5532 Sterne)
- lit-gpt: Hackbare Implementierung modernster Open-Source-LLMs auf Basis von nanoGPT. Unterstützt Flash-Aufmerksamkeit, 4-Bit- und 8-Bit-Quantisierung, LoRA- und LLaMA-Adapter-Feinabstimmung, Vortraining. Apache 2.0-lizenziert. (3469 Sterne)
- H2O LLM Studio: Ein Framework und eine No-Code-GUI zur Feinabstimmung von LLMs. Dokumentation: https://h2oai.github.io/h2o-llmstudio/ (2880 Sterne)
- Phoenix: AI Observability & Evaluation – Bewerten, beheben und verfeinern Sie Ihre LLM-, CV- und NLP-Modelle in einem Notebook. (1596 Sterne)
- LLM-Adapter: Code für das EMNLP 2023-Papier: „LLM-Adapter: Eine Adapterfamilie zur Parameter-effizienten Feinabstimmung großer Sprachmodelle“. (769 Sterne)
- Platypus: Code zur Feinabstimmung von LLMs der Platypus-Familie mithilfe von LoRA. (589 Sterne)
- xtuner: Ein Toolkit zur effizienten Feinabstimmung von LLM (InternLM, Llama, Baichuan, QWen, ChatGLM2). (540 Sterne)
- DB-GPT-Hub: Ein Repository, das Modelle, Datensätze und Feinabstimmungstechniken für DB-GPT enthält, mit dem Ziel, die Modellleistung, insbesondere in Text-to-SQL, zu verbessern und eine höhere Ausführungsgenauigkeit als GPT-4 zu erreichen Spider Eval mit 13B LLM hat dieses Projekt verwendet. (422 Sterne)
- LLM-Finetuning-Hub: Repository, das LLM-Feinabstimmungs- und Bereitstellungsskripte sowie unsere Forschungsergebnisse enthält. 416
- Finetune_LLMs: Repo zur Feinabstimmung von Casual LLMs. 391
- MFTCoder: Multitasking-Feinabstimmungs-Framework mit hoher Genauigkeit und Effizienz für Code-LLMs; 业内首个高精度, 高效率, 多任务, 多模型支持, 多训练算法, 大模型代码能力微调框架. 337
- llmware: Bereitstellung eines LLM-basierten Entwicklungsframeworks, von Tools und fein abgestimmten Modellen für Unternehmen. 289
- LLM-Kit: Integrierte WebUI-Plattform für die neuesten LLMs | 各大语言模型的全流程工具 WebUI整合包.支持主流大模型API接口和开源模型。支持知识库,数据库,角色扮演, mj文生图,LoRA和全参数微调,数据集制作,live2d等全流程应用工具. 232
- h2o-wizardlm: Open-Source-Implementierung von WizardLM, um Dokumente in Q:A-Paare für die LLM-Feinabstimmung umzuwandeln. 228
- hcgf: Humanable Chat Generative-Modell-Feinabstimmung | LLM-Studiengang. 196
- llm_qlora: Feinabstimmung von LLMs mit QLoRA. 136
- awesome-llm-human-preference-datasets: Eine kuratierte Liste menschlicher Präferenzdatensätze für LLM-Feinabstimmung, RLHF und Evaluierung. 124
- llm_finetuning: Praktischer Wrapper zur Feinabstimmung und Inferenz von Large Language Models (LLMs) mit mehreren Quantisierungstechniken (GTPQ, Bitsandbytes). 114
Artikel und Blogs
- Feinabstimmung von LLMs im Jahr 2024 mit Hugging Face: TRL und Flash Attention ?: Dieser Blogbeitrag bietet eine umfassende Anleitung zur Feinabstimmung von LLMs (z. B. Llama 2) mithilfe von Hugging Face TRL und Flash Attention auf GPUs in Consumer-Größe (24 GB).
- Vollständiger Leitfaden zur LLM-Feinabstimmung für Anfänger: Ein umfassender Leitfaden, der den Prozess der Feinabstimmung eines vorab trainierten Modells für neue Aufgaben erklärt, Schlüsselkonzepte abdeckt und ein konkretes Beispiel liefert.
- Feinabstimmung großer Sprachmodelle (LLMs): Dieser Blogbeitrag bietet einen Überblick über die Feinabstimmung vorab trainierter LLMs, bespricht wichtige Konzepte und liefert ein praktisches Beispiel mit Python-Code.
- Erstellen eines Domänenexperten-LLM: Ein Leitfaden zur Feinabstimmung: Ein Artikel, der sich mit dem Konzept der Feinabstimmung mithilfe der OpenAI-API befasst und ein Beispiel für die Feinabstimmung eines großen Sprachmodells zum Verständnis der Handlung einer Händel-Oper zeigt.
- Ein Leitfaden für Anfänger zur LLM-Feinabstimmung?: Ein Leitfaden, der den Prozess der Feinabstimmung von LLMs behandelt, einschließlich der Verwendung von Tools wie QLoRA zur Konfiguration und Feinabstimmung von Modellen.
- Wissensgraphen und LLMs: Feinabstimmung vs. Retrieval-Augmented Generation: Dieser Blogbeitrag untersucht die Einschränkungen von LLMs und bietet Einblicke in deren Feinabstimmung in Verbindung mit Wissensgraphen.
- Optimieren Sie ein LLM anhand Ihrer persönlichen Daten: Erstellen Sie einen „Der Herr der Ringe“-Geschichtenerzähler ✏️: Ein Artikel, der zeigt, wie Sie Ihr eigenes LLM anhand persönlicher Daten trainieren und so die Kontrolle über persönliche Informationen erhalten, ohne sich auf OpenAIs GPT-4 verlassen zu müssen.
- Feinabstimmung eines LLM-Modells mit H2O LLM Studio zur Generierung von Cypher-Anweisungen?: Dieser Blogbeitrag bietet ein Beispiel für die Feinabstimmung eines LLM-Modells mithilfe von H2O LLM Studio zur Generierung von Cypher-Anweisungen und ermöglicht Chatbot-Anwendungen mit Wissensgraphen.
- Optimieren Sie Ihr eigenes Llama 2-Modell in einem Colab-Notizbuch: Eine praktische Einführung in die LLM-Feinabstimmung und demonstrieren, wie Sie es in einem Google Colab-Notizbuch implementieren, um Ihr eigenes Llama 2-Modell zu erstellen.
- Denken Sie über die Feinabstimmung eines LLM nach? Hier sind drei Überlegungen, bevor Sie beginnen: In diesem Artikel werden drei Ideen besprochen, die Sie bei der Feinabstimmung von LLMs berücksichtigen sollten, darunter Möglichkeiten zur Verbesserung von GPT über PEFT und LoRA hinaus und die Bedeutung einer klugen Ressourceninvestition.
- Einführung in LLMs und die generative KI: Teil 3 – Feinabstimmung von LLM mit Anleitung: Dieser Artikel untersucht die Rolle von LLMs in Anwendungen der künstlichen Intelligenz und bietet einen Überblick über deren Feinabstimmung.
- RAG vs. Finetuning – welches das beste Tool ist, um Ihre LLM-Anwendung zu verbessern – Ein Blogbeitrag, in dem die Aspekte erörtert werden, die bei der Erstellung von LLM-Anwendungen und der Auswahl der richtigen Methode für Ihren Anwendungsfall zu berücksichtigen sind. ?
- Feinabstimmung eines LLM: RLHF und Alternativen (Teil I) – Ein Artikel, der alternative Methoden zu RLHF vorstellt, insbesondere Direct Preference Optimization (DPO).
- Wann sollten Sie LLMs optimieren? - Untersuchung des Vergleichs zwischen der Feinabstimmung von Open-Source-LLMs und der Verwendung einer geschlossenen API für LLM-Abfragen im großen Maßstab. ?
- Feinabstimmung großer Sprachmodelle – Betrachtung der Feinabstimmung großer Sprachmodelle und Vergleich mit Null- und Wenig-Schuss-Ansätzen.
- Private GPT: Feinabstimmung von LLM auf Unternehmensdaten – Erkundung von Trainingstechniken, die eine Feinabstimmung von LLMs auf kleineren GPUs ermöglichen.
- Feinabstimmung von Google PaLM 2 mit Scikit-LLM – Demonstration der Feinabstimmung von Google PaLM 2, dem fortschrittlichsten LLM von Google, mit Scikit-LLM. ?
- Ein tiefer Einblick in die Feinabstimmung großer Sprachmodelle – Ein umfassender Blog über die Feinabstimmung von LLMs wie GPT-4 und BERT, der Einblicke, Trends und Vorteile bietet.
- Vortraining, Feinabstimmung und kontextbezogenes Lernen in großen Sprachmodellen – Diskussion der Konzepte von Vortraining, Feinabstimmung und kontextbezogenem Lernen in LLMs.
- Liste fein abgestimmter Open-Source-LLMs für große Sprachen – Eine kuratierte Liste fein abgestimmter Open-Source-LLMs, die lokal auf Ihrem Computer ausgeführt werden können. ?
- Leitfaden für Praktiker zur Feinabstimmung von LLMs für domänenspezifische Anwendungsfälle – Ein Leitfaden mit wichtigen Erkenntnissen und Schlussfolgerungen zur Feinabstimmung von LLMs für domänenspezifische Anwendungsfälle.
- Feinabstimmung von Llama 3.1 mit einem Produktions-Stack auf AWS, GCP oder Azure – Eine Anleitung und ein Tutorial zur Feinabstimmung von Llama 3.1 (oder Phi 3.5) in einem Produktions-Setup, das für MLOps-Best Practices entwickelt wurde. ?
Online-Kurse
- Feinabstimmung der Grundlagen: Das Potenzial von LLMs erschließen | Udemy: Ein praktischer Kurs für Anfänger zum Erstellen von Modellen im ChatGPT-Stil und deren Anpassung für bestimmte Anwendungsfälle.
- Generative KI mit großen Sprachmodellen | Coursera: Lernen Sie die Grundlagen der generativen KI mit LLMs und wie Sie diese in praktischen Anwendungen einsetzen können. Melden Sie sich kostenlos an.
- Große Sprachmodelle: Anwendung durch Produktion | edX: Ein Fortgeschrittenenkurs für Entwickler, Datenwissenschaftler und Ingenieure, um LLM-zentrierte Anwendungen mit gängigen Frameworks zu erstellen und eine durchgängige Produktionsbereitschaft zu erreichen.
- Feinabstimmung großer Sprachmodelle | Geführtes Coursera-Projekt: Ein kurzes geführtes Projekt, das wesentliche Feinabstimmungskonzepte und das Training großer Sprachmodelle behandelt.
- OpenAI- und ChatGPT-APIs: Experten-Feinabstimmung für Entwickler | Udemy: Entdecken Sie die Leistungsfähigkeit von GPT-3 bei der Erstellung von Konversations-KI-Lösungen, einschließlich Themen wie Prompt Engineering, Feinabstimmung, Integration und Bereitstellung von ChatGPT-Modellen.
- Professionelles Zertifikat für große Sprachmodelle | edX: Erfahren Sie, wie Sie auf Large Language Model (LLM) basierende Anwendungen mithilfe der neuesten Frameworks, Techniken und Theorien hinter Basismodellen erstellen und produzieren.
- Verbessern Sie die Leistung Ihres LLM über die Feinabstimmung hinaus | Udemy: Ein Kurs für Führungskräfte und Entwickler, die an der Feinabstimmung von LLM-Modellen und der Erforschung von Techniken zur Verbesserung ihrer Leistung interessiert sind.
- Einführung in große Sprachmodelle | Coursera: Ein von Google Cloud angebotener Mikro-Lernkurs auf Einführungsniveau, der die Grundlagen von Large Language Models (LLMs) und ihre Anwendungsfälle erklärt. Melden Sie sich kostenlos an.
- Lehrplan | LLM101x | edX: Erfahren Sie, wie Sie Dateneinbettungen und Vektordatenbanken verwenden und LLMs mit domänenspezifischen Daten optimieren, um LLM-Pipelines zu erweitern.
- Meisterklasse für Leistungsoptimierung von Deep-Learning-Modellen | Udemy: Ein Meisterkurs zur Optimierung von Deep-Learning-Modellen, der Techniken zur Beschleunigung des Lernens und zur Optimierung der Leistung behandelt.
- Beste LLM-Kurse (Large Language Models) und Zertifizierungen: Diese Auswahl an LLM-Kursen wurde von Top-Bildungseinrichtungen und Branchenführern zusammengestellt und zielt darauf ab, Einzelpersonen und Unternehmensteams, die ihre Fähigkeiten zur Feinabstimmung von LLMs erlernen oder verbessern möchten, qualitativ hochwertige Schulungen anzubieten.
- Sprachmodelle beherrschen: Die Kraft von LLMs freisetzen: In diesem umfassenden Kurs vertiefen Sie sich in die Grundprinzipien von NLP und erkunden, wie LLMs die Landschaft der KI-Anwendungen verändert haben. Ein umfassender Leitfaden für fortgeschrittene NLP- und LLM-Kurse.
- LLMs Mastery: Vollständiger Leitfaden zu Transformern und generativer KI: Dieser Kurs bietet einen großartigen Überblick über die KI-Geschichte und behandelt die Feinabstimmung der drei wichtigsten LLM-Modelle: BERT, GPT und T5. Geeignet für alle, die sich für generative KI, LLMs und Anwendungen auf Produktionsebene interessieren.
- Erkundung der Technologien hinter ChatGPT, GPT4 und LLMs: Der einzige Kurs, den Sie brauchen, um etwas über große Sprachmodelle wie ChatGPT, GPT4, BERT und mehr zu lernen. Gewinnen Sie Einblicke in die Technologien hinter diesen LLMs.
- Nichttechnische Einführung in große Sprachmodelle: Ein Überblick über große Sprachmodelle für nichttechnische Personen, der die bestehenden Herausforderungen erläutert und einfache Erklärungen ohne komplexen Fachjargon liefert.
- Große Sprachmodelle: Grundmodelle von Grund auf: Tauchen Sie ein in die Details von Grundmodellen in LLMs wie BERT, GPT und T5. Machen Sie sich mit den neuesten Fortschritten vertraut, die die LLM-Funktionalität verbessern.
Bücher
- Generative KI mit großen Sprachmodellen – Neuer praxisorientierter Kurs von Deeplearning.ai und AWS
- Ein praxisorientierter Kurs, der lehrt, wie man Large Language Models (LLMs) mithilfe von Belohnungsmodellen und Reinforcement Learning verfeinert, mit Schwerpunkt auf generativer KI.
- Von der Datenauswahl bis zur Feinabstimmung: Der technische Leitfaden zur Konstruktion von LLM-Modellen
- Ein technischer Leitfaden, der den Prozess der Erstellung von LLM-Modellen abdeckt, von der Datenauswahl bis zur Feinabstimmung.
- Das LLM Knowledge Cookbook: Von RAG über QLoRA bis hin zu Fine Tuning und allen Rezepten dazwischen!
- Ein umfassendes Kochbuch, das verschiedene LLM-Modelle untersucht, einschließlich Techniken wie Retrieve and Generate (RAG) und Query Language Representation (QLoRA) sowie den Feinabstimmungsprozess.
- Grundsätze zur Feinabstimmung von LLMs
- Ein Artikel, der den Prozess der Feinabstimmung von LLMs entmystifiziert und verschiedene Techniken untersucht, wie zum Beispiel kontextbezogenes Lernen, klassische Feinabstimmungsmethoden, Parameter-effiziente Feinabstimmung und Reinforcement Learning with Human Feedback (RLHF).
- Von der Datenauswahl bis zur Feinabstimmung: Der technische Leitfaden zur Konstruktion von LLM-Modellen
- Ein technischer Leitfaden, der Einblicke in den Aufbau und das Training großer Sprachmodelle (LLMs) bietet.
- Praktische große Sprachmodelle
- Ein Buch, das die Fortschritte bei Sprach-KI-Systemen durch Deep Learning behandelt und sich dabei auf große Sprachmodelle konzentriert.
- Optimieren Sie Llama 2 für die Textgenerierung auf Amazon SageMaker JumpStart
- Erfahren Sie, wie Sie Llama 2-Modelle mit Amazon SageMaker JumpStart für eine optimierte Dialoggenerierung optimieren.
- Schnelle und kostengünstige Feinabstimmung von LLaMA 2 mit AWS Trainium
- Ein Blogbeitrag, der erklärt, wie man mit AWS Trainium eine schnelle und kostengünstige Feinabstimmung von LLaMA 2-Modellen erreicht.
- Feinabstimmung – Fortgeschrittenes Deep Learning mit Python [Buch]: Ein Buch, das die Feinabstimmungsaufgabe im Anschluss an die Vorschulungsaufgabe im fortgeschrittenen Deep Learning mit Python untersucht.
- Das LLM Knowledge Cookbook: From, RAG, to QLoRA, to Fine ...: Ein umfassender Leitfaden zur Verwendung großer Sprachmodelle (LLMs) für verschiedene Aufgaben, der alles von den Grundlagen bis hin zu fortgeschrittenen Feinabstimmungstechniken abdeckt.
- Kurzanleitung zu großen Sprachmodellen: Strategien und Best ...: Ein Leitfaden, der sich auf Strategien und Best Practices für große Sprachmodelle (LLMs) wie BERT, T5 und ChatGPT konzentriert und deren beispiellose Leistung bei verschiedenen NLP-Aufgaben demonstriert.
- 4. Fortgeschrittene GPT-4- und ChatGPT-Techniken – Apps entwickeln ...: Ein Kapitel, das sich mit fortgeschrittenen Techniken für GPT-4 und ChatGPT befasst, einschließlich Prompt Engineering, Zero-Shot-Learning, Fow-Shot-Learning und aufgabenspezifische Fein- Tuning.
- Was sind große Sprachmodelle? - LLM AI erklärt - AWS: Eine Erklärung großer Sprachmodelle (LLMs), in der die Konzepte des Wenig-Schuss-Lernens und der Feinabstimmung zur Verbesserung der Modellleistung erörtert werden.
Forschungsarbeiten
- LLM-Adapter: Eine Adapterfamilie für die Parameter-effiziente Feinabstimmung?: In diesem Artikel werden LLM-Adapter vorgestellt, ein benutzerfreundliches Framework, das verschiedene Adapter in LLMs zur Parameter-effizienten Feinabstimmung (PEFT) für verschiedene Aufgaben integriert.
- Zweistufige LLM-Feinabstimmung mit weniger Spezialisierung?: ProMoT, ein zweistufiges Feinabstimmungs-Framework, geht das Problem der Formatspezialisierung in LLMs durch Prompt Tuning mit MOdel Tuning an und verbessert so deren allgemeine kontextbezogene Lernleistung.
- Feinabstimmung großer Unternehmenssprachmodelle durch ontologisches Denken?: In diesem Artikel wird eine neurosymbolische Architektur vorgeschlagen, die große Sprachmodelle (LLMs) mit Enterprise Knowledge Graphs (EKGs) kombiniert, um eine domänenspezifische Feinabstimmung von LLMs zu erreichen.
- QLoRA: Effiziente Feinabstimmung quantisierter LLMs?: QLoRA ist ein effizienter Feinabstimmungsansatz, der die Speichernutzung reduziert und gleichzeitig die Aufgabenleistung beibehält und Einblicke in quantisierte vorab trainierte Sprachmodelle bietet.
- Vollständige Parameter-Feinabstimmung für große Sprachmodelle mit begrenzten Ressourcen?: Diese Arbeit stellt LOMO vor, eine Optimierungstechnik mit geringem Speicherbedarf, die die vollständige Parameter-Feinabstimmung großer LLMs mit begrenzten GPU-Ressourcen ermöglicht.
- LoRA: Low-Rank-Anpassung großer Sprachmodelle?: LoRA schlägt eine Methode vor, um große vorab trainierte Modelle an bestimmte Aufgaben anzupassen, indem trainierbare Rangzerlegungsmatrizen in jede Schicht eingefügt werden, wodurch die Anzahl der trainierbaren Parameter reduziert und gleichzeitig die Modellqualität beibehalten wird.
- Verbesserung von LLM durch evolutionäre Feinabstimmung für die Erstellung von Nachrichtenzusammenfassungen?: In diesem Artikel wird ein neues Paradigma für die Erstellung von Nachrichtenzusammenfassungen mithilfe von LLMs vorgestellt, das genetische Algorithmen und leistungsstarke Fähigkeiten zum Verstehen natürlicher Sprache umfasst.
- Wie beeinflussen sich Sprachen gegenseitig? Untersuchung des sprachübergreifenden Datenaustauschs während der Feinabstimmung von LLM?: Diese Studie untersucht den sprachübergreifenden Datenaustausch während der Feinabstimmung mehrsprachiger großer Sprachmodelle (MLLMs) und analysiert den Einfluss verschiedener Sprachen auf die Modellleistung.
- Feinabstimmung von Sprachmodellen mit Just Forward Passes?: MeZO, ein speichereffizienter Optimierer nullter Ordnung, ermöglicht die Feinabstimmung großer Sprachmodelle und reduziert gleichzeitig den Speicherbedarf erheblich.
- Lernen, über Szenendiagramme zu argumentieren: Eine Fallstudie zur Feinabstimmung von LLMs?: Diese Arbeit untersucht die Anwendbarkeit von GPT-2-LLMs in der Roboter-Aufgabenplanung und demonstriert das Potenzial für den Einsatz von LLMs in Aufgabenplanungsszenarien mit langem Horizont.
- Private Feinabstimmung großer Sprachmodelle mit: In diesem Artikel wird die Anwendung der differenziellen Privatsphäre untersucht, um Datenschutzgarantien zur Feinabstimmung großer Sprachmodelle (LLMs) hinzuzufügen.
- DISC-LawLLM: Feinabstimmung großer Sprachmodelle für intelligente Rechtssysteme: In diesem Artikel wird DISC-LawLLM vorgestellt, ein intelligentes Rechtssystem, das fein abgestimmte LLMs mit juristischer Argumentationsfähigkeit nutzt, um eine breite Palette von Rechtsdienstleistungen bereitzustellen.
- Multi-Task-Anweisungsoptimierung von LLaMa für bestimmte Szenarien: A: Der Artikel untersucht die Wirksamkeit der Feinabstimmung von LLaMa, einem grundlegenden LLM, auf bestimmte Schreibaufgaben und zeigt eine signifikante Verbesserung der Schreibfähigkeiten.
- Sprachmodelle trainieren, um Anweisungen mit menschlichem Feedback zu befolgen: In diesem Artikel wird eine Methode vorgeschlagen, um Sprachmodelle an die Absicht des Benutzers anzupassen, indem sie mithilfe menschlichen Feedbacks optimiert werden. Dies führt dazu, dass Modelle bei menschlichen Bewertungen größeren Modellen vorgezogen werden.
- Große Sprachmodelle können sich selbst verbessern: Das Papier zeigt, dass LLMs ihre Denkfähigkeiten durch Feinabstimmung mithilfe selbst generierter Lösungen selbst verbessern und so eine Leistung auf dem neuesten Stand der Technik ohne Ground-Truth-Labels erzielen können.
- Nutzung großer Sprachmodelle für medizinische Anwendungen: Dieses Papier beleuchtet das Potenzial fein abgestimmter LLMs in medizinischen Anwendungen, die die diagnostische Genauigkeit verbessern und die klinische Entscheidungsfindung unterstützen.
- Skalierung von durch Anweisungen fein abgestimmten Sprachmodellen: Der Artikel untersucht die Feinabstimmung von Anweisungen auf LLMs und demonstriert signifikante Verbesserungen der Leistung und der Verallgemeinerung auf unbekannte Aufgaben.
- Föderierte Feinabstimmung milliardenschwerer Sprachmodelle: In dieser Arbeit wird FwdLLM vorgestellt, ein föderiertes Lernprotokoll, das die Effizienz der Feinabstimmung großer LLMs auf Mobilgeräten steigern und die Speicher- und Zeiteffizienz verbessern soll.
- Ein umfassender Überblick über große Sprachmodelle: Dieses Papier bietet einen Überblick über die Entwicklung und Anwendungen großer Sprachmodelle und ihre Transferlernfähigkeiten.
- Feinabstimmung von Sprachmodellen, um zwischen Menschen eine Übereinstimmung zu finden: Der Artikel untersucht die Feinabstimmung eines großen LLM, um Konsensaussagen zu generieren, die die Zustimmung einer Gruppe von Menschen mit unterschiedlichen Meinungen maximieren.
Videos
- Einführung in große Sprachmodelle von Andrej Karpathy: Dies ist eine einstündige Einführung in große Sprachmodelle. Was sie sind, wohin sie führen, Vergleiche und Analogien zu heutigen Betriebssystemen und einige der sicherheitsbezogenen Herausforderungen dieses neuen Computerparadigmas.
- Feinabstimmung von Llama 2 an Ihrem eigenen Datensatz | Trainieren Sie ein LLM für Ihre ...: Erfahren Sie, wie Sie das Llama 2-Modell anhand eines benutzerdefinierten Datensatzes optimieren.
- Feinabstimmung von LLM mit QLoRA auf einer einzelnen GPU: Training von Falcon-7b auf ...: Dieses Video demonstriert den Feinabstimmungsprozess des Falcon 7b LLM mit QLoRA.
- Feinabstimmung eines LLM mit PEFT | Einführung in Large Language ...: Entdecken Sie, wie Sie ein LLM mithilfe von PEFT optimieren, einer Technik, die weniger Ressourcen erfordert.
- LLAMA-2 Open-Source-LLM: Benutzerdefinierte Feinabstimmung leicht gemacht auf einem ...: Eine Schritt-für-Schritt-Anleitung zur Feinabstimmung des LLama 2 LLM-Modells auf Ihrem benutzerdefinierten Datensatz.
- Neuer Kurs: Feinabstimmung großer Sprachmodelle – YouTube: Dieses Video stellt einen Kurs zur Feinabstimmung von LLMs vor, der Modellauswahl, Datenvorbereitung, Schulung und Bewertung abdeckt.
- F: So erstellen Sie einen Anweisungsdatensatz zur Feinabstimmung meines LLM ...: In diesem Tutorial erfahren Anfänger, wie man LLMs feinabstimmt, einschließlich wann, wie und warum.
- LLM-Modul 4: Feinabstimmung und Bewertung von LLMs | 4.13.1 Notebook ...: Eine Notebook-Demo zur Feinabstimmung und Bewertung von LLMs.
- Feinabstimmung/Anpassung/Anpassung von Google LLM – Erste Schritte ...: Beginnen Sie mit der Feinabstimmung des großen Sprachmodells PaLM 2 von Google anhand einer Schritt-für-Schritt-Anleitung.
- Vortraining vs. Feinabstimmung vs. kontextbezogenes Lernen von LLM (GPT-x ...: Ein ultimativer Leitfaden, der Vortraining, Feinabstimmung und kontextbezogenes Lernen von LLMs wie GPT-x erklärt.
- So optimieren Sie ein LLM mit einem PDF – Langchain-Tutorial – YouTube: Erfahren Sie, wie Sie das GPT-LLM von OpenAI für die Verarbeitung von PDF-Dokumenten mithilfe von Langchain und PDF-Bibliotheken optimieren.
- EasyTune Walkthrough – YouTube – Ein Walkthrough zur Feinabstimmung von LLM mit QLoRA auf einer einzelnen GPU mit Falcon-7b.
- Das Potenzial von ChatGPT-Lektionen in Training und Fine freisetzen ... – DER STUDENT präsentiert die Feinabstimmung von Anweisungen und das kontextbezogene Lernen von LLMs mit Symbolen.
- AI News: LLMs ohne Code erstellen! - YouTube - Maya Akim bespricht die fünf wichtigsten LLM-Feinabstimmungs-Anwendungsfälle, die Sie kennen müssen.
- Die fünf wichtigsten LLM-Feinabstimmungs-Anwendungsfälle, die Sie kennen müssen – YouTube – Ein ausführliches Video, das die fünf wichtigsten LLM-Feinabstimmungs-Anwendungsfälle hervorhebt, mit zusätzlichen Links zur weiteren Erkundung.
- clip2 llm emory – YouTube – Erfahren Sie, wie Sie Llama 2 anhand Ihres eigenen Datensatzes optimieren und ein LLM für Ihren spezifischen Anwendungsfall trainieren.
- Der EINFACHSTE Weg, LLAMA-v2 auf einem lokalen Computer zu optimieren! - YouTube – Eine Schritt-für-Schritt-Videoanleitung, die die einfachste, einfachste und schnellste Möglichkeit zur Feinabstimmung von LLAMA-v2 auf Ihrem lokalen Computer für einen benutzerdefinierten Datensatz zeigt.
- Schulung und Feinabstimmung von LLMs: Einführung – YouTube – Eine Einführung in die Schulung und Feinabstimmung von LLMs, einschließlich wichtiger Konzepte und der NeurIPS LLM Efficiency Challenge.
- Feinabstimmung von LLMs mit PEFT und LoRA – YouTube – Ein umfassendes Video, in dem erläutert wird, wie PEFT zur Feinabstimmung jedes GPT-Modells im Decoder-Stil verwendet werden kann, einschließlich der Grundlagen der LoRA-Feinabstimmung und des Hochladens.
- Erstellen und Kuratieren von Datensätzen für die Feinabstimmung von RLHF und LLM ... – Erfahren Sie mehr über das Erstellen und Kuratieren von Datensätzen für die Feinabstimmung von RLHF (Reinforcement Learning from Human Feedback) und LLM (Large Language Model), mit Sponsoring von Argilla.
- Feinabstimmung von LLM (OpenAI GPT) mit benutzerdefinierten Daten in Python – YouTube – Erfahren Sie, wie Sie LLM (OpenAI GPT) durch die Feinabstimmung mit einem benutzerdefinierten Datensatz erweitern können, um Fragen und Antworten, Zusammenfassungen und andere ChatGPT-ähnliche Funktionen bereitzustellen.
Tools und Software
- LLaMA Efficient Tuning: Einfach zu verwendendes LLM-Feinabstimmungs-Framework (LLaMA-2, BLOOM, Falcon).
- H2O LLM Studio: Framework und No-Code-GUI zur Feinabstimmung von LLMs.
- PEFT: Parametereffiziente Feinabstimmungsmethoden (PEFT) zur effizienten Anpassung vorab trainierter Sprachmodelle an nachgelagerte Anwendungen.
- ChatGPT-ähnliches Modell: Führen Sie ein schnelles ChatGPT-ähnliches Modell lokal auf Ihrem Gerät aus.
- Blütenblätter: Führen Sie große Sprachmodelle wie BLOOM-176B gemeinsam aus, sodass Sie einen kleinen Teil des Modells laden und mit anderen für Rückschlüsse oder Feinabstimmungen zusammenarbeiten können. ?
- NVIDIA NeMo: Ein Toolkit zum Erstellen hochmoderner Konversations-KI-Modelle, das speziell für Linux entwickelt wurde.
- H2O LLM Studio: Ein Framework und kein Code-GUI-Tool zur Feinabstimmung großer Sprachmodelle unter Windows. ?️
- Ludwig AI: Ein Low-Code-Framework zum Aufbau benutzerdefinierter LLMs und anderer tiefer neuronaler Netze. Trainieren Sie ganz einfach hochmoderne LLMs mit einer deklarativen YAML-Konfigurationsdatei. ?
- bert4torch: Eine elegante PyTorch-Implementierung von Transformatoren. Laden Sie verschiedene Open-Source-Gewichte für große Modelle zur Begründung und Feinabstimmung.
- Alpaca.cpp: Führen Sie ein schnelles ChatGPT-ähnliches Modell lokal auf Ihrem Gerät aus. Eine Kombination aus dem LLaMA-Grundlagenmodell und einer offenen Reproduktion des Stanford-Alpakas für eine durch Anleitung abgestimmte Feinabstimmung. ?
- promptfoo: Bewerten und vergleichen Sie LLM-Ausgaben, erkennen Sie Regressionen und verbessern Sie Eingabeaufforderungen mithilfe automatischer Auswertungen und repräsentativer Benutzereingaben.
Konferenzen und Veranstaltungen
- ML/KI-Gespräch: Neurosymbolische KI – eine Alternative zu LLM – Bei diesem Treffen werden die Erfahrungen mit der Feinabstimmung von LLMs besprochen und neurosymbolische KI als Alternative untersucht.
- AI Dev Day – Seattle, Mo, 30. Oktober 2023, 17:00 Uhr – Ein technischer Vortrag über effektive LLM-Beobachtbarkeit und Feinabstimmungsmöglichkeiten mithilfe der Vektorähnlichkeitssuche.
- DeepLearning.AI-Veranstaltungen – Eine Reihe von Veranstaltungen, darunter die Linderung von LLM-Halluzinationen, die Feinabstimmung von LLMs mit PyTorch 2.0 und ChatGPT sowie KI-Bildungsprogramme.
- AI Dev Day – New York, Do, 26. Oktober 2023, 17:30 Uhr – Tech-Vorträge über Best Practices in GenAI-Anwendungen und die Verwendung von LLMs für personalisierte Echtzeitbenachrichtigungen.
- Chat-LLMs und KI-Agenten – Nutzen Sie Gen AI zum Aufbau von KI-Systemen und -Agenten – Eine Veranstaltung mit Schwerpunkt auf LLMs, KI-Agenten und Kettendaten mit Möglichkeiten zur Interaktion über den Event-Chat.
- NYC AI/LLM/ChatGPT Developers Group – Regelmäßige Tech-Talks/Workshops für Entwickler, die sich für KI, LLMs, ChatGPT, NLP, ML, Daten usw. interessieren.
- Nutzung von LLMs für Unternehmensdaten, Di, 14. November 2023, 14:00 Uhr – Tauchen Sie ein in grundlegende LLM-Strategien, die auf nicht öffentliche Datenanwendungen zugeschnitten sind, einschließlich zeitnaher Entwicklung und Abfrage.
- Bellevue Applied Machine Learning Meetup – Ein Treffen, das sich auf angewandte Techniken des maschinellen Lernens und die Verbesserung der Fähigkeiten von Datenwissenschaftlern und ML-Praktikern konzentriert.
- AI & Prompt Engineering Meetup München, Do., 5. Okt. 2023, 18:15 – Stellen Sie H2O LLM Studio zur Feinabstimmung von LLMs vor und bringen Sie KI-Enthusiasten mit unterschiedlichem Hintergrund zusammen.
- Seattle AI/ML/Data Developers Group – Tech-Vorträge über die Bewertung von LLM-Agenten und das Erlernen von KI/ML/Daten durch die Praxis.
- Data Science Dojo – DC | Meetup: Dies ist eine in DC ansässige Meetup-Gruppe für Geschäftsleute, die daran interessiert sind, Datenwissenschaft zu lehren, zu lernen und Wissen und Verständnis auszutauschen.
- Finden Sie Data Science-Events und -Gruppen in Dubai, AE: Entdecken Sie Data Science-Events und -Gruppen in Dubai, AE, um mit Menschen in Kontakt zu treten, die Ihre Interessen teilen.
- KI-Treffen (persönlich): Generative KI und LLMs – Halloween-Ausgabe: Nehmen Sie an diesem KI-Treffen für einen Tech-Talk über generative KI und Large Language Models (LLMs) teil, einschließlich Open-Source-Tools und Best Practices.
- ChatGPT entfesselt: Live-Demo und Best Practices für NLP: Diese Online-Veranstaltung untersucht Feinabstimmungs-Hacks für große Sprachmodelle und stellt die praktischen Anwendungen von ChatGPT und LLMs vor.
- Finden Sie Data Science-Veranstaltungen und -Gruppen in Pune, IN: Entdecken Sie Online- oder persönliche Veranstaltungen und Gruppen zum Thema Data Science in Pune, IN.
- DC AI/ML/Data Developers Group | Meetup: Ziel dieser Gruppe ist es, KI-Enthusiasten im DC-Bereich zusammenzubringen, um KI-Technologien zu erlernen und zu üben, darunter KI, maschinelles Lernen, Deep Learning und Datenwissenschaft.
- Boston AI/LLMs/ChatGPT-Entwicklergruppe | Meetup: Treten Sie dieser Gruppe in Boston bei, um KI-Technologien wie LLMs, ChatGPT, maschinelles Lernen, Deep Learning und Data Science zu erlernen und zu üben.
- Paris NLP | Treffen: Dieses Treffen konzentriert sich auf Anwendungen der Verarbeitung natürlicher Sprache (NLP) in verschiedenen Bereichen und diskutiert Techniken, Forschung und Anwendungen sowohl traditioneller als auch moderner NLP-Ansätze.
- SF AI/LLMs/ChatGPT-Entwicklergruppe | Meetup: Treffen Sie KI-Enthusiasten in der Region San Francisco/Bay, um KI-Technologie zu erlernen und zu üben, darunter LLMs, ChatGPT, NLP, maschinelles Lernen, Deep Learning und Datenwissenschaft.
- KI-Treffen (persönlich): GenAI und LLMs für die Gesundheit: Nehmen Sie an diesem Tech-Talk über die Anwendung von LLMs im Gesundheitswesen teil und erfahren Sie mehr über schnelle Erfolge beim Einsatz von LLMs für gesundheitsbezogene Aufgaben.
Folien und Präsentationen
- Feinabstimmung großer LMs: Präsentation über den Prozess der Feinabstimmung großer Sprachmodelle wie GPT, BERT und RoBERTa.
- LLaMa 2.pptx: Folien zur Einführung von LLaMa 2, einem leistungsstarken Nachfolger eines großen Sprachmodells, der von Meta AI entwickelt wurde.
- LLM.pdf: Präsentation zur Untersuchung der Rolle von Transformern im NLP, von BERT bis GPT-3.
- Bootcamp für große Sprachmodelle: Bootcamp-Folien, die verschiedene Aspekte großer Sprachmodelle abdecken, einschließlich Training von Grund auf und Feinabstimmung.
- Der LHC erklärt von CNN: Folien, die den LHC (Large Hadron Collider) mithilfe von CNN und der Feinabstimmung von Bildmodellen erklären.
- Verwendung großer Sprachmodelle in 10 Codezeilen: Präsentation, die zeigt, wie man große Sprachmodelle in nur 10 Codezeilen verwendet.
- LLaMA-Adapter: Effiziente Feinabstimmung von Sprachmodellen mit Zero-Init-Aufmerksamkeit.pdf: Folien über LLaMA-Adapter, eine effiziente Technik zur Feinabstimmung von Sprachmodellen mit Zero-Init-Aufmerksamkeit.
- Einführung in LLMs: Präsentation mit einer Einführung in große Sprachmodelle, einschließlich Basismodellen und Feinabstimmung mit Prompt-Completion-Paaren.
- LLM Fine-Tuning (東大松尾研LLM講座 Day5資料) – Referentendeck: Folien für einen Vortrag über die Feinabstimmung großer Sprachmodelle, speziell für den 東大松尾研サマースクール2023.
- Automatisieren Sie Ihren Job und Ihr Geschäft mit ChatGPT Nr. 3: Präsentation, in der die Grundlagen von ChatGPT und seine Anwendungen für die Jobautomatisierung und Geschäftsaufgaben erörtert werden.
- Das Potenzial generativer KI freisetzen – Leitfaden für Führungskräfte.pdf – Ein Leitfaden, der den Prozess der Feinabstimmung von Large Language Models (LLMs) erläutert, um sie an die Anforderungen eines Unternehmens anzupassen.
- Feinabstimmung und Bereitstellung von Hugging Face NLP-Modellen | PPT – Eine Präsentation, die Einblicke in die Erstellung und Bereitstellung von LLM-Modellen mit Hugging Face NLP bietet.
- 大規模言語モデル時代のHuman-in-the-Loop機械学習 – Speaker Deck – Ein Foliendeck, in dem der Prozess der Feinabstimmung von Sprachmodellen diskutiert wird, um eine Einigung zwischen Menschen mit unterschiedlichen Vorlieben zu erzielen.
- KI- und ML-Reihe – Einführung in generative KI und LLMs | PPT – Eine Präsentation, die generative KI und LLMs vorstellt, einschließlich ihrer Verwendung in spezifischen Anwendungen.
- Retrieval Augmented Generation in der Praxis: Skalierbare GenAI ... – Eine Präsentation, in der Anwendungsfälle für generative KI, Einschränkungen großer Sprachmodelle sowie die Verwendung von Retrieval Augmented Generation (RAG) und Feinabstimmungstechniken erörtert werden.
- Abschluss der LLM-Präsentation | PPT – Eine Präsentation über den Child & Family Agency Act 2013 und das Best-Interest-Prinzip im Kontext von LLMs.
- LLM-Paradigmenanpassungen in Empfehlungssystemen.pdf – Ein PDF, das den Feinabstimmungsprozess und die objektiven Anpassungen in LLM-basierten Empfehlungssystemen erläutert.
- Konversations-KI mit Transformer-Modellen | PPT – Eine Präsentation, die die Verwendung von Transformer-Modellen in Konversations-KI-Anwendungen hervorhebt.
- Lama-Index | PPT – Eine Präsentation über den Aufstieg von LLMs und die Entwicklung LLM-gestützter Anwendungen.
- LLaMA-Adapter: Effiziente Feinabstimmung von Sprachmodellen mit Zero-Init-Aufmerksamkeit.pdf – Ein PDF, in dem die effiziente Feinabstimmung von Sprachmodellen mit Zero-Init-Aufmerksamkeit mithilfe von LLaMA erläutert wird.
Podcasts
- Praktische KI: Maschinelles Lernen, Datenwissenschaft – Künstliche Intelligenz praktisch, produktiv und für jedermann zugänglich machen. Beteiligen Sie sich an lebhaften Diskussionen über KI, maschinelles Lernen, Deep Learning, neuronale Netze und mehr. Zugängliche Einblicke und reale Szenarien sowohl für Anfänger als auch für erfahrene Praktiker.
- Gradient Dissent: Erforschung von maschinellem Lernen, KI und Deep Learning – Werfen Sie einen Blick hinter die Kulissen und erfahren Sie von Branchenführern, wie sie Deep Learning in realen Szenarien umsetzen. Gewinnen Sie Einblicke in die Branche für maschinelles Lernen und bleiben Sie mit den neuesten Trends auf dem Laufenden.
- Weaviate Podcast - Treten Sie Connor Shorten für die Weaviate Podcast -Serie mit Interviews mit Experten und Diskussionen zu KI -bezogenen Themen bei.
- Latent Space: Der AI Engineer -Podcast - Codegen, Agenten, Computer Vision, Data Science, AI UX und All Things Software 3.0 - Tauchen Sie in die Welt des AI -Engineerings ein und behandeln Themen wie Codegenerierung, Computer Vision, Data Science und die neuesten Fortschritte in ai ux.
- Unbeaufsichtigtes Lernen - Gewinnen Sie Einblicke in die sich schnell entwickelnde KI -Landschaft und ihre Auswirkungen auf Unternehmen und die Welt. Untersuchen Sie Diskussionen über LLM -Anwendungen, Trends und Störungstechnologien.
- Der Twiml AI -Podcast (früher in dieser Woche in maschinellem Lernen) - tauchen tief in Feinabstimmungsansätze ein, die in den Funktionen und Einschränkungen von AI, LLM verwendet werden, und lernen Sie von Experten auf diesem Gebiet.
- AI und die Zukunft der Arbeiten an Apple Podcasts: Ein von Sc Moatti veranstalteter Podcast über die Auswirkungen der KI auf die Zukunft der Arbeit.
- Praktische KI: Maschinelles Lernen, Datenwissenschaft: Feinabstimmung gegen Rag: Diese Episode untersucht den Vergleich zwischen Feinabstimmung und Abruf Augmented Generation in maschinellem Lernen und Datenwissenschaft.
- Unüberwachtes Lernen in Apple Podcasts: Episode 20 enthält ein Interview mit dem anthropischen CEO Dario Amodei über die Zukunft von Agi und KI.
- Papiere auf AI | Podcast on Spotify: Dieser Podcast hält Sie mit den neuesten Trends und am besten darstellenden Architekturen im Bereich der Informatik aktualisiert.
- Dieser Tag im AI-Podcast in Apple Podcasts: Dieser Podcast über verschiedene KI-bezogene Themen bietet aufregende Einblicke in die Welt der KI.
- Alles über die Bewertung von LLM -Anwendungen // Shahul es // #179 MLOPS: In dieser Episode teilt Shahul es sein Fachwissen zur Bewertung in Open -Source -Modellen, einschließlich Erkenntnissen in Debugging, Fehlerbehebung und Benchmarks.
- AI Daily on Apple Podcasts: Moderiert von Conner, Ethan und Farb, untersucht dieser Podcast faszinierende KI-bezogene Geschichten.
- Yannic Kilcher -Videos (nur Audio) | Podcast über Spotify: Yannic Kilcher diskutiert Forschungsarbeiten, Programmierungen und die breiteren Auswirkungen der KI in der Gesellschaft.
- WenigerWrong kuratierter Podcast | Podcast auf Spotify: Audioversion der Beiträge im weniger geschurlten Newsletter von Lesswrong.
- SAI: The Security and AI Podcast in Apple Podcasts: Eine Episode, die sich auf das Cybersecurity Grant -Programm von Openai konzentriert.
Diese erste Version der fantastischen Liste wurde mit Hilfe des Awesome List Generators generiert. Es handelt sich um ein Open-Source-Python-Paket, das die Leistung von GPT-Modellen verwendet, um die Ausgangspunkte für Ressourcenlisten in Bezug auf ein bestimmtes Thema automatisch zu kuratieren und zu generieren.