Willkommen im LLM Fine-Tuning and Evaluation Repository! ? Hier tauchen wir tief in die aufregende Welt des Großsprachmodells (LLM) ein, die sich auf hochmoderne Techniken konzentrieren, um Modelle wie Flan-T5 , Tinyllama und Aguila7b für verschiedene Aufgaben der natürlichen Sprachverarbeitung (NLP) anzupassen. ?
Da LLMs ein wesentlicher Bestandteil moderner KI-Anwendungen werden, war die Fähigkeit, diese Modelle effektiv zu optimieren und zu bewerten, nie wichtiger. Mit diesem Repository können Sie die Komplexität der Modellanpassung navigieren und Einblicke und praktische Instrumente zur Verbesserung der Leistung, Genauigkeit und ethischen Verantwortung Ihrer Modelle bieten.
Ob Sie an:
Dieses Repository bietet die Ressourcen, um Ihre Projekte auf die nächste Ebene zu erhöhen.
Ich möchte Santiago Hernández, einem Experten für Cybersicherheit und künstliche Intelligenz, meinen herzlichen Dank ausdehnen. Sein unglaublicher Kurs über Deep Learning und AI Generative, der bei Udemy erhältlich ist, war maßgeblich an der Gestaltung der Entwicklung dieses Projekts beteiligt.
Um umfassende Informationen zu diesem Projekt zu erhalten, lesen Sie diesen mittleren Artikel.
Wenn Sie loslegen, lesen Sie die Notizbücher für Schritt-für-Schritt-Anleitungen zur Feinabstimmung und Bewertung der Modell:
Instruction_Fine_Tuning_LLM_T5.ipynb
: Detaillierte Anweisungen zum Feinabstimmungsflan-T5 für die spanische Zusammenfassung.Evaluation_and_Analysis_T5_Familiy_LLMs.ipynb
: Erkenntnisse in die Bewertung und Analyse verschiedener T5 -Modelle. ?Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
: Erfahren Sie mehr über die Feinabstimmung mit Qlora für spezielle Aufgaben wie die Ausarbeitung von Rechtsdokumenten. ⚖️TinyLLAMA_PPO_RLHF_Avoiding_Offensive_Language.ipynb
: Erforschen Sie den Feinabstimmungsprozess von Tinyllama mit PPO und RLHF, um eine schädliche oder beleidigende Sprache zu vermeiden. ? EuenEvaluation_of_Fine_Tuned_Large_Language_Models_for_ILENIA.ipynb
: Evaluation von fein abgestimmten Modellen im Ilenia- Framework, einschließlich Aguila7b- und Latxa-Projekten. In dieser neuen Studie bestand das primäre Ziel darin, Tinyllama mithilfe von PPO-Techniken (Proximal Policy Optimization) in Kombination mit Verstärkungslernen aus menschlichem Feedback (RLHF) zu optimieren. Ziel ist es, die Fähigkeit des Modells zu verfeinern, eine schädliche, beleidigende oder giftige Sprache zu vermeiden und gleichzeitig die sinnvolle Inhaltsgenerierung zu erhalten.
Highlights der Studie:
Für ein umfassendes Verständnis der Methodik und der Ergebnisse finden Sie im Notizbuch: TinyLLAMA_PPO_RLHF_Avoiding_Offensive_Language.ipynb
.
Das Ilenia -Projekt ist Teil des strategischen Projekts Spaniens für wirtschaftliche Erholung und Transformation (PERTE) , das sich auf die Entwicklung mehrsprachiger Ressourcen für die neue Sprachwirtschaft (NEL) konzentriert. Diese Initiative unterstützt den Einsatz spanischer und anderer Amtssprachen, um das Wirtschaftswachstum und die internationale Wettbewerbsfähigkeit in Bereichen wie KI, Übersetzung und Bildung voranzutreiben.
Im Rahmen dieser Bemühungen bewerten wir LLMs aus den Aguila7b- und Latxa -Projekten, die für Text- und Sprachverarbeitungsaufgaben ausgelegt sind. Diese Bewertungen konzentrieren sich auf die Leistung der Modelle und stellen sicher, dass sie sich mit den gesellschaftlichen und technologischen Bedürfnissen entsprechen, insbesondere in mehrsprachigen und bringlichen Kontexten.
Schlüsselaspekte:
Für eine eingehende Analyse finden Sie im Notebook: Evaluation_of_Fine_Tuned_Large_Language_Models_for_ILENIA.ipynb
.
In der sich schnell entwickelnden Welt der natürlichen Sprachverarbeitung (NLP) ist die Nutzung von vorgeborenen Sprachmodellen für die Verbesserung der Leistung über verschiedene Aufgaben von entscheidender Bedeutung geworden. ? Unter diesen fällt die T5 -Modelsfamilie durch ihre Vielseitigkeit und Effektivität bei der Umstellung einer Reihe von Sprachaufgaben auf. Diese Studie befasst sich mit der Bewertung und Analyse von vorgeborenen T5-Modellen und konzentriert sich darauf, wie schnell Engineering und wenige Beispiele zur Feinabstimmung dieser Modelle verwendet werden können. ?
Die T5-Familie, einschließlich Modelle wie T5-Base, T5-Large und Flan-T5, hat beeindruckende Fähigkeiten in Bezug auf die Textgenerierung, die Beantwortung und die Beantwortung und die Übersetzung gezeigt. Es gibt jedoch immer Platz für die Optimierung. Die Feinabstimmung dieser Modelle mit einem schnellen Engineering-Entschlossenheit und Strukturieren von Eingabeaufforderungen-sowie nur wenige Schusslernen bietet eine leistungsstarke Methode, um ihre Leistung ohne umfangreiche Umschulung zu verbessern.
In dieser Arbeit bewerten wir verschiedene T5-Modelle gründlich und untersuchen, wie verschiedene schnelle technische Techniken und nur wenige Lernaufbauten auf ihre Leistung beeinflussen. Unser Ziel ist es, Best Practices für fein abgestimmte vorgebrachte Modelle aufzudecken, um in realen Anwendungen auszudrücken. Durch die Analyse der Stärken und Einschränkungen jedes Modells unter verschiedenen Bedingungen zielt diese Studie darauf ab, wertvolle Erkenntnisse in die Optimierung von T5-basierten LLMs für verschiedene NLP-Aufgaben zu liefern. ?
Eine detaillierte Vorgehensweise des Bewertungsprozesses und der Ergebnisse finden Sie im Notebook: Evaluation_and_Analysis_T5_Family_LLMs.ipynb
.
Willkommen in diesem Projekt zur Verbesserung des Flan-T5-Small-Sprachmodells zum Zusammenfassen spanischer Zeitungsartikel! ? In diesem Leitfaden konzentrieren wir uns darauf, das Flan-T5-Small-Modell zu fällen, um seine Fähigkeit zu verbessern, präzise und genaue Zusammenfassungen von Nachrichteninhalten auf Spanisch zu erzeugen.
Die Notebook Instruction_Fine_Tuning_LLM_T5.ipynb
bietet eine detaillierte Exemplar des gesamten Prozesses. Es deckt:
Wenn Sie den Anweisungen im Notizbuch folgen, lernen Sie, wie Sie dieses leistungsstarke vorgebrachte Modell anpassen, um die spanische Textübersicht effektiv zu bewältigen, sodass es klare und kohärente Zusammenfassungen von Nachrichtenartikeln liefern kann. ? Euen
Eine umfassende Anleitung finden Sie in der Notebook Instruction_Fine_Tuning_LLM_T5.ipynb
. Viel Spaß beim Erkunden und Feinabstimmung! ?
In diesem Abschnitt wird das Konzept der Parameter-effizienten Feinabstimmung (PEFT) unter Verwendung von Qlora zur Verbesserung der Sprachmodelle in rechtlichen Kontexten eingeführt. Qlora (quantisierte Anpassung mit niedrigem Rang) ist so konzipiert, dass sie große Sprachmodelle mit weniger Parametern effizient fein abteilen und sowohl die Rechen- als auch die Speicheranforderungen reduzieren.
Das Notizbuch Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
enthält Folgendes:
Dieser Ansatz ermöglicht eine effiziente Anpassung von Sprachmodellen an spezialisierte Aufgaben wie die Erstellung von Rechtsdokumenten, um eine hohe Leistung zu gewährleisten und gleichzeitig die Ressourcennutzung effektiv zu verwalten.
Eine umfassende Anleitung zur Feinabstimmung von Qlora finden Sie im Notizenbuch Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
. Erforschen Sie das Potenzial effizienter Feinabstimmungstechniken für Rechtsanträge! ? ⚖️
Fühlen Sie sich frei zu erforschen, zu experimentieren und zum aufregenden Feld der LLMs beizutragen. Ihr Feedback und Ihre Beiträge sind immer willkommen! ?
Glückliche Feinabstimmung und Bewertung!
Ich möchte Santiago Hernández, einem Experten für Cybersicherheit und künstliche Intelligenz, meinen herzlichen Dank ausdehnen. Sein unglaublicher Kurs über Deep Learning und generative KI, der bei Udemy erhältlich ist, war maßgeblich an der Gestaltung der Entwicklung dieses Projekts beteiligt.
Beiträge zu diesem Projekt sind sehr gefördert! Wenn Sie daran interessiert sind, neue Funktionen hinzuzufügen, Fehler aufzulösen oder die Funktionen des Projekts zu verbessern, können Sie Pull -Anfragen senden.
Dieses Projekt wird von Sergio Sánchez Sánchez (Dream Software) entwickelt und gepflegt. Besonderer Dank geht an die Open-Source-Community und die Mitwirkenden, die dieses Projekt ermöglicht haben. Wenn Sie Fragen, Feedback oder Vorschläge haben, können Sie sich gerne unter [email protected] wenden.
Dieses Projekt ist unter der MIT-Lizenz lizenziert, einer Open-Source-Software-Lizenz, mit der Entwickler die Software frei verwenden, kopieren, ändern und verteilen können. Dies beinhaltet die Verwendung sowohl in persönlichen als auch in kommerziellen Projekten, wobei die einzige Anforderung darin besteht, dass die ursprüngliche Urheberrechtsanzeige erhalten bleibt. ?
Bitte beachten Sie die folgenden Einschränkungen:
Ziel dieser Lizenz ist es, die Freiheit für Entwickler zu maximieren und gleichzeitig die Anerkennung für die ursprünglichen Schöpfer beizubehalten.
MIT License
Copyright (c) 2024 Dream software - Sergio Sánchez
Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included in all
copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
SOFTWARE.