歡迎來到LLM微調和評估存儲庫! ?在這裡,我們深入研究了大型語言模型(LLM)微調和評估的激動人心的世界,重點介紹了尖端技術,以適應諸如Flan-T5 , Tinyllama和Aguila7b等自然語言處理(NLP)任務等模型。 ?
隨著LLM成為現代AI應用的組成部分,有效地微調和評估這些模型的能力從未如此關鍵。該存儲庫旨在幫助您瀏覽模型自定義的複雜性,提供洞察力和實用工具,以增強模型的性能,準確性和道德責任。
無論您是在工作:
該存儲庫提供了將您的項目提升到一個新級別的資源。
我要對網絡安全和人工智能專家聖地亞哥·埃爾南德斯(SantiagoHernández)表示衷心的感謝。他在Udemy上獲得的深入學習和AI生成的難以置信的課程在塑造該項目的發展方面發揮了作用。
有關此項目的全面信息,請查看此媒介文章。
首先,請查看筆記本,以獲取有關模型微調和評估的分步指南:
Instruction_Fine_Tuning_LLM_T5.ipynb
:有關西班牙摘要的微調Flan-T5的詳細說明。Evaluation_and_Analysis_T5_Familiy_LLMs.ipynb
:評估和分析各種T5模型的見解。 ?Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
:與Qlora進行微調有關專門任務,例如起草法律文檔。 ⚖️TinyLLAMA_PPO_RLHF_Avoiding_Offensive_Language.ipynb
:使用PPO和RLHF探索Tinyllama的微調過程,以避免有害或冒犯性語言。 ?️Evaluation_of_Fine_Tuned_Large_Language_Models_for_ILENIA.ipynb
:評估Ilenia框架中的微型模型,包括Aguila7b和Latxa Projects。 在這項新研究中,主要目標是使用近端政策優化(PPO)技術對Tinyllama進行微調,並結合了從人類反饋(RLHF)學習的增強學習。目的是完善模型避免產生有害,冒犯或有毒語言的能力,同時保留有意義的內容產生。
該研究的亮點:
有關對方法和結果的全面理解,請參閱筆記本: TinyLLAMA_PPO_RLHF_Avoiding_Offensive_Language.ipynb
。
Ilenia項目是西班牙經濟復甦與轉型戰略項目(PERTE)的一部分,該項目著重於為新語言經濟(NEL)開發多語言資源。該計劃支持使用西班牙和其他官方語言來推動AI,翻譯和教育等領域的經濟增長和國際競爭力。
作為這項工作的一部分,我們評估了Aguila7b和Latxa項目的LLM ,這些LLM專為文本和語音處理任務而設計。這些評估集中在模型的性能上,以確保它們與社會和技術需求保持一致,尤其是在多語言和跨語言環境中。
關鍵方面:
有關深入分析,請參閱筆記本: Evaluation_of_Fine_Tuned_Large_Language_Models_for_ILENIA.ipynb
。
在自然語言處理(NLP)的快速發展世界中,利用預培訓的語言模型對於改善各種任務的性能至關重要。 ?其中,T5模型家族在處理一系列語言任務中的多功能性和有效性而脫穎而出。這項研究深入研究了預訓練的T5模型的評估和分析,重點介紹瞭如何使用迅速的工程和很少的示例來微調這些模型。 ?
T5家族,包括T5-鹼,T5-Large和Flan-T5等模型,在文本生成,問答和翻譯方面表現出了令人印象深刻的功能。但是,總有優化的空間。使用及時的工程(設計和結構化輸入提示)對這些模型進行微調,並提供了很少的學習,提供了一種強大的方法,可以提高其性能而無需進行大量重新培訓。
在這項工作中,我們徹底評估了不同的T5模型,探討了各種及時的工程技術和少量學習設置如何影響其性能。我們的目標是揭示以微調預培訓模型在現實世界應用中表現出色的最佳實踐。通過在不同的及時條件下分析每個模型的優勢和局限性,本研究旨在為優化基於T5的LLM的多種NLP任務提供寶貴的見解。 ?
有關評估過程和調查結果的詳細演練,請參閱筆記本: Evaluation_and_Analysis_T5_Family_LLMs.ipynb
。
歡迎來到這個項目,以增強Flan-T5-Mall語言模型,以匯總西班牙報紙的文章! ?在本指南中,我們專注於指導對Flan-T5-Mall模型進行微調,以提高其在西班牙語中生成簡潔而準確的新聞內容摘要的能力。
筆記本Instruction_Fine_Tuning_LLM_T5.ipynb
提供了整個過程的詳細演練。它涵蓋:
通過按照筆記本中的說明進行操作,您將學習如何調整此強大的預訓練模型以有效地處理西班牙文本摘要,從而使其能夠提供清晰且連貫的新聞文章摘要。 ?️
有關綜合指南,請參閱筆記本Instruction_Fine_Tuning_LLM_T5.ipynb
。享受探索和微調! ?
本節介紹了使用Qlora在法律背景下增強語言模型的參數有效微調(PEFT)的概念。 Qlora (量化的低級別適應性)旨在有效地微調具有較少參數的大型語言模型,從而減少了計算和內存需求。
筆記本Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
詳細信息:
這種方法允許語言模型有效地適應專門的任務,例如法律文檔起草,確保高性能,同時有效地管理資源使用情況。
有關Qlora微調的綜合指南,請參閱筆記本Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
。探索法律應用有效的微調技術的潛力! ?⚖️
隨意探索,實驗並為LLM的令人興奮的領域做出貢獻。總是歡迎您的反饋和貢獻! ?
愉快的微調和評估!
我要對網絡安全和人工智能專家聖地亞哥·埃爾南德斯(SantiagoHernández)表示衷心的感謝。他在Udemy上獲得的深度學習和生成AI的令人難以置信的課程在塑造該項目的發展方面發揮了作用。
強烈鼓勵對該項目的貢獻!如果您有興趣添加新功能,解決錯誤或增強項目功能,請隨時提交拉動請求。
該項目由SergioSánchezSánchez (Dream Software)開發和維護。特別感謝開源社區以及使該項目成為可能的貢獻者。如果您有任何疑問,反饋或建議,請隨時通過[email protected]與您聯繫。
該項目是根據MIT許可證的許可,該許可是一種開源軟件許可證,允許開發人員自由使用,複製,修改和分發軟件。這包括在個人和商業項目中的使用,唯一的要求是保留原始版權通知。 ?
請注意以下限制:
此許可證的目標是最大程度地提高開發人員的自由,同時保持對原始創作者的認可。
MIT License
Copyright (c) 2024 Dream software - Sergio Sánchez
Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included in all
copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
SOFTWARE.