欢迎来到LLM微调和评估存储库! ?在这里,我们深入研究了大型语言模型(LLM)微调和评估的激动人心的世界,重点介绍了尖端技术,以适应诸如Flan-T5 , Tinyllama和Aguila7b等自然语言处理(NLP)任务等模型。 ?
随着LLM成为现代AI应用的组成部分,有效地微调和评估这些模型的能力从未如此关键。该存储库旨在帮助您浏览模型自定义的复杂性,提供洞察力和实用工具,以增强模型的性能,准确性和道德责任。
无论您是在工作:
该存储库提供了将您的项目提升到一个新级别的资源。
我要对网络安全和人工智能专家圣地亚哥·埃尔南德斯(SantiagoHernández)表示衷心的感谢。他在Udemy上获得的深入学习和AI生成的难以置信的课程在塑造该项目的发展方面发挥了作用。
有关此项目的全面信息,请查看此媒介文章。
首先,请查看笔记本,以获取有关模型微调和评估的分步指南:
Instruction_Fine_Tuning_LLM_T5.ipynb
:有关西班牙摘要的微调Flan-T5的详细说明。Evaluation_and_Analysis_T5_Familiy_LLMs.ipynb
:评估和分析各种T5模型的见解。 ?Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
:与Qlora进行微调有关专门任务,例如起草法律文档。 ⚖️TinyLLAMA_PPO_RLHF_Avoiding_Offensive_Language.ipynb
:使用PPO和RLHF探索Tinyllama的微调过程,以避免有害或冒犯性语言。 ?️Evaluation_of_Fine_Tuned_Large_Language_Models_for_ILENIA.ipynb
:评估Ilenia框架中的微型模型,包括Aguila7b和Latxa Projects。 在这项新研究中,主要目标是使用近端政策优化(PPO)技术对Tinyllama进行微调,并结合了从人类反馈(RLHF)学习的增强学习。目的是完善模型避免产生有害,冒犯或有毒语言的能力,同时保留有意义的内容产生。
该研究的亮点:
有关对方法和结果的全面理解,请参阅笔记本: TinyLLAMA_PPO_RLHF_Avoiding_Offensive_Language.ipynb
。
Ilenia项目是西班牙经济复苏与转型战略项目(PERTE)的一部分,该项目着重于为新语言经济(NEL)开发多语言资源。该计划支持使用西班牙和其他官方语言来推动AI,翻译和教育等领域的经济增长和国际竞争力。
作为这项工作的一部分,我们评估了Aguila7b和Latxa项目的LLM ,这些LLM专为文本和语音处理任务而设计。这些评估集中在模型的性能上,以确保它们与社会和技术需求保持一致,尤其是在多语言和跨语言环境中。
关键方面:
有关深入分析,请参阅笔记本: Evaluation_of_Fine_Tuned_Large_Language_Models_for_ILENIA.ipynb
。
在自然语言处理(NLP)的快速发展世界中,利用预培训的语言模型对于改善各种任务的性能至关重要。 ?其中,T5模型家族在处理一系列语言任务中的多功能性和有效性而脱颖而出。这项研究深入研究了预训练的T5模型的评估和分析,重点介绍了如何使用迅速的工程和很少的示例来微调这些模型。 ?
T5家族,包括T5-碱,T5-Large和Flan-T5等模型,在文本生成,问答和翻译方面表现出了令人印象深刻的功能。但是,总有优化的空间。使用及时的工程(设计和结构化输入提示)对这些模型进行微调,并提供了很少的学习,提供了一种强大的方法,可以提高其性能而无需进行大量重新培训。
在这项工作中,我们彻底评估了不同的T5模型,探讨了各种及时的工程技术和少量学习设置如何影响其性能。我们的目标是揭示以微调预培训模型在现实世界应用中表现出色的最佳实践。通过在不同的及时条件下分析每个模型的优势和局限性,本研究旨在为优化基于T5的LLM的多种NLP任务提供宝贵的见解。 ?
有关评估过程和调查结果的详细演练,请参阅笔记本: Evaluation_and_Analysis_T5_Family_LLMs.ipynb
。
欢迎来到这个项目,以增强Flan-T5-Mall语言模型,以汇总西班牙报纸的文章! ?在本指南中,我们专注于指导对Flan-T5-Mall模型进行微调,以提高其在西班牙语中生成简洁而准确的新闻内容摘要的能力。
笔记本Instruction_Fine_Tuning_LLM_T5.ipynb
提供了整个过程的详细演练。它涵盖:
通过按照笔记本中的说明进行操作,您将学习如何调整此强大的预训练模型以有效地处理西班牙文本摘要,从而使其能够提供清晰且连贯的新闻文章摘要。 ?️
有关综合指南,请参阅笔记本Instruction_Fine_Tuning_LLM_T5.ipynb
。享受探索和微调! ?
本节介绍了使用Qlora在法律背景下增强语言模型的参数有效微调(PEFT)的概念。 Qlora (量化的低级别适应性)旨在有效地微调具有较少参数的大型语言模型,从而减少了计算和内存需求。
笔记本Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
详细信息:
这种方法允许语言模型有效地适应专门的任务,例如法律文档起草,确保高性能,同时有效地管理资源使用情况。
有关Qlora微调的综合指南,请参阅笔记本Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
。探索法律应用有效的微调技术的潜力! ?⚖️
随意探索,实验并为LLM的令人兴奋的领域做出贡献。总是欢迎您的反馈和贡献! ?
愉快的微调和评估!
我要对网络安全和人工智能专家圣地亚哥·埃尔南德斯(SantiagoHernández)表示衷心的感谢。他在Udemy上获得的深度学习和生成AI的令人难以置信的课程在塑造该项目的发展方面发挥了作用。
强烈鼓励对该项目的贡献!如果您有兴趣添加新功能,解决错误或增强项目功能,请随时提交拉动请求。
该项目由SergioSánchezSánchez (Dream Software)开发和维护。特别感谢开源社区以及使该项目成为可能的贡献者。如果您有任何疑问,反馈或建议,请随时通过[email protected]与您联系。
该项目是根据MIT许可证的许可,该许可是一种开源软件许可证,允许开发人员自由使用,复制,修改和分发软件。这包括在个人和商业项目中的使用,唯一的要求是保留原始版权通知。 ?
请注意以下限制:
此许可证的目标是最大程度地提高开发人员的自由,同时保持对原始创作者的认可。
MIT License
Copyright (c) 2024 Dream software - Sergio Sánchez
Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included in all
copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
SOFTWARE.