Bem-vindo ao repositório de ajuste fino e avaliação do LLM ! ? Aqui, nos aprofundamos no mundo emocionante do modelo e avaliação de Modelo de Linguagem de Grandes Linguagem , focando técnicas de ponta para adaptar modelos como Flan-T5 , Tinyllama e Aguila7B para diversas tarefas de processamento de linguagem natural (NLP) . ?
À medida que os LLMs se tornam parte integrante das aplicações modernas de IA, a capacidade de ajustar e avaliar esses modelos efetivamente nunca foi tão crucial. Esse repositório foi projetado para ajudá -lo a navegar pelas complexidades da personalização do modelo, oferecendo informações e ferramentas práticas para melhorar o desempenho, a precisão e a responsabilidade ética de seus modelos.
Se você está trabalhando:
Este repositório fornece os recursos para elevar seus projetos ao próximo nível.
Gostaria de estender minha sincera gratidão a Santiago Hernández, especialista em segurança cibernética e inteligência artificial. Seu curso incrível sobre aprendizado profundo e AI generativo, disponível na UDEMY, foi fundamental para moldar o desenvolvimento deste projeto.
Para obter informações abrangentes sobre este projeto, consulte este artigo médio.
Para começar, consulte os notebooks para obter guias passo a passo sobre o modelo de ajuste e avaliação do modelo:
Instruction_Fine_Tuning_LLM_T5.ipynb
: Instruções detalhadas sobre o ajuste fino Flan-T5 para o resumo espanhol.Evaluation_and_Analysis_T5_Familiy_LLMs.ipynb
: Insights sobre avaliação e análise de vários modelos T5. ?Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
: Saiba sobre o ajuste fino com a QLORA para tarefas especializadas, como a elaboração de documentos legais. ⚖️TinyLLAMA_PPO_RLHF_Avoiding_Offensive_Language.ipynb
: Explore o processo de ajuste fino de Tinyllama usando PPO e RLHF para evitar linguagem prejudicial ou ofensiva. ? ️Evaluation_of_Fine_Tuned_Large_Language_Models_for_ILENIA.ipynb
: avaliação de modelos ajustados na estrutura da ILENIA , incluindo projetos Aguila7b e Latxa. Neste novo estudo, o objetivo principal era ajustar Tinyllama usando técnicas de otimização de políticas proximais (PPO) combinadas com o aprendizado de reforço com o feedback humano (RLHF) . O objetivo é refinar a capacidade do modelo de evitar gerar linguagem prejudicial, ofensiva ou tóxica, preservando a geração significativa de conteúdo.
Destaques do estudo:
Para uma compreensão abrangente da metodologia e dos resultados, consulte o Notebook: TinyLLAMA_PPO_RLHF_Avoiding_Offensive_Language.ipynb
.
O projeto Ilenia faz parte do projeto estratégico da Espanha para recuperação e transformação econômica (Perte) , que se concentra no desenvolvimento de recursos multilíngues para a nova economia de idiomas (NEL) . Essa iniciativa apóia o uso de espanhol e outros idiomas oficiais para impulsionar o crescimento econômico e a competitividade internacional em áreas como IA, tradução e educação.
Como parte desse esforço, avaliamos o LLMS dos projetos Aguila7b e Latxa , projetados para tarefas de processamento de texto e fala. Essas avaliações se concentram no desempenho dos modelos, garantindo que eles se alinhem às necessidades sociais e tecnológicas, particularmente em contextos multilíngues e cruzados.
Aspectos -chave:
Para uma análise aprofundada, consulte o Notebook: Evaluation_of_Fine_Tuned_Large_Language_Models_for_ILENIA.ipynb
.
No mundo em rápida evolução do processamento de linguagem natural (PNL), a alavancagem dos modelos de idiomas pré-treinados tornou-se crucial para melhorar o desempenho em várias tarefas. ? Entre eles, a família de modelos T5 se destaca por sua versatilidade e eficácia ao lidar com uma variedade de tarefas de idiomas. Este estudo investiga a avaliação e análise de modelos T5 pré-treinados, concentrando-se em como os exemplos de engenharia e poucos anos podem ser usados para ajustar esses modelos. ?
A família T5, incluindo modelos como T5-BASE, T5-Large e Flan-T5, mostrou recursos impressionantes na geração de texto, resposta a perguntas e tradução. No entanto, sempre há espaço para otimização. Ajustando esses modelos usando engenharia imediata-designando e estruturando os avisos de entrada-junto com o aprendizado de poucos anos, oferece um método poderoso para aprimorar seu desempenho sem extensão de reciclagem.
Neste trabalho, avaliamos minuciosamente diferentes modelos T5, explorando como várias técnicas de engenharia imediatas e as configurações de aprendizado de poucas fotos afetam seu desempenho. Nosso objetivo é descobrir as melhores práticas para modelos pré-treinados de ajuste fino para se destacar em aplicativos do mundo real. Ao analisar os pontos fortes e as limitações de cada modelo sob diferentes condições imediatas, este estudo visa fornecer informações valiosas sobre a otimização de LLMs baseados em T5 para diversas tarefas de PNL. ?
Para obter um passo a passo detalhado do processo de avaliação e descobertas, consulte o notebook: Evaluation_and_Analysis_T5_Family_LLMs.ipynb
.
Bem-vindo a este projeto sobre o aprimoramento do modelo de idioma Flan-T5-Small para resumir artigos de jornais espanhóis! ? Neste guia, focamos na instrução ajustando o modelo Flan-T5-Small para melhorar sua capacidade de gerar resumos concisos e precisos do conteúdo de notícias em espanhol.
O Notebook Instruction_Fine_Tuning_LLM_T5.ipynb
fornece um passo a passo detalhado de todo o processo. Cobre:
Seguindo as instruções no caderno, você aprenderá como adaptar esse poderoso modelo pré-treinado para lidar efetivamente com o resumo de texto em espanhol, permitindo que ele forneça resumos claros e coerentes de artigos de notícias. ? ️
Para um guia abrangente, consulte o Notebook Instruction_Fine_Tuning_LLM_T5.ipynb
. Desfrute de explorar e ajustar fino! ?
Esta seção apresenta o conceito de ajuste fino (PEFT) eficiente em parâmetro usando o QLORA para melhorar os modelos de linguagem em contextos legais. O QLORA (adaptação quantizada de baixo rank) foi projetada para ajustar com eficiência modelos de linguagem grandes com menos parâmetros, reduzindo os requisitos computacionais e de memória.
O Notebook Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
detalha o seguinte:
Essa abordagem permite uma adaptação eficiente de modelos de idiomas a tarefas especializadas, como a redação legal de documentos, garantindo o alto desempenho e gerenciando o uso de recursos de maneira eficaz.
Para obter um guia abrangente sobre ajuste fino Qlora, consulte o Notebook Parameter_Efficient_Fine_Tuning_QLoRA_Legal_Assistance.ipynb
. Explore o potencial de técnicas eficientes de ajuste fino para aplicações legais! ? ⚖️
Sinta -se à vontade para explorar, experimentar e contribuir para o emocionante campo do LLMS. Seus comentários e contribuições são sempre bem -vindos! ?
Feliz ajuste fino e avaliação!
Gostaria de estender minha sincera gratidão a Santiago Hernández, especialista em segurança cibernética e inteligência artificial. Seu curso incrível sobre aprendizado profundo e IA generativa, disponível na UDEMY, foi fundamental para moldar o desenvolvimento deste projeto.
As contribuições para este projeto são altamente encorajadas! Se você estiver interessado em adicionar novos recursos, resolver bugs ou aprimorar a funcionalidade do projeto, sinta -se à vontade para enviar solicitações de tração.
Este projeto é desenvolvido e mantido por Sergio Sánchez Sánchez (Software Dream). Agradecimentos especiais à comunidade de código aberto e aos colaboradores que tornaram esse projeto possível. Se você tiver alguma dúvida, feedback ou sugestões, sinta -se à vontade para entrar em contato com [email protected].
Este projeto está licenciado sob a licença do MIT, uma licença de software de código aberto que permite que os desenvolvedores usem, copiassem, copiem e distribuam livremente o software. Isso inclui uso em projetos pessoais e comerciais, com o único requisito de que o aviso original de direitos autorais seja retido. ?
Observe as seguintes limitações:
O objetivo desta licença é maximizar a liberdade para os desenvolvedores, mantendo o reconhecimento dos criadores originais.
MIT License
Copyright (c) 2024 Dream software - Sergio Sánchez
Permission is hereby granted, free of charge, to any person obtaining a copy
of this software and associated documentation files (the "Software"), to deal
in the Software without restriction, including without limitation the rights
to use, copy, modify, merge, publish, distribute, sublicense, and/or sell
copies of the Software, and to permit persons to whom the Software is
furnished to do so, subject to the following conditions:
The above copyright notice and this permission notice shall be included in all
copies or substantial portions of the Software.
THE SOFTWARE IS PROVIDED "AS IS", WITHOUT WARRANTY OF ANY KIND, EXPRESS OR
IMPLIED, INCLUDING BUT NOT LIMITED TO THE WARRANTIES OF MERCHANTABILITY,
FITNESS FOR A PARTICULAR PURPOSE AND NONINFRINGEMENT. IN NO EVENT SHALL THE
AUTHORS OR COPYRIGHT HOLDERS BE LIABLE FOR ANY CLAIM, DAMAGES OR OTHER
LIABILITY, WHETHER IN AN ACTION OF CONTRACT, TORT OR OTHERWISE, ARISING FROM,
OUT OF OR IN CONNECTION WITH THE SOFTWARE OR THE USE OR OTHER DEALINGS IN THE
SOFTWARE.