Ajuste qualquer modelo com desempenho, velocidade e confiabilidade incomparáveis usando Qlora, BNB, Lora, Peft em menos de 30 segundos, basta pressionar GO.
Agende uma sessão individual com Kye, o Criador, para discutir quaisquer problemas, fornecer feedback ou explorar como podemos melhorar o Zeta para você.
$ pip3 instalar ft-suite
de fts import FineTuner# Inicialize o sintonizador finomodel_id="google/flan-t5-xxl"dataset_name = "samsung"tuner = FineTuner( model_id=model_id, dataset_name=dataset_name, max_length=150, lora_r=16, lora_alpha=32, quantize= Verdadeiro)# Gerar contentprompt_text = "Resumir essa ideia para mim."print(tuner(prompt_text))
from fts import Inferencemodel = Inference( model_id="georgesung/llama2_7b_chat_uncensored", quantized=True)model.run("Qual é o seu nome")
from fts import GPTQInferencemodel_id = "facebook/opt-125m"model = GPTQInference(model_id=model_id, max_length=400)prompt = "em uma terra muito distante"resultado = model.run(prompt)print(resultado)
Quantização de classe mundial : aproveite ao máximo seus modelos com desempenho de alto nível e precisão preservada! ?️♂️
PEFT automatizado : simplifique seu fluxo de trabalho! Deixe nosso kit de ferramentas cuidar das otimizações.
Configuração LoRA : Mergulhe no potencial das configurações LoRA flexíveis, uma virada de jogo para desempenho! ?
Integração perfeita : projetada para funcionar perfeitamente com modelos populares como LLAMA, Falcon e muito mais! ?
Aqui está uma prévia do nosso ambicioso roteiro! Estamos sempre evoluindo e seus comentários e contribuições podem moldar nossa jornada!
Mais scripts de exemplo :
Usando modelos GPT
Transferir exemplos de aprendizagem
Exemplos de aplicativos do mundo real
Função de pré-processamento polimórfico :
Projete uma função para lidar com diversos conjuntos de dados
Integre-se com estruturas de conjuntos de dados conhecidos de fontes populares
Blueprint de conjunto de dados personalizado para estruturas definidas pelo usuário
Suporte estendido ao modelo :
Integração com Lama, Falcon, etc.
Suporte para modelos que não sejam em inglês
Documentação abrangente :
Guia de uso detalhado
Melhores práticas para ajuste fino
Benchmarks para quantização e recursos LoRA
Interface interativa da Web :
GUI para fácil ajuste fino
Ferramentas de visualização para insights de modelo
Recursos avançados :
Integração com outras técnicas de quantização
Suporte para mais tipos de tarefas além da geração de texto
Ferramentas de depuração e introspecção de modelo
Integre TRLX do Carper
... E muito mais chegando!
Estamos entusiasmados com a jornada que temos pela frente e adoraríamos ter você conosco! Para feedback, sugestões ou contribuições, sinta-se à vontade para abrir um problema ou uma solicitação pull. Vamos moldar o futuro do ajuste fino juntos! ?
MIT
Divulgue a mensagem do Finetuning-Suite, esta é uma ferramenta fundamental para ajudar todos a quantizar e ajustar modelos de última geração.
Compartilhar o projeto nos ajuda a alcançar mais pessoas que poderiam se beneficiar dele e nos motiva a continuar desenvolvendo e melhorando o pacote.
Clique nos botões abaixo para compartilhar o Finetuning-Suite em suas plataformas de mídia social favoritas:
Compartilhe no Twitter
Compartilhe no Facebook
Compartilhe no LinkedIn
Compartilhar no Reddit
Além disso, adoraríamos ver como você está usando o Finetuning-Suite! Compartilhe seus projetos e experiências conosco marcando-nos no Twitter @finetuning-suite.
Por último, não se esqueça de ️ o repositório se achar útil. Seu apoio significa muito para nós! Obrigado! ?