Ajuste cualquier modelo con rendimiento, velocidad y confiabilidad incomparables usando Qlora, BNB, Lora, Peft en menos de 30 segundos, solo presione GO.
Reserve una sesión individual con Kye, el Creador, para discutir cualquier problema, brindar comentarios o explorar cómo podemos mejorar Zeta para usted.
$ pip3 instalar ft-suite
from fts import FineTuner# Inicialice el sintonizador finomodel_id="google/flan-t5-xxl"dataset_name = "samsung"tuner = FineTuner( model_id=model_id, dataset_name=dataset_name, max_length=150, lora_r=16, lora_alpha=32, quantize= True)# Generate contentprompt_text = "Resume esta idea para yo."print(sintonizador(prompt_text))
from fts import Inferencemodel = Inference( model_id="georgesung/llama2_7b_chat_uncensored", quantized=True)model.run("¿Cuál es tu nombre")
from fts import GPTQInferencemodel_id = "facebook/opt-125m"model = GPTQInference(model_id=model_id, max_length=400)prompt = "en una tierra muy, muy lejana"result = model.run(prompt)print(resultado)
Cuantización de clase mundial : ¡Aproveche al máximo sus modelos con un rendimiento de primer nivel y precisión preservada! ?️♂️
PEFT automatizado : ¡simplifique su flujo de trabajo! Deje que nuestro kit de herramientas se encargue de las optimizaciones.
Configuración LoRA : Sumérgete en el potencial de las configuraciones LoRA flexibles, ¡un punto de inflexión para el rendimiento! ?
Integración perfecta : ¡Diseñado para funcionar a la perfección con modelos populares como LLAMA, Falcon y más! ?
¡Aquí tienes un adelanto de nuestra ambiciosa hoja de ruta! ¡Siempre estamos evolucionando y sus comentarios y contribuciones pueden dar forma a nuestro viaje!
Más scripts de ejemplo :
Usando modelos GPT
Transferir ejemplos de aprendizaje
Ejemplos de aplicaciones del mundo real
Función de preprocesamiento polimórfico :
Diseñar una función para manejar diversos conjuntos de datos.
Integre con estructuras de conjuntos de datos conocidas de fuentes populares
Plano de conjunto de datos personalizado para estructuras definidas por el usuario
Soporte de modelo extendido :
Integración con Lama, Falcon, etc.
Soporte para modelos que no están en inglés
Documentación completa :
Guía de uso detallada
Mejores prácticas para realizar ajustes
Puntos de referencia para funciones de cuantificación y LoRA
Interfaz web interactiva :
GUI para un fácil ajuste
Herramientas de visualización para obtener información sobre modelos.
Funciones avanzadas :
Integración con otras técnicas de cuantificación.
Soporte para más tipos de tareas más allá de la generación de texto
Herramientas de introspección y depuración de modelos
Integre TRLX de Carper
... ¡Y mucho más por venir!
¡Estamos entusiasmados con el viaje que tenemos por delante y nos encantaría tenerte con nosotros! Para comentarios, sugerencias o contribuciones, no dude en abrir un problema o una solicitud de extracción. ¡Demos forma juntos al futuro del ajuste! ?
MIT
Difunda el mensaje de Finetuning-Suite, esta es una herramienta fundamental para ayudar a todos a cuantificar y ajustar modelos de última generación.
Compartir el proyecto nos ayuda a llegar a más personas que podrían beneficiarse del mismo y nos motiva a seguir desarrollando y mejorando la suite.
Haga clic en los botones a continuación para compartir Finetuning-Suite en sus plataformas de redes sociales favoritas:
Compartir en Twitter
Compartir en Facebook
Compartir en LinkedIn
Compartir en Reddit
Además, ¡nos encantaría ver cómo estás usando Finetuning-Suite! Comparta sus proyectos y experiencias con nosotros etiquetándonos en Twitter @finetuning-suite.
Por último, no olvides visitar el repositorio si lo encuentras útil. ¡Su apoyo significa mucho para nosotros! ¡Gracias! ?