título | emojis | colorDesde | colorA | SDK | sdk_version | versión_python | archivo_aplicación | ancho completo | encabezamiento | desactivar_incrustación | inicio_duración_tiempo de espera | licencia | idioma | conjuntos de datos | etiquetas | descripción_corta | uña del pulgar | fijado | ||||||
---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
Fusionar UI | ? | púrpura | rosa | grado | 4.31.5 | 3.9 | mergui/web/gradio_app/main.py | verdadero | mini | FALSO | 15m | apache-2.0 |
|
|
| Interfaz de usuario todo en uno para LLM fusionados en Hugging Face Hub | https://raw.githubusercontent.com/naskio/mergui/main/static/brand/banner.svg | verdadero |
MergeUI es un proyecto de código abierto que tiene como objetivo proporcionar una interfaz fácil de usar para descubrir y analizar modelos de lenguajes grandes fusionados (LLM fusionados) desde Hugging Face Hub. Está particularmente enfocado en modelos que se han fusionado usando MergeKit.
Para ejecutar el proyecto localmente, necesita tener instalado lo siguiente:
Una vez que tenga los requisitos instalados, puede configurar el proyecto ejecutando los siguientes comandos:
poetry install
Una vez instaladas las dependencias, asegúrese de configurar las variables de entorno creando un archivo .env
cp .env.example .env
Consejo
Obtenga más información sobre las variables de entorno en el archivo settings.py.
A continuación, debemos iniciar la base de datos y Redis usando Docker Compose:
docker compose up -d
Consejo
Ejecute docker compose down
para detener estos servicios cuando haya terminado.
Nota
Este proyecto utiliza poetry
con el complemento Poe the Poet
para ejecutar comandos, ejecute poe
para ver todos los comandos disponibles.
Una vez que se completa la configuración, debemos indexar los modelos de Hugging Face Hub y almacenarlos en la base de datos.
Para los modelos de indexación utilizamos RQ:
poe worker
poe index
rq-dashboard
Importante
El proceso de indexación tarda unos minutos en completarse según sus recursos, la cantidad de trabajadores y la cantidad de modelos merge
disponibles.
Nota
Se necesitan alrededor de 6 minutos para indexar un gráfico de ~12.000 modelos y ~51.000 relaciones utilizando 64 trabajadores.
Una vez que se completa el proceso de indexación, podemos iniciar nuestra aplicación usando el siguiente comando:
uvicorn mergeui.main:app --port 8000 --log-level trace
Advertencia
Establezca la variable de entorno GRADIO_APP_DISABLED
en true
para deshabilitar la aplicación Gradio.
uvicorn mergeui.main:app --reload --port 8000 --log-level debug
gradio mergeui/web/gradio_app/main.py # with reloading
python mergeui/web/gradio_app/main.py # without reloading
poe bokeh_dev
Este proyecto usa pytest para realizar pruebas, puede ejecutar las pruebas usando el siguiente comando:
poe test
MergeUI es un proyecto nuevo y cualquier contribución marcaría la diferencia. Ya sea que encuentre un error, tenga comentarios o sugerencias valiosas, o simplemente quiera participar, ¡nos encantaría saber de usted!