título | emojis | colorDesde | colorA | SDK | fijado | puerto_aplicación | desactivar_incrustación | descripción_corta | hf_oauth | hf_oauth_expiration_minutos | hf_oauth_scopes | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Fábrica de cómics de IA | ?? | rojo | amarillo | estibador | verdadero | 3000 | FALSO | Crea tu propio cómic de IA con un solo mensaje | verdadero | 43200 |
|
Última versión: AI Comic Factory 1.2
AI Comic Factory pronto tendrá un sitio web oficial: aicomicfactory.app
Para obtener más información sobre mis otros proyectos, consulte linktr.ee/FLNGR.
Primero, me gustaría resaltar que todo es de código abierto (ver aquí, aquí, aquí, aquí).
Sin embargo, el proyecto no es un espacio monolítico que pueda duplicarse y ejecutarse inmediatamente: requiere la ejecución de varios componentes para el frontend, backend, LLM, SDXL, etc.
Si intenta duplicar el proyecto, abra el .env
y verá que requiere algunas variables.
Configuración del proveedor:
LLM_ENGINE
: puede ser uno de INFERENCE_API
, INFERENCE_ENDPOINT
, OPENAI
, GROQ
, ANTHROPIC
RENDERING_ENGINE
: puede ser uno de: "INFERENCE_API", "INFERENCE_ENDPOINT", "REPLICATE", "VIDEOCHAIN", "OPENAI" por ahora, a menos que codifique su solución personalizadaConfiguración de autenticación:
AUTH_HF_API_TOKEN
: si decide utilizar Hugging Face para el motor LLM (modelo de API de inferencia o un punto final de inferencia personalizado)AUTH_OPENAI_API_KEY
: para usar OpenAI para el motor LLMAUTH_GROQ_API_KEY
: para usar Groq para el motor LLMAUTH_ANTHROPIC_API_KEY
: para usar Anthropic (Claude) para el motor LLMAUTH_VIDEOCHAIN_API_TOKEN
: token secreto para acceder al servidor API de VideoChainAUTH_REPLICATE_API_TOKEN
: en caso de que quieras utilizar Replicate.comConfiguración de renderizado:
RENDERING_HF_INFERENCE_ENDPOINT_URL
: necesario si decide utilizar un punto final de inferencia personalizadoRENDERING_REPLICATE_API_MODEL_VERSION
: URL al servidor API de VideoChainRENDERING_HF_INFERENCE_ENDPOINT_URL
: opcional, por defecto no es nadaRENDERING_HF_INFERENCE_API_BASE_MODEL
: opcional, por defecto es "stabilityai/stable-diffusion-xl-base-1.0"RENDERING_HF_INFERENCE_API_REFINER_MODEL
: opcional, el valor predeterminado es "stabilityai/stable-diffusion-xl-refiner-1.0"RENDERING_REPLICATE_API_MODEL
: opcional, por defecto es "stabilityai/sdxl"RENDERING_REPLICATE_API_MODEL_VERSION
: opcional, en caso de que quieras cambiar la versiónConfiguración del modelo de lenguaje (según el motor LLM que decida utilizar):
LLM_HF_INFERENCE_ENDPOINT_URL
: ""LLM_HF_INFERENCE_API_MODEL
: "HuggingFaceH4/zephyr-7b-beta"LLM_OPENAI_API_BASE_URL
: "https://api.openai.com/v1"LLM_OPENAI_API_MODEL
: "gpt-4-turbo"LLM_GROQ_API_MODEL
: "mixtral-8x7b-32768"LLM_ANTHROPIC_API_MODEL
: "claude-3-opus-20240229"Además, existen algunas variables de uso compartido de la comunidad que puedes ignorar. Esas variables no son necesarias para ejecutar AI Comic Factory en su propio sitio web o computadora (están destinadas a crear una conexión con la comunidad de Hugging Face y, por lo tanto, solo tienen sentido para las aplicaciones oficiales de Hugging Face):
NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING
: no necesitas estoCOMMUNITY_API_URL
: no necesitas estoCOMMUNITY_API_TOKEN
: no necesitas estoCOMMUNITY_API_ID
: no necesitas esto Lea el archivo de configuración predeterminado .env
para obtener más información. Para personalizar una variable localmente, debe crear un .env.local
(no envíe este archivo ya que contendrá sus secretos).
-> Si tiene la intención de ejecutarlo con modelos locales, alojados en la nube y/o propietarios , ¿necesitará codificar? .
Actualmente, AI Comic Factory utiliza zephyr-7b-beta a través de un punto final de inferencia.
Tienes múltiples opciones:
Esta es una nueva opción agregada recientemente, donde puedes usar uno de los modelos de Hugging Face Hub. De forma predeterminada, sugerimos utilizar zephyr-7b-beta, ya que proporcionará mejores resultados que el modelo 7b.
Para activarlo, cree un archivo de configuración .env.local
:
LLM_ENGINE= " INFERENCE_API "
HF_API_TOKEN= " Your Hugging Face token "
# "HuggingFaceH4/zephyr-7b-beta" is used by default, but you can change this
# note: You should use a model able to generate JSON responses,
# so it is storngly suggested to use at least the 34b model
HF_INFERENCE_API_MODEL= " HuggingFaceH4/zephyr-7b-beta "
Si desea ejecutar AI Comic Factory en un LLM privado que se ejecuta en el servicio Hugging Face Inference Endpoint, cree un archivo de configuración .env.local
:
LLM_ENGINE= " INFERENCE_ENDPOINT "
HF_API_TOKEN= " Your Hugging Face token "
HF_INFERENCE_ENDPOINT_URL= " path to your inference endpoint url "
Para ejecutar este tipo de LLM localmente, puede utilizar TGI (lea esta publicación para obtener más información sobre la licencia).
Esta es una nueva opción agregada recientemente, donde puede usar la API OpenAI con una clave API OpenAI.
Para activarlo, cree un archivo de configuración .env.local
:
LLM_ENGINE= " OPENAI "
# default openai api base url is: https://api.openai.com/v1
LLM_OPENAI_API_BASE_URL= " A custom OpenAI API Base URL if you have some special privileges "
LLM_OPENAI_API_MODEL= " gpt-4-turbo "
AUTH_OPENAI_API_KEY= " Yourown OpenAI API Key "
LLM_ENGINE= " GROQ "
LLM_GROQ_API_MODEL= " mixtral-8x7b-32768 "
AUTH_GROQ_API_KEY= " Your own GROQ API Key "
LLM_ENGINE= " ANTHROPIC "
LLM_ANTHROPIC_API_MODEL= " claude-3-opus-20240229 "
AUTH_ANTHROPIC_API_KEY= " Your own ANTHROPIC API Key "
Otra opción podría ser desactivar el LLM por completo y reemplazarlo con otro protocolo y/o proveedor de LLM (por ejemplo, Claude, Replicate), o una historia generada por humanos (devolviendo datos estáticos o simulados).
Es posible que modifique AI Comic Factory para hacerlo más fácil en el futuro (por ejemplo, agregar soporte para Claude o Replicate)
Esta API se utiliza para generar las imágenes del panel. Esta es una API que creé para mis diversos proyectos en Hugging Face.
Todavía no he escrito documentación para ello, pero básicamente es "solo un contenedor ™" para otras API existentes:
Tendrás que clonar el código fuente.
Desafortunadamente, todavía no he tenido tiempo de escribir la documentación de VideoChain. (Cuando lo haga, actualizaré este documento para que apunte al archivo README de VideoChain)
Para utilizar Replicar, cree un archivo de configuración .env.local
:
RENDERING_ENGINE= " REPLICATE "
RENDERING_REPLICATE_API_MODEL= " stabilityai/sdxl "
RENDERING_REPLICATE_API_MODEL_VERSION= " da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf "
AUTH_REPLICATE_API_TOKEN= " Your Replicate token "
Si bifurca el proyecto, podrá modificar el código para utilizar la tecnología de difusión estable de su elección (local, de código abierto, propietaria, su espacio HF personalizado, etc.).
Incluso sería otra cosa, como Dall-E.