заголовок | смайлик | цветОт | цветTo | SDK | закрепленный | app_port | отключить_вложение | короткое_описание | hf_oauth | hf_oauth_expiration_минуты | hf_oauth_scopes | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Фабрика комиксов ИИ | ?? | красный | желтый | докер | истинный | 3000 | ЛОЖЬ | Создайте свой собственный комикс с искусственным интеллектом с помощью одной подсказки | истинный | 43200 |
|
Последний выпуск: AI Comic Factory 1.2.
У AI Comic Factory скоро появится официальный сайт: aicomicfactory.app.
Дополнительную информацию о других моих проектах можно найти по ссылкеtr.ee/FLNGR.
Во-первых, я хотел бы подчеркнуть, что все находится в открытом доступе (см. здесь, здесь, здесь, здесь).
Однако проект не представляет собой монолитное пространство, которое можно продублировать и запустить немедленно: для запуска требуются различные компоненты для внешнего интерфейса, внутреннего интерфейса, LLM, SDXL и т. д.
Если вы попытаетесь дублировать проект, откройте .env
и увидите, что для него требуются некоторые переменные.
Конфигурация провайдера:
LLM_ENGINE
: может быть одним из INFERENCE_API
, INFERENCE_ENDPOINT
, OPENAI
, GROQ
, ANTHROPIC
RENDERING_ENGINE
: на данный момент может быть одним из: «INFERENCE_API», «INFERENCE_ENDPOINT», «REPLICATE», «VIDEOCHAIN», «OPENAI», если только вы не напишете собственное решение.Конфигурация аутентификации:
AUTH_HF_API_TOKEN
: если вы решите использовать Hugging Face для механизма LLM (модель API вывода или пользовательскую конечную точку вывода)AUTH_OPENAI_API_KEY
: использовать OpenAI для механизма LLM.AUTH_GROQ_API_KEY
: использовать Groq для механизма LLM.AUTH_ANTHROPIC_API_KEY
: использовать Anthropic (Claude) для механизма LLM.AUTH_VIDEOCHAIN_API_TOKEN
: секретный токен для доступа к серверу API VideoChain.AUTH_REPLICATE_API_TOKEN
: на случай, если вы хотите использовать Replication.com.Конфигурация рендеринга:
RENDERING_HF_INFERENCE_ENDPOINT_URL
: необходимо, если вы решите использовать пользовательскую конечную точку вывода.RENDERING_REPLICATE_API_MODEL_VERSION
: URL-адрес сервера API VideoChain.RENDERING_HF_INFERENCE_ENDPOINT_URL
: необязательно, по умолчанию ничего.RENDERING_HF_INFERENCE_API_BASE_MODEL
: необязательно, по умолчанию — «stabilityai/stable-diffusion-xl-base-1.0».RENDERING_HF_INFERENCE_API_REFINER_MODEL
: необязательно, по умолчанию — «stabilityai/stable-diffusion-xl-refiner-1.0».RENDERING_REPLICATE_API_MODEL
: необязательно, по умолчанию — «stabilityai/sdxl».RENDERING_REPLICATE_API_MODEL_VERSION
: необязательно, если вы хотите изменить версию.Конфигурация языковой модели (в зависимости от механизма LLM, который вы решите использовать):
LLM_HF_INFERENCE_ENDPOINT_URL
: ""LLM_HF_INFERENCE_API_MODEL
: "HuggingFaceH4/zephyr-7b-beta"LLM_OPENAI_API_BASE_URL
: "https://api.openai.com/v1"LLM_OPENAI_API_MODEL
: «gpt-4-турбо»LLM_GROQ_API_MODEL
: "mixtral-8x7b-32768"LLM_ANTHROPIC_API_MODEL
: "Клод-3-опус-20240229"Кроме того, есть некоторые переменные общего доступа сообщества, которые вы можете просто игнорировать. Эти переменные не требуются для запуска AI Comic Factory на вашем собственном веб-сайте или компьютере (они предназначены для создания связи с сообществом Hugging Face и, следовательно, имеют смысл только для официальных приложений Hugging Face):
NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING
: вам это не нужноCOMMUNITY_API_URL
: вам это не нужноCOMMUNITY_API_TOKEN
: вам это не нужно.COMMUNITY_API_ID
: вам это не нужно. Пожалуйста, прочитайте файл конфигурации по умолчанию .env
для получения дополнительной информации. Чтобы настроить переменную локально, вам следует создать .env.local
(не фиксируйте этот файл, поскольку он будет содержать ваши секреты).
-> Если вы собираетесь запустить его с помощью локальных, облачных и/или проприетарных моделей , вам потребуется написать код ? .
В настоящее время AI Comic Factory использует zephyr-7b-beta через конечную точку вывода.
У вас есть несколько вариантов:
Это новая опция, добавленная недавно, где вы можете использовать одну из моделей Hugging Face Hub. По умолчанию мы предлагаем использовать Zephyr-7b-beta, поскольку он обеспечит лучшие результаты, чем модель 7b.
Чтобы активировать его, создайте файл конфигурации .env.local
:
LLM_ENGINE= " INFERENCE_API "
HF_API_TOKEN= " Your Hugging Face token "
# "HuggingFaceH4/zephyr-7b-beta" is used by default, but you can change this
# note: You should use a model able to generate JSON responses,
# so it is storngly suggested to use at least the 34b model
HF_INFERENCE_API_MODEL= " HuggingFaceH4/zephyr-7b-beta "
Если вы хотите запустить AI Comic Factory на частном LLM, работающем в службе конечной точки Hugging Face Inference, создайте файл конфигурации .env.local
:
LLM_ENGINE= " INFERENCE_ENDPOINT "
HF_API_TOKEN= " Your Hugging Face token "
HF_INFERENCE_ENDPOINT_URL= " path to your inference endpoint url "
Чтобы запустить этот тип LLM локально, вы можете использовать TGI (пожалуйста, прочитайте этот пост для получения дополнительной информации о лицензировании).
Это новая опция, добавленная недавно, с помощью которой вы можете использовать OpenAI API с ключом OpenAI API.
Чтобы активировать его, создайте файл конфигурации .env.local
:
LLM_ENGINE= " OPENAI "
# default openai api base url is: https://api.openai.com/v1
LLM_OPENAI_API_BASE_URL= " A custom OpenAI API Base URL if you have some special privileges "
LLM_OPENAI_API_MODEL= " gpt-4-turbo "
AUTH_OPENAI_API_KEY= " Yourown OpenAI API Key "
LLM_ENGINE= " GROQ "
LLM_GROQ_API_MODEL= " mixtral-8x7b-32768 "
AUTH_GROQ_API_KEY= " Your own GROQ API Key "
LLM_ENGINE= " ANTHROPIC "
LLM_ANTHROPIC_API_MODEL= " claude-3-opus-20240229 "
AUTH_ANTHROPIC_API_KEY= " Your own ANTHROPIC API Key "
Другим вариантом может быть полное отключение LLM и замена его другим протоколом и/или поставщиком LLM (например, Claude, Replication) или вместо этого созданной человеком историей (путем возврата ложных или статических данных).
Возможно, я модифицирую AI Comic Factory, чтобы сделать ее проще в будущем (например, добавлю поддержку Клода или Репликации).
Этот API используется для создания изображений панели. Это API, который я создал для своих различных проектов в Hugging Face.
Я еще не написал для него документацию, но по сути это «просто обертка™» вокруг других существующих API:
Вам придется клонировать исходный код
К сожалению, у меня еще не было времени написать документацию для VideoChain. (Когда я это сделаю, я обновлю этот документ, указав на README VideoChain)
Чтобы использовать репликацию, создайте файл конфигурации .env.local
:
RENDERING_ENGINE= " REPLICATE "
RENDERING_REPLICATE_API_MODEL= " stabilityai/sdxl "
RENDERING_REPLICATE_API_MODEL_VERSION= " da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf "
AUTH_REPLICATE_API_TOKEN= " Your Replicate token "
Если вы создадите форк проекта, вы сможете изменить код для использования технологии Stable Diffusion по вашему выбору (локальной, с открытым исходным кодом, собственной разработки, вашего собственного HF Space и т. д.).
Это было бы даже что-то другое, например, Dall-E.