标题 | 表情符号 | 颜色来自 | 颜色到 | 开发工具包 | 固定的 | 应用程序端口 | 禁用嵌入 | 简短描述 | hf_oauth | hf_oauth_expiration_分钟 | hf_oauth_范围 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
人工智能漫画工厂 | ?? | 红色的 | 黄色的 | 泊坞窗 | 真的 | 3000 | 错误的 | 只需一个提示即可创建您自己的 AI 漫画 | 真的 | 43200 |
|
最新版本:AI漫画工厂1.2
AI漫画工厂即将推出官方网站:aiconicfactory.app
有关我的其他项目的更多信息,请查看 linktr.ee/FLNGR。
首先,我想强调一切都是开源的(请参阅此处、此处、此处、此处)。
然而,该项目并不是一个可以复制并立即运行的整体空间:它需要前端、后端、LLM、SDXL 等各种组件来运行。
如果您尝试复制该项目,请打开.env
您将看到它需要一些变量。
提供商配置:
LLM_ENGINE
:可以是INFERENCE_API
、 INFERENCE_ENDPOINT
、 OPENAI
、 GROQ
、 ANTHROPIC
之一RENDERING_ENGINE
:目前可以是以下之一:“INFERENCE_API”、“INFERENCE_ENDPOINT”、“REPLICATE”、“VIDEOCHAIN”、“OPENAI”,除非您编写自定义解决方案验证配置:
AUTH_HF_API_TOKEN
:如果您决定将 Hugging Face 用于 LLM 引擎(推理 api 模型或自定义推理端点)AUTH_OPENAI_API_KEY
:将 OpenAI 用于 LLM 引擎AUTH_GROQ_API_KEY
:将 Groq 用于 LLM 引擎AUTH_ANTHROPIC_API_KEY
:使用 Anthropic (Claude) 作为 LLM 引擎AUTH_VIDEOCHAIN_API_TOKEN
:访问 VideoChain API 服务器的秘密令牌AUTH_REPLICATE_API_TOKEN
:如果您想使用 Replicate.com渲染配置:
RENDERING_HF_INFERENCE_ENDPOINT_URL
:如果您决定使用自定义推理端点,则必需RENDERING_REPLICATE_API_MODEL_VERSION
:VideoChain API 服务器的 URLRENDERING_HF_INFERENCE_ENDPOINT_URL
:可选,默认为空RENDERING_HF_INFERENCE_API_BASE_MODEL
:可选,默认为“stabilityai/stable-diffusion-xl-base-1.0”RENDERING_HF_INFERENCE_API_REFINER_MODEL
:可选,默认为“stabilityai/stable-diffusion-xl-refiner-1.0”RENDERING_REPLICATE_API_MODEL
:可选,默认为“stabilityai/sdxl”RENDERING_REPLICATE_API_MODEL_VERSION
:可选,以防您想更改版本语言模型配置(取决于您决定使用的LLM引擎):
LLM_HF_INFERENCE_ENDPOINT_URL
:“”LLM_HF_INFERENCE_API_MODEL
:“HuggingFaceH4/zephyr-7b-beta”LLM_OPENAI_API_BASE_URL
:“https://api.openai.com/v1”LLM_OPENAI_API_MODEL
:“gpt-4-turbo”LLM_GROQ_API_MODEL
:“mixtral-8x7b-32768”LLM_ANTHROPIC_API_MODEL
:“claude-3-opus-20240229”此外,还有一些社区共享变量您可以忽略。在您自己的网站或计算机上运行 AI Comic Factory 不需要这些变量(它们旨在与 Hugging Face 社区建立连接,因此仅对官方 Hugging Face 应用程序有意义):
NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING
:你不需要这个COMMUNITY_API_URL
:你不需要这个COMMUNITY_API_TOKEN
:你不需要这个COMMUNITY_API_ID
:你不需要这个请阅读.env
默认配置文件以获取更多信息。要在本地自定义变量,您应该创建一个.env.local
(不要提交此文件,因为它将包含您的机密)。
-> 如果您打算使用本地、云托管和/或专有模型运行它,您将需要编码? 。
目前,AI Comic Factory 通过推理端点使用 zephyr-7b-beta。
您有多种选择:
这是最近添加的一个新选项,您可以在其中使用 Hugging Face Hub 中的模型之一。默认情况下,我们建议使用 zephyr-7b-beta,因为它会提供比 7b 模型更好的结果。
要激活它,请创建一个.env.local
配置文件:
LLM_ENGINE= " INFERENCE_API "
HF_API_TOKEN= " Your Hugging Face token "
# "HuggingFaceH4/zephyr-7b-beta" is used by default, but you can change this
# note: You should use a model able to generate JSON responses,
# so it is storngly suggested to use at least the 34b model
HF_INFERENCE_API_MODEL= " HuggingFaceH4/zephyr-7b-beta "
如果您想在 Hugging Face Inference Endpoint 服务上运行的私有 LLM 上运行 AI Comic Factory,请创建一个.env.local
配置文件:
LLM_ENGINE= " INFERENCE_ENDPOINT "
HF_API_TOKEN= " Your Hugging Face token "
HF_INFERENCE_ENDPOINT_URL= " path to your inference endpoint url "
要在本地运行这种 LLM,您可以使用 TGI(请阅读这篇文章以获取有关许可的更多信息)。
这是最近添加的一个新选项,您可以通过 OpenAI API 密钥使用 OpenAI API。
要激活它,请创建一个.env.local
配置文件:
LLM_ENGINE= " OPENAI "
# default openai api base url is: https://api.openai.com/v1
LLM_OPENAI_API_BASE_URL= " A custom OpenAI API Base URL if you have some special privileges "
LLM_OPENAI_API_MODEL= " gpt-4-turbo "
AUTH_OPENAI_API_KEY= " Yourown OpenAI API Key "
LLM_ENGINE= " GROQ "
LLM_GROQ_API_MODEL= " mixtral-8x7b-32768 "
AUTH_GROQ_API_KEY= " Your own GROQ API Key "
LLM_ENGINE= " ANTHROPIC "
LLM_ANTHROPIC_API_MODEL= " claude-3-opus-20240229 "
AUTH_ANTHROPIC_API_KEY= " Your own ANTHROPIC API Key "
另一种选择可能是完全禁用 LLM 并将其替换为另一个 LLM 协议和/或提供者(例如 Claude、Replicate),或人工生成的故事(通过返回模拟或静态数据)。
我可能会修改AI漫画工厂以使其将来变得更容易(例如添加对Claude或Replicate的支持)
该API用于生成面板图像。这是我为 Hugging Face 的各个项目创建的 API。
我还没有为它编写文档,但基本上它是其他现有 API 的“只是一个包装器™”:
您必须克隆源代码
不幸的是,我还没有时间为 VideoChain 编写文档。 (当我这样做时,我将更新此文档以指向 VideoChain 的自述文件)
要使用复制,请创建一个.env.local
配置文件:
RENDERING_ENGINE= " REPLICATE "
RENDERING_REPLICATE_API_MODEL= " stabilityai/sdxl "
RENDERING_REPLICATE_API_MODEL_VERSION= " da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf "
AUTH_REPLICATE_API_TOKEN= " Your Replicate token "
如果您分叉该项目,您将能够修改代码以使用您选择的稳定扩散技术(本地、开源、专有、您的自定义 HF 空间等)。
甚至可能是其他东西,例如 Dall-E。