標題 | 表情符號 | 顏色來自 | 顏色到 | 開發工具包 | 固定的 | 應用程式連接埠 | 禁用嵌入 | 簡短描述 | hf_oauth | hf_oauth_expiration_分鐘 | hf_oauth_範圍 | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
人工智慧漫畫工廠 | ?? | 紅色的 | 黃色的 | 泊塢窗 | 真的 | 3000 | 錯誤的 | 只需一個提示即可創建您自己的 AI 漫畫 | 真的 | 43200 |
|
最新版本:AI漫畫工廠1.2
AI漫畫工廠即將推出官方網站:aiconicfactory.app
有關我的其他項目的更多信息,請查看 linktr.ee/FLNGR。
首先,我想強調一切都是開源的(請參閱此處、此處、此處、此處)。
然而,該專案並不是一個可以複製並立即運行的整體空間:它需要前端、後端、LLM、SDXL 等各種元件來運作。
如果您嘗試複製該項目,請打開.env
您將看到它需要一些變數。
提供者配置:
LLM_ENGINE
:可以是INFERENCE_API
、 INFERENCE_ENDPOINT
、 OPENAI
、 GROQ
、 ANTHROPIC
之一RENDERING_ENGINE
:目前可以是以下之一:“INFERENCE_API”、“INFERENCE_ENDPOINT”、“REPLICATE”、“VIDEOCHAIN”、“OPENAI”,除非您編寫自訂解決方案驗證配置:
AUTH_HF_API_TOKEN
:如果您決定將 Hugging Face 用於 LLM 引擎(推理 api 模型或自訂推理端點)AUTH_OPENAI_API_KEY
:將 OpenAI 用於 LLM 引擎AUTH_GROQ_API_KEY
:將 Groq 用於 LLM 引擎AUTH_ANTHROPIC_API_KEY
:使用 Anthropic (Claude) 作為 LLM 引擎AUTH_VIDEOCHAIN_API_TOKEN
:存取 VideoChain API 伺服器的秘密令牌AUTH_REPLICATE_API_TOKEN
:如果您想使用 Replicate.com渲染配置:
RENDERING_HF_INFERENCE_ENDPOINT_URL
:如果您決定使用自訂推理端點,則必需RENDERING_REPLICATE_API_MODEL_VERSION
:VideoChain API 伺服器的 URLRENDERING_HF_INFERENCE_ENDPOINT_URL
:可選,預設為空RENDERING_HF_INFERENCE_API_BASE_MODEL
:可選,預設為“stabilityai/stable-diffusion-xl-base-1.0”RENDERING_HF_INFERENCE_API_REFINER_MODEL
:可選,預設為“stabilityai/stable-diffusion-xl-refiner-1.0”RENDERING_REPLICATE_API_MODEL
:可選,預設為“stabilityai/sdxl”RENDERING_REPLICATE_API_MODEL_VERSION
:可選,以防您想更改版本語言模型配置(取決於您決定使用的LLM引擎):
LLM_HF_INFERENCE_ENDPOINT_URL
:“”LLM_HF_INFERENCE_API_MODEL
:“HuggingFaceH4/zephyr-7b-beta”LLM_OPENAI_API_BASE_URL
:“https://api.openai.com/v1”LLM_OPENAI_API_MODEL
:“gpt-4-turbo”LLM_GROQ_API_MODEL
:“mixtral-8x7b-32768”LLM_ANTHROPIC_API_MODEL
:“claude-3-opus-20240229”此外,還有一些社區共享變數您可以忽略。在您自己的網站或電腦上執行 AI Comic Factory 不需要這些變數(它們旨在與 Hugging Face 社群建立連接,因此僅對官方 Hugging Face 應用程式有意義):
NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING
:你不需要這個COMMUNITY_API_URL
:你不需要這個COMMUNITY_API_TOKEN
:你不需要這個COMMUNITY_API_ID
:你不需要這個請閱讀.env
預設設定檔以取得更多資訊。要在本地自訂變量,您應該創建一個.env.local
(不要提交此文件,因為它將包含您的機密)。
-> 如果您打算使用本地、雲端託管和/或專有模型來運行它,您將需要編碼?
目前,AI Comic Factory 透過推理端點使用 zephyr-7b-beta。
您有多種選擇:
這是最近新增的一個新選項,您可以在其中使用 Hugging Face Hub 中的模型之一。預設情況下,我們建議使用 zephyr-7b-beta,因為它會提供比 7b 模型更好的結果。
要啟動它,請建立一個.env.local
設定檔:
LLM_ENGINE= " INFERENCE_API "
HF_API_TOKEN= " Your Hugging Face token "
# "HuggingFaceH4/zephyr-7b-beta" is used by default, but you can change this
# note: You should use a model able to generate JSON responses,
# so it is storngly suggested to use at least the 34b model
HF_INFERENCE_API_MODEL= " HuggingFaceH4/zephyr-7b-beta "
如果您想在 Hugging Face Inference Endpoint 服務上執行的私人 LLM 上執行 AI Comic Factory,請建立一個.env.local
設定檔:
LLM_ENGINE= " INFERENCE_ENDPOINT "
HF_API_TOKEN= " Your Hugging Face token "
HF_INFERENCE_ENDPOINT_URL= " path to your inference endpoint url "
要在本地運行這種 LLM,您可以使用 TGI(請閱讀這篇文章以獲取有關許可的更多資訊)。
這是最近新增的一個新選項,您可以透過 OpenAI API 金鑰使用 OpenAI API。
要啟動它,請建立一個.env.local
設定檔:
LLM_ENGINE= " OPENAI "
# default openai api base url is: https://api.openai.com/v1
LLM_OPENAI_API_BASE_URL= " A custom OpenAI API Base URL if you have some special privileges "
LLM_OPENAI_API_MODEL= " gpt-4-turbo "
AUTH_OPENAI_API_KEY= " Yourown OpenAI API Key "
LLM_ENGINE= " GROQ "
LLM_GROQ_API_MODEL= " mixtral-8x7b-32768 "
AUTH_GROQ_API_KEY= " Your own GROQ API Key "
LLM_ENGINE= " ANTHROPIC "
LLM_ANTHROPIC_API_MODEL= " claude-3-opus-20240229 "
AUTH_ANTHROPIC_API_KEY= " Your own ANTHROPIC API Key "
另一種選擇可能是完全停用 LLM 並將其替換為另一個 LLM 協定和/或提供者(例如 Claude、Replicate),或人工生成的故事(透過返回模擬或靜態資料)。
我可能會修改AI漫畫工廠以使其將來變得更容易(例如添加對Claude或Replicate的支援)
此API用於產生面板映像。這是我為 Hugging Face 的各個專案創建的 API。
我還沒有為它編寫文檔,但基本上它是其他現有 API 的“只是一個包裝器™”:
您必須克隆原始程式碼
不幸的是,我還沒有時間為 VideoChain 編寫文件。 (當我這樣做時,我將更新此文件以指向 VideoChain 的自述文件)
若要使用複製,請建立一個.env.local
設定檔:
RENDERING_ENGINE= " REPLICATE "
RENDERING_REPLICATE_API_MODEL= " stabilityai/sdxl "
RENDERING_REPLICATE_API_MODEL_VERSION= " da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf "
AUTH_REPLICATE_API_TOKEN= " Your Replicate token "
如果您分叉該項目,您將能夠修改程式碼以使用您選擇的穩定擴散技術(本地、開源、專有、您的自訂 HF 空間等)。
甚至可能是其他東西,例如 Dall-E。