judul | emoji | warnaDari | warnaUntuk | SDK | disematkan | aplikasi_port | nonaktifkan_penyematan | deskripsi_pendek | hf_oauth | hf_oauth_expiration_menit | hf_oauth_scopes | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
Pabrik Komik AI | ?? | merah | kuning | buruh pelabuhan | BENAR | 3000 | PALSU | Buat komik AI Anda sendiri dengan satu perintah | BENAR | 43200 |
|
Rilis terakhir: AI Comic Factory 1.2
Pabrik Komik AI akan segera memiliki situs resmi: aicomicfactory.app
Untuk informasi lebih lanjut tentang proyek saya yang lain, silakan periksa linktr.ee/FLNGR.
Pertama, saya ingin menekankan bahwa semuanya bersumber terbuka (lihat di sini, di sini, di sini, di sini).
Namun proyek ini bukanlah Ruang monolitik yang dapat diduplikasi dan langsung dijalankan: proyek ini memerlukan berbagai komponen untuk dijalankan di frontend, backend, LLM, SDXL, dll.
Jika Anda mencoba menduplikasi proyek, buka .env
Anda akan melihatnya memerlukan beberapa variabel.
Konfigurasi penyedia:
LLM_ENGINE
: dapat berupa salah satu dari INFERENCE_API
, INFERENCE_ENDPOINT
, OPENAI
, GROQ
, ANTHROPIC
RENDERING_ENGINE
: dapat berupa salah satu dari: "INFERENCE_API", "INFERENCE_ENDPOINT", "REPLICATE", "VIDEOCHAIN", "OPENAI" untuk saat ini, kecuali Anda mengkodekan solusi khusus AndaKonfigurasi autentikasi:
AUTH_HF_API_TOKEN
: jika Anda memutuskan untuk menggunakan Hugging Face untuk mesin LLM (model api inferensi atau titik akhir inferensi khusus)AUTH_OPENAI_API_KEY
: untuk menggunakan OpenAI untuk mesin LLMAUTH_GROQ_API_KEY
: untuk menggunakan Groq untuk mesin LLMAUTH_ANTHROPIC_API_KEY
: untuk menggunakan Anthropic (Claude) untuk mesin LLMAUTH_VIDEOCHAIN_API_TOKEN
: token rahasia untuk mengakses server API VideoChainAUTH_REPLICATE_API_TOKEN
: jika Anda ingin menggunakan Replikasi.comKonfigurasi rendering:
RENDERING_HF_INFERENCE_ENDPOINT_URL
: diperlukan jika Anda memutuskan untuk menggunakan titik akhir inferensi khususRENDERING_REPLICATE_API_MODEL_VERSION
: url ke server API VideoChainRENDERING_HF_INFERENCE_ENDPOINT_URL
: opsional, default tidak adaRENDERING_HF_INFERENCE_API_BASE_MODEL
: opsional, defaultnya adalah "stabilityai/stable-diffusion-xl-base-1.0"RENDERING_HF_INFERENCE_API_REFINER_MODEL
: opsional, defaultnya adalah "stabilityai/stable-diffusion-xl-refiner-1.0"RENDERING_REPLICATE_API_MODEL
: opsional, defaultnya adalah "stabilityai/sdxl"RENDERING_REPLICATE_API_MODEL_VERSION
: opsional, jika Anda ingin mengubah versiKonfigurasi model bahasa (tergantung pada mesin LLM yang Anda putuskan untuk digunakan):
LLM_HF_INFERENCE_ENDPOINT_URL
: ""LLM_HF_INFERENCE_API_MODEL
: "MemelukFaceH4/zephyr-7b-beta"LLM_OPENAI_API_BASE_URL
: "https://api.openai.com/v1"LLM_OPENAI_API_MODEL
: "gpt-4-turbo"LLM_GROQ_API_MODEL
: "mixtral-8x7b-32768"LLM_ANTHROPIC_API_MODEL
: "claude-3-opus-20240229"Selain itu, ada beberapa variabel berbagi komunitas yang bisa Anda abaikan saja. Variabel-variabel tersebut tidak diperlukan untuk menjalankan AI Comic Factory di situs web atau komputer Anda (variabel tersebut dimaksudkan untuk membuat koneksi dengan komunitas Hugging Face, dan karenanya hanya masuk akal untuk aplikasi resmi Hugging Face):
NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING
: Anda tidak memerlukan iniCOMMUNITY_API_URL
: Anda tidak memerlukan iniCOMMUNITY_API_TOKEN
: Anda tidak memerlukan iniCOMMUNITY_API_ID
: Anda tidak memerlukan ini Silakan baca file konfigurasi default .env
untuk informasi lebih lanjut. Untuk menyesuaikan variabel secara lokal, Anda harus membuat .env.local
(jangan komit file ini karena akan berisi rahasia Anda).
-> Jika Anda ingin menjalankannya dengan model lokal, yang dihosting di cloud, dan/atau berpemilik, Anda perlu membuat kode ? .
Saat ini Pabrik Komik AI menggunakan zephyr-7b-beta melalui Titik Akhir Inferensi.
Anda memiliki banyak pilihan:
Ini adalah opsi baru yang ditambahkan baru-baru ini, di mana Anda dapat menggunakan salah satu model dari Hugging Face Hub. Secara default kami menyarankan untuk menggunakan zephyr-7b-beta karena akan memberikan hasil yang lebih baik daripada model 7b.
Untuk mengaktifkannya, buat file konfigurasi .env.local
:
LLM_ENGINE= " INFERENCE_API "
HF_API_TOKEN= " Your Hugging Face token "
# "HuggingFaceH4/zephyr-7b-beta" is used by default, but you can change this
# note: You should use a model able to generate JSON responses,
# so it is storngly suggested to use at least the 34b model
HF_INFERENCE_API_MODEL= " HuggingFaceH4/zephyr-7b-beta "
Jika Anda ingin menjalankan AI Comic Factory pada LLM pribadi yang berjalan pada layanan Titik Akhir Inferensi Wajah Hugging, buat file konfigurasi .env.local
:
LLM_ENGINE= " INFERENCE_ENDPOINT "
HF_API_TOKEN= " Your Hugging Face token "
HF_INFERENCE_ENDPOINT_URL= " path to your inference endpoint url "
Untuk menjalankan LLM semacam ini secara lokal, Anda dapat menggunakan TGI (Silakan baca postingan ini untuk informasi lebih lanjut tentang perizinan).
Ini adalah opsi baru yang ditambahkan baru-baru ini, di mana Anda dapat menggunakan OpenAI API dengan Kunci API OpenAI.
Untuk mengaktifkannya, buat file konfigurasi .env.local
:
LLM_ENGINE= " OPENAI "
# default openai api base url is: https://api.openai.com/v1
LLM_OPENAI_API_BASE_URL= " A custom OpenAI API Base URL if you have some special privileges "
LLM_OPENAI_API_MODEL= " gpt-4-turbo "
AUTH_OPENAI_API_KEY= " Yourown OpenAI API Key "
LLM_ENGINE= " GROQ "
LLM_GROQ_API_MODEL= " mixtral-8x7b-32768 "
AUTH_GROQ_API_KEY= " Your own GROQ API Key "
LLM_ENGINE= " ANTHROPIC "
LLM_ANTHROPIC_API_MODEL= " claude-3-opus-20240229 "
AUTH_ANTHROPIC_API_KEY= " Your own ANTHROPIC API Key "
Pilihan lainnya adalah menonaktifkan LLM sepenuhnya dan menggantinya dengan protokol dan/atau penyedia LLM lain (misalnya Claude, Replikasi), atau cerita buatan manusia (dengan mengembalikan data tiruan atau statis).
Kemungkinan AI Comic Factory saya modifikasi agar kedepannya lebih mudah (misalkan menambahkan dukungan untuk Claude atau Replikasi)
API ini digunakan untuk menghasilkan gambar panel. Ini adalah API yang saya buat untuk berbagai proyek saya di Hugging Face.
Saya belum menulis dokumentasi untuk itu, tetapi pada dasarnya ini adalah "hanya pembungkus ™" di sekitar API lain yang ada:
Anda harus mengkloning kode sumber
Sayangnya, saya belum sempat menulis dokumentasi untuk VideoChain. (Ketika saya melakukannya, saya akan memperbarui dokumen ini agar mengarah ke README VideoChain)
Untuk menggunakan Replikasi, buat file konfigurasi .env.local
:
RENDERING_ENGINE= " REPLICATE "
RENDERING_REPLICATE_API_MODEL= " stabilityai/sdxl "
RENDERING_REPLICATE_API_MODEL_VERSION= " da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf "
AUTH_REPLICATE_API_TOKEN= " Your Replicate token "
Jika Anda melakukan fork proyek, Anda akan dapat memodifikasi kode untuk menggunakan teknologi Difusi Stabil pilihan Anda (lokal, sumber terbuka, kepemilikan, Ruang HF khusus Anda, dll).
Bahkan bisa menjadi sesuatu yang lain, seperti Dall-E.