عنوان | com.emoji | colorFrom | colorTo | SDK | مثبت | app_port | Disable_embedding | short_description | hf_oauth | hf_oauth_expiration_Minutes | hf_oauth_scopes | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
مصنع الذكاء الاصطناعي الهزلي | ?? | أحمر | أصفر | عامل ميناء | حقيقي | 3000 | خطأ شنيع | قم بإنشاء الرسوم الهزلية الخاصة بك باستخدام الذكاء الاصطناعي بمطالبة واحدة | حقيقي | 43200 |
|
الإصدار الأخير: AI Comic Factory 1.2
سيكون لدى AI Comic Factory قريبًا موقعًا إلكترونيًا رسميًا: aicomicfactory.app
لمزيد من المعلومات حول مشاريعي الأخرى يرجى مراجعة linktr.ee/FLNGR.
أولاً، أود أن أسلط الضوء على أن كل شيء مفتوح المصدر (انظر هنا، هنا، هنا، هنا).
ومع ذلك، فإن المشروع ليس مساحة متجانسة يمكن تكرارها وتشغيلها على الفور: فهو يتطلب مكونات مختلفة لتشغيلها للواجهة الأمامية والخلفية وLLM وSDXL وما إلى ذلك.
إذا حاولت تكرار المشروع، فافتح ملف .env
وسترى أنه يتطلب بعض المتغيرات.
تكوين الموفر:
LLM_ENGINE
: يمكن أن يكون واحدًا من INFERENCE_API
، و INFERENCE_ENDPOINT
، و OPENAI
، و GROQ
، و ANTHROPIC
RENDERING_ENGINE
: يمكن أن يكون واحدًا من: "INFERENCE_API"، و"INFERENCE_ENDPOINT"، و"REPLICATE"، و"VIDEOCHAIN"، و"OPENAI" في الوقت الحالي، ما لم تقم بترميز الحل المخصص الخاص بكتكوين المصادقة:
AUTH_HF_API_TOKEN
: إذا قررت استخدام Hugging Face لمحرك LLM (نموذج واجهة برمجة التطبيقات الاستدلالية أو نقطة نهاية الاستدلال المخصصة)AUTH_OPENAI_API_KEY
: لاستخدام OpenAI لمحرك LLMAUTH_GROQ_API_KEY
: لاستخدام Groq لمحرك LLMAUTH_ANTHROPIC_API_KEY
: لاستخدام Anthropic (كلود) لمحرك LLMAUTH_VIDEOCHAIN_API_TOKEN
: رمز سري للوصول إلى خادم VideoChain APIAUTH_REPLICATE_API_TOKEN
: في حالة رغبتك في استخدام Replicate.comتكوين العرض:
RENDERING_HF_INFERENCE_ENDPOINT_URL
: ضروري إذا قررت استخدام نقطة نهاية استدلال مخصصةRENDERING_REPLICATE_API_MODEL_VERSION
: عنوان url لخادم VideoChain APIRENDERING_HF_INFERENCE_ENDPOINT_URL
: اختياري، الافتراضي هو لا شيءRENDERING_HF_INFERENCE_API_BASE_MODEL
: اختياري، الإعدادات الافتراضية هي "stabilityai/stable-diffusion-xl-base-1.0"RENDERING_HF_INFERENCE_API_REFINER_MODEL
: اختياري، الإعدادات الافتراضية هي "stabilityai/stable-diffusion-xl-refiner-1.0"RENDERING_REPLICATE_API_MODEL
: اختياري، الإعداد الافتراضي هو "stabilityai/sdxl"RENDERING_REPLICATE_API_MODEL_VERSION
: اختياري، في حالة رغبتك في تغيير الإصدارتكوين نموذج اللغة (اعتمادًا على محرك LLM الذي قررت استخدامه):
LLM_HF_INFERENCE_ENDPOINT_URL
: ""LLM_HF_INFERENCE_API_MODEL
: "HuggingFaceH4/zephyr-7b-beta"LLM_OPENAI_API_BASE_URL
: "https://api.openai.com/v1"LLM_OPENAI_API_MODEL
: "gpt-4-turbo"LLM_GROQ_API_MODEL
: "mixtral-8x7b-32768"LLM_ANTHROPIC_API_MODEL
: "كلود-3-أوبوس-20240229"بالإضافة إلى ذلك، هناك بعض متغيرات المشاركة المجتمعية التي يمكنك تجاهلها. هذه المتغيرات ليست مطلوبة لتشغيل AI Comic Factory على موقع الويب الخاص بك أو جهاز الكمبيوتر الخاص بك (المقصود منها هو إنشاء اتصال مع مجتمع Hugging Face، وبالتالي فهي منطقية فقط لتطبيقات Hugging Face الرسمية):
NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING
: لست بحاجة إلى هذاCOMMUNITY_API_URL
: لست بحاجة إلى هذاCOMMUNITY_API_TOKEN
: لست بحاجة إلى هذاCOMMUNITY_API_ID
: لا تحتاج إلى هذا يرجى قراءة ملف التكوين الافتراضي .env
لمزيد من المعلومات. لتخصيص متغير محليًا، يجب عليك إنشاء .env.local
(لا تلتزم بهذا الملف لأنه سيحتوي على أسرارك).
-> إذا كنت تنوي تشغيله باستخدام نماذج محلية و/أو مستضافة على السحابة و/أو خاصة ، فستحتاج إلى البرمجة ? .
يستخدم AI Comic Factory حاليًا zephyr-7b-beta من خلال نقطة نهاية الاستدلال.
لديك خيارات متعددة:
هذا خيار جديد تمت إضافته مؤخرًا، حيث يمكنك استخدام أحد النماذج من Hugging Face Hub. افتراضيًا، نقترح استخدام zephyr-7b-beta لأنه سيوفر نتائج أفضل من نموذج 7b.
لتنشيطه، قم بإنشاء ملف تكوين .env.local
:
LLM_ENGINE= " INFERENCE_API "
HF_API_TOKEN= " Your Hugging Face token "
# "HuggingFaceH4/zephyr-7b-beta" is used by default, but you can change this
# note: You should use a model able to generate JSON responses,
# so it is storngly suggested to use at least the 34b model
HF_INFERENCE_API_MODEL= " HuggingFaceH4/zephyr-7b-beta "
إذا كنت ترغب في تشغيل AI Comic Factory على LLM خاص يعمل على خدمة Hugging Face Inference Endpoint، فقم بإنشاء ملف تكوين .env.local
:
LLM_ENGINE= " INFERENCE_ENDPOINT "
HF_API_TOKEN= " Your Hugging Face token "
HF_INFERENCE_ENDPOINT_URL= " path to your inference endpoint url "
لتشغيل هذا النوع من LLM محليًا، يمكنك استخدام TGI (يرجى قراءة هذا المنشور لمزيد من المعلومات حول الترخيص).
هذا خيار جديد تمت إضافته مؤخرًا، حيث يمكنك استخدام OpenAI API مع مفتاح OpenAI API.
لتنشيطه، قم بإنشاء ملف تكوين .env.local
:
LLM_ENGINE= " OPENAI "
# default openai api base url is: https://api.openai.com/v1
LLM_OPENAI_API_BASE_URL= " A custom OpenAI API Base URL if you have some special privileges "
LLM_OPENAI_API_MODEL= " gpt-4-turbo "
AUTH_OPENAI_API_KEY= " Yourown OpenAI API Key "
LLM_ENGINE= " GROQ "
LLM_GROQ_API_MODEL= " mixtral-8x7b-32768 "
AUTH_GROQ_API_KEY= " Your own GROQ API Key "
LLM_ENGINE= " ANTHROPIC "
LLM_ANTHROPIC_API_MODEL= " claude-3-opus-20240229 "
AUTH_ANTHROPIC_API_KEY= " Your own ANTHROPIC API Key "
قد يكون هناك خيار آخر يتمثل في تعطيل LLM بالكامل واستبداله ببروتوكول و/أو مزود LLM آخر (على سبيل المثال، Claude، Replicate)، أو قصة أنشأها الإنسان بدلاً من ذلك (عن طريق إرجاع بيانات وهمية أو ثابتة).
من الممكن أن أقوم بتعديل AI Comic Factory لتسهيل الأمر في المستقبل (على سبيل المثال، إضافة دعم لـ Claude أو Replicate)
يتم استخدام واجهة برمجة التطبيقات هذه لإنشاء صور اللوحة. هذه واجهة برمجة تطبيقات قمت بإنشائها لمشاريعي المتنوعة في Hugging Face.
لم أكتب توثيقًا لها بعد، ولكنها في الأساس "مجرد غلاف ™" حول واجهات برمجة التطبيقات الموجودة الأخرى:
سيكون عليك استنساخ الكود المصدري
لسوء الحظ، لم يكن لدي الوقت لكتابة وثائق VideoChain بعد. (عندما أفعل ذلك، سأقوم بتحديث هذا المستند للإشارة إلى ملف README الخاص بـ VideoChain)
لاستخدام Replicate، قم بإنشاء ملف تكوين .env.local
:
RENDERING_ENGINE= " REPLICATE "
RENDERING_REPLICATE_API_MODEL= " stabilityai/sdxl "
RENDERING_REPLICATE_API_MODEL_VERSION= " da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf "
AUTH_REPLICATE_API_TOKEN= " Your Replicate token "
إذا قمت بتقسيم المشروع، فسوف تكون قادرًا على تعديل الكود لاستخدام تقنية Stable Diffusion التي تختارها (محلية، مفتوحة المصدر، مملوكة، مساحة HF المخصصة الخاصة بك وما إلى ذلك).
بل قد يكون شيئًا آخر، مثل Dall-E.