제목 | 이모티콘 | 색상에서 | 색상으로 | SDK | 고정된 | 앱_포트 | 비활성화_임베딩 | 짧은 설명 | hf_oauth | hf_oauth_expiration_분 | hf_oauth_scopes | |
---|---|---|---|---|---|---|---|---|---|---|---|---|
AI 코믹 팩토리 | ?? | 빨간색 | 노란색 | 도커 | 진실 | 3000 | 거짓 | 단일 프롬프트로 나만의 AI 만화를 만들어보세요 | 진실 | 43200 |
|
마지막 릴리스: AI Comic Factory 1.2
AI Comic Factory는 곧 공식 웹사이트인 aicomicfactory.app을 갖게 됩니다.
내 다른 프로젝트에 대한 자세한 내용은 linktr.ee/FLNGR을 확인하세요.
먼저 모든 것이 오픈 소스라는 점을 강조하고 싶습니다(여기, 여기, 여기, 여기 참조).
그러나 이 프로젝트는 복제하여 즉시 실행할 수 있는 모놀리식 공간이 아닙니다. 프런트엔드, 백엔드, LLM, SDXL 등을 실행하려면 다양한 구성 요소가 필요합니다.
프로젝트를 복제하려고 하면 .env
를 열면 몇 가지 변수가 필요한 것을 볼 수 있습니다.
공급자 구성:
LLM_ENGINE
: INFERENCE_API
, INFERENCE_ENDPOINT
, OPENAI
, GROQ
, ANTHROPIC
중 하나일 수 있습니다.RENDERING_ENGINE
: 사용자 지정 솔루션을 코딩하지 않는 한 현재는 "INFERENCE_API", "INFERENCE_ENDPOINT", "REPLICATE", "VIDEOCHAIN", "OPENAI" 중 하나일 수 있습니다.인증 구성:
AUTH_HF_API_TOKEN
: LLM 엔진에 Hugging Face를 사용하기로 결정한 경우(추론 API 모델 또는 사용자 정의 추론 엔드포인트)AUTH_OPENAI_API_KEY
: LLM 엔진에 OpenAI를 사용합니다.AUTH_GROQ_API_KEY
: LLM 엔진에 Groq를 사용합니다.AUTH_ANTHROPIC_API_KEY
: LLM 엔진에 Anthropic(Claude)을 사용합니다.AUTH_VIDEOCHAIN_API_TOKEN
: VideoChain API 서버에 접근하기 위한 비밀 토큰AUTH_REPLICATE_API_TOKEN
: Replicate.com을 사용하려는 경우렌더링 구성:
RENDERING_HF_INFERENCE_ENDPOINT_URL
: 사용자 지정 추론 엔드포인트를 사용하기로 결정한 경우 필요합니다.RENDERING_REPLICATE_API_MODEL_VERSION
: VideoChain API 서버에 대한 URLRENDERING_HF_INFERENCE_ENDPOINT_URL
: 선택사항, 기본값은 없음RENDERING_HF_INFERENCE_API_BASE_MODEL
: 선택 사항, 기본값은 "stabilityai/stable-diffusion-xl-base-1.0"입니다.RENDERING_HF_INFERENCE_API_REFINER_MODEL
: 선택 사항, 기본값은 "stabilityai/stable-diffusion-xl-refiner-1.0"입니다.RENDERING_REPLICATE_API_MODEL
: 선택 사항, 기본값은 "stabilityai/sdxl"입니다.RENDERING_REPLICATE_API_MODEL_VERSION
: 선택 사항, 버전을 변경하려는 경우언어 모델 구성(사용하기로 결정한 LLM 엔진에 따라 다름):
LLM_HF_INFERENCE_ENDPOINT_URL
: ""LLM_HF_INFERENCE_API_MODEL
: "HuggingFaceH4/zephyr-7b-beta"LLM_OPENAI_API_BASE_URL
: "https://api.openai.com/v1"LLM_OPENAI_API_MODEL
: "gpt-4-터보"LLM_GROQ_API_MODEL
: "mixtral-8x7b-32768"LLM_ANTHROPIC_API_MODEL
: "claude-3-opus-20240229"또한 무시할 수 있는 몇 가지 커뮤니티 공유 변수가 있습니다. 이러한 변수는 귀하의 웹사이트나 컴퓨터에서 AI Comic Factory를 실행하는 데 필요하지 않습니다(이 변수는 Hugging Face 커뮤니티와 연결을 생성하기 위한 것이므로 공식 Hugging Face 앱에만 의미가 있습니다).
NEXT_PUBLIC_ENABLE_COMMUNITY_SHARING
: 필요하지 않습니다.COMMUNITY_API_URL
: 필요하지 않습니다.COMMUNITY_API_TOKEN
: 필요하지 않습니다.COMMUNITY_API_ID
: 필요하지 않습니다. 자세한 내용은 .env
기본 구성 파일을 읽어보세요. 변수를 로컬로 사용자 정의하려면 .env.local
을 생성해야 합니다(비밀 정보가 포함되어 있으므로 이 파일을 커밋하지 마십시오).
-> 로컬, 클라우드 호스팅 및/또는 독점 모델로 실행하려는 경우 코딩이 필요합니까? .
현재 AI Comic Factory에서는 Inference Endpoint를 통해 zephyr-7b-beta를 사용하고 있습니다.
여러 가지 옵션이 있습니다:
이것은 Hugging Face Hub의 모델 중 하나를 사용할 수 있는 최근 추가된 새로운 옵션입니다. 기본적으로 7b 모델보다 더 나은 결과를 제공하는 zephyr-7b-beta를 사용하는 것이 좋습니다.
활성화하려면 .env.local
구성 파일을 생성하세요.
LLM_ENGINE= " INFERENCE_API "
HF_API_TOKEN= " Your Hugging Face token "
# "HuggingFaceH4/zephyr-7b-beta" is used by default, but you can change this
# note: You should use a model able to generate JSON responses,
# so it is storngly suggested to use at least the 34b model
HF_INFERENCE_API_MODEL= " HuggingFaceH4/zephyr-7b-beta "
Hugging Face Inference Endpoint 서비스에서 실행되는 개인 LLM에서 AI Comic Factory를 실행하려면 .env.local
구성 파일을 생성하십시오.
LLM_ENGINE= " INFERENCE_ENDPOINT "
HF_API_TOKEN= " Your Hugging Face token "
HF_INFERENCE_ENDPOINT_URL= " path to your inference endpoint url "
이러한 종류의 LLM을 로컬에서 실행하려면 TGI를 사용할 수 있습니다(라이선스에 대한 자세한 내용은 이 게시물을 참조하세요).
이는 최근 추가된 새로운 옵션으로, OpenAI API 키와 함께 OpenAI API를 사용할 수 있습니다.
활성화하려면 .env.local
구성 파일을 생성하세요.
LLM_ENGINE= " OPENAI "
# default openai api base url is: https://api.openai.com/v1
LLM_OPENAI_API_BASE_URL= " A custom OpenAI API Base URL if you have some special privileges "
LLM_OPENAI_API_MODEL= " gpt-4-turbo "
AUTH_OPENAI_API_KEY= " Yourown OpenAI API Key "
LLM_ENGINE= " GROQ "
LLM_GROQ_API_MODEL= " mixtral-8x7b-32768 "
AUTH_GROQ_API_KEY= " Your own GROQ API Key "
LLM_ENGINE= " ANTHROPIC "
LLM_ANTHROPIC_API_MODEL= " claude-3-opus-20240229 "
AUTH_ANTHROPIC_API_KEY= " Your own ANTHROPIC API Key "
또 다른 옵션은 LLM을 완전히 비활성화하고 이를 다른 LLM 프로토콜 및/또는 공급자(예: Claude, Replicate)로 대체하거나 대신 인간이 생성한 스토리(모의 또는 정적 데이터 반환)로 대체하는 것입니다.
앞으로 더 쉽게 만들 수 있도록 AI Comic Factory를 수정하는 것이 가능합니다(예: Claude 또는 Replicate에 대한 지원 추가).
이 API는 패널 이미지를 생성하는 데 사용됩니다. 이것은 제가 Hugging Face에서 다양한 프로젝트를 위해 만든 API입니다.
아직 문서를 작성하지 않았지만 기본적으로 다른 기존 API에 대한 "단지 래퍼 ™"입니다.
소스코드를 복제해야 합니다.
불행하게도 저는 아직 VideoChain에 대한 문서를 작성할 시간이 없었습니다. (그렇게 되면 VideoChain의 README를 가리키도록 이 문서를 업데이트하겠습니다)
복제를 사용하려면 .env.local
구성 파일을 만듭니다.
RENDERING_ENGINE= " REPLICATE "
RENDERING_REPLICATE_API_MODEL= " stabilityai/sdxl "
RENDERING_REPLICATE_API_MODEL_VERSION= " da77bc59ee60423279fd632efb4795ab731d9e3ca9705ef3341091fb989b7eaf "
AUTH_REPLICATE_API_TOKEN= " Your Replicate token "
프로젝트를 분기하면 원하는 Stable Diffusion 기술(로컬, 오픈 소스, 독점, 맞춤형 HF Space 등)을 사용하도록 코드를 수정할 수 있습니다.
Dall-E와 같은 다른 것일 수도 있습니다.