협업 AI를 위한 무료 개방형 분산 플랫폼인 AI Horde에 오신 것을 환영합니다! AI Horde를 사용하면 전 세계 사람들이 GPU 성능을 활용하여 이미지, 텍스트 등을 생성할 수 있습니다. 로컬 컴퓨터에서 작업자를 실행하면 무리에 자신의 요청을 할 때 우선순위를 부여하는 명성을 얻을 수 있습니다.
작업자는 텍스트 프롬프트에서 이미지를 생성하는 등 AI Horde의 작업을 처리하는 소프트웨어입니다. 직원이 작업을 성공적으로 완료하면 칭찬을 받게 됩니다. 칭찬이 많을수록 요청이 더 빨리 처리됩니다.
작업자를 운영하면 칭찬을 받을 뿐만 아니라 AI Horde 생태계를 지원하고 유휴 주기 동안 GPU가 작동하도록 돕습니다. 맞춤형 자산을 생성하려는 아티스트, 대규모 이미지를 처리해야 하는 개발자, AI 민주화에 관심이 있는 사람 등 Horde는 무언가를 제공할 수 있습니다.
아직 계정을 등록하지 않았다면 AI Horde로 이동하여 계정을 등록한 다음 API 키를 안전한 곳에 저장하세요. API 키를 비밀번호처럼 취급하세요. 이 지침의 뒷부분에서 필요합니다. 이렇게 하면 직원이 귀하의 계정에 대한 칭찬을 수집할 수 있습니다.
Windows용 git을 설치한 경우 다음 지침을 따르세요.
이 옵션을 사용하면 저장소를 훨씬 쉽게 최신 상태로 유지할 수 있으므로 권장됩니다.
시작 메뉴에서 powershell
(터미널이라고도 함) 또는 cmd
엽니다.
cd
사용하여 작업자를 설치할 폴더로 이동합니다.
현재 있는 폴더에 horde-worker-reGen
이라는 폴더가 생성됩니다. 다음 명령을 실행하기 전에는 이 폴더가 존재하지 않아야 합니다.
C:horde
에 설치하려면 다음을 실행하십시오.
cd C:horde
horde
폴더가 존재하지 않는 경우:
cd C:
mkdir horde
cd C:horde
cmd
사용하고 있고 다른 드라이브에 설치하려면 다음과 같이 /d
옵션을 포함하십시오.
cd /d G:horde
선택한 폴더(위의 예를 사용하는 경우 폴더 horde
) 내에서 다음 명령을 실행합니다.
git clone https://github.com/Haidra-Org/horde-worker-reGen.git
cd horde-worker-reGen
기본 사용법 지침을 계속 진행하세요.
Windows용 git이 없고 설치를 원하지 않는 경우 이 지침을 사용하세요. 이러한 지침은 작업자 업데이트를 좀 더 어렵게 만듭니다.
이것은 git이 설치되어 있다고 가정합니다.
bash 터미널을 열고 다음 명령을 실행하세요(모두 함께 복사하여 붙여넣으면 됩니다).
git clone https://github.com/Haidra-Org/horde-worker-reGen.git
cd horde-worker-reGen
기본 사용법 지침을 계속 진행하세요.
이제 AMD는 더 나은 지원을 제공하는 것으로 나타났지만 Linux 시스템 에만 해당됩니다. Linux를 시스템에 직접 설치하는 것이 가장 좋습니다. WSL 지원은 매우 실험적입니다. 이제 적절한 경우 horde-bridge-rocm.sh
및 update-runtime-rocm.sh
를 사용하여 이 가이드를 따를 수 있습니다.
AMD 카드를 사용해 보시고 싶으시면 공식 디스코드에서 디스코드 토론에 참여해 보세요.
bridgeData_template.yaml
의 복사본을 bridgeData.yaml
로 만듭니다.bridgeData.yaml
편집하고 지침에 따라 세부 정보를 입력하세요. 작업자를 원활하게 실행하려면 다음 사항에 유의하세요.
threads
2 이하로 유지하십시오.queue_size
까지 증가합니다. 시스템 RAM이 32GB 미만인 경우 queue_size
를 1로 유지하세요. RAM이 16GB 미만인 경우 추가 최적화가 필요합니다(자세한 내용은 아래 참조). 모델은 필요에 따라 적시에 로드됩니다. SSD, 최소 32GB RAM, 최소 8GB VRAM이 있는 경우 원하는 만큼 많은 모델을 제공할 수 있습니다(중요 사항 참조 ). HDD를 사용하는 작업자는 현재 권장되지 않지만 HDD를 사용하는 작업자는 정확히 1개의 모델을 실행해야 합니다. 일반적인 SD1.5 모델은 각각 약 2GB인 반면, 일반적인 SDXL 모델은 각각 약 7GB입니다. all
모델에 제공되는 용량은 현재 총 700GB 정도이며, 향후 변경 사항이 있으면 이 숫자를 1TB 미만으로 유지하기 위해 최선을 다하고 있습니다.
참고 : 작업자가 실행되는 동안 시스템의 '절전' 또는 절전 모드를 비활성화하는 것이 좋습니다.
24GB 이상의 vram 카드 (예: 4090, 3090)가 있는 경우:
- safety_on_gpu : true
- high_performance_mode : true
- post_process_job_overlap : true
- unload_models_from_vram_often : false
- max_threads : 1 # If you have Flux/Cascade loaded, otherwise 2 max
- queue_size : 2 # You can set to 3 if you have 64GB or more of RAM
- max_batch : 8 # or higher
12GB~16GB 카드 (예: 3080 TI, 4070, 4080/4080 Super)가 있는 경우:
- safety_on_gpu : true # Consider setting to `false` if offering Cascade or Flux
- moderate_performance_mode : true
- unload_models_from_vram_often : false
- max_threads : 1
- max_batch : 4 # or higher
8GB~10GB VRAM 카드 (1080, 2080, 3060, 4060/4060 TI)를 사용하는 경우:
- queue_size : 1 # max **or** only offer flux
- safety_on_gpu : false
- max_threads : 1
- max_power : 32 # no higher than 32
- max_batch : 4 # no higher than 4
- allow_post_processing : false # If offering SDXL or Flux, otherwise you may set to true
- allow_sdxl_controlnet : false
기타 사유로 낮은 등급의 카드를 보유하고 있거나 성과가 낮은 근로자:
- extra_slow_worker: true
- limit_max_steps: true
- preload_timeout: 120
extra_slow_worker: true
사용하더라도 유지 관리 모드로 이어질 수도 있습니다. AI Horde 작업자는 지속적으로 개선되고 있습니다. Discord의 진행 상황을 확인하고 업데이트 알림을 받을 수 있습니다. 작업자 업데이트 또는 베타에 대한 알림을 받고 싶다면 #get-roles 채널로 이동하여 적절한 역할을 받으세요.
아래 지침은 horde-bridge
또는 update-runtime
을 나타냅니다. OS에 따라 Windows의 경우 .cmd
추가하고 Linux의 경우 .sh
추가하세요.
horde-bridge.cmd
및 update-runtime.cmd
입니다.horde-bridge-rocm.sh
및 update-runtime-rocm.sh
사용해야 합니다. Ctrl+C
한 번 누르고 작업자가 중지할 때까지 기다려 작업자를 종료합니다.
적절한 방법을 사용하여 이 저장소를 업데이트합니다.
파일 탐색기에서 아래 제공된 스크립트 파일을 두 번 클릭하거나 OS에 따라 bash
, cmd
와 같은 터미널에서 실행할 수 있습니다. 후자의 옵션을 사용하면 충돌 발생 시 오류를 확인할 수 있으므로 권장됩니다.
git clone
사용하여 원본 저장소를 복제한 경우 이 접근 방식을 사용하세요.
bash
, cmd
또는 powershell
터미널을 엽니다.git pull
실행런타임 업데이트를 참조하세요.
git 저장소를 zip 파일로 다운로드하고 어딘가에 추출한 경우 이 접근 방식을 사용하십시오.
horde_worker_regen/
디렉터리를 삭제하세요.런타임 업데이트를 참조하세요.
경고 : 특정 바이러스 백신(Avast 포함)이 설치를 방해하는 것으로 보고되었습니다. 이 파일을 실행할 때 오류
curl: (35) schannel: next InitializeSecurityContext failed: CRYPT_E_NO_REVOCATION_CHECK
발생하면 바이러스 백신을 비활성화하고 파일을 다시 실행한 다음 바이러스 백신을 다시 활성화하십시오.
해당 OS에 맞는 update-runtime
스크립트를 실행하세요. 필요한 경우 모든 종속성을 업데이트합니다.
아래의 시작/중지 지침을 계속 진행하세요.
참고 : 작업자는 시스템과 GPU 집약적인 프로그램입니다. 가능하면 비디오 게임을 하거나 기타 집중적인 작업(예: 이미지/비디오 편집)을 수행하지 마십시오. 이러한 활동에 참여하려면 작업자를 끄거나 제한된 설정에서 작은 모델만 사용하도록 구성하고 시스템 모니터를 면밀히 관찰하십시오.
처음 설치하는 경우 또는 업데이트가 필요한 경우 지침은 업데이트를 참조하세요.
horde-bridge
(Windows의 경우 .cmd, Linux의 경우 .sh)를 실행합니다.
horde-bridge-rocm
버전을 사용하십시오.Ctrl+C
함께 누릅니다.작업자가 실행되는 동안 터미널에서 직접 진행 상황을 모니터링할 수 있습니다. 성공적인 작업 완료, 획득한 칭찬, 성과 통계 및 오류를 나타내는 로그를 찾아보세요.
보다 자세한 모니터링을 위해서는 일일 로그 파일이 포함된 logs
디렉터리를 확인하세요.
bridge*.log
파일에 나타납니다.bridge.log
팝업으로 표시되는 기본 창입니다.bridge_n.log
기본 로그 파일에 나타나는 각 프로세스에 해당합니다. "프로세스 1"은 bridge_1.log
입니다.trace*.log
파일에 나타납니다.trace.log
팝업으로 표시되는 기본 창입니다.trace_n.log
기본 로그 파일에 나타나는 각 프로세스에 해당합니다. "프로세스 1"은 trace_1.log
입니다.앞으로는 여러 작업자 인스턴스를 실행할 필요가 없습니다.
여러 GPU를 사용하려면 각각 자체 인스턴스를 시작해야 합니다. Linux의 경우 특정 카드로 실행을 제한하면 됩니다.
CUDA_VISIBLE_DEVICES=0 ./horde-bridge.sh -n " My awesome instance #1 "
CUDA_VISIBLE_DEVICES=1 ./horde-bridge.sh -n " My awesome instance #2 "
등.
설정에 따라 매우 많은 양(32-64GB+)의 시스템 RAM이 필요하다는 점에 유의하세요 . queue_size
및 max_threads
작업자당 필요한 RAM 양을 크게 늘립니다.
모델 참조에서는 사용할 수 없는 자신만의 이미지 모델을 무리에서 호스팅할 수 있지만 이 프로세스는 좀 더 복잡합니다.
시작하려면 호드 팀에 customizer
역할을 수동으로 요청해야 합니다. 디스코드 채널에 요청하시면 됩니다. 이는 이 기능의 남용을 방지하기 위해 수동으로 할당된 역할입니다.
사용자 지정자 역할을 갖게 되면 다음을 수행하세요.
호스팅하려는 모델 파일을 다운로드하세요. 시스템의 어느 위치에나 배치하십시오.
직원에게 위치를 알려주고 그에 대한 몇 가지 정보를 제공하십시오. bridgeData.yaml
에 다음과 같은 줄을 추가하세요.
custom_models :
- name : Movable figure model XL
baseline : stable_diffusion_xl
filepath : /home/db0/projects/CUSTOM_MODELS/PVCStyleModelMovable_beta25Realistic.safetensors
models_to_load
에 동일한 "이름"을 추가하세요.
모든 것이 올바르게 설정되면 이제 작업자가 시작된 후 작업자 디렉터리에 custom_models.json
이 표시되고 작업자가 모델을 제공해야 합니다.
참고 사항:
clip_skip
과 같은 잘못된 매개변수를 사용하여 사람들에게 경고할 수 없습니다. https://hub.docker.com/r/tazlin/horde-worker-regen/tags에서 Docker 이미지를 찾을 수 있습니다.
지원되는 Docker 기능에 대한 자세한 가이드는 Dockerfiles/README.md를 참조하세요.
작업자를 수동으로 실행하는 방법에 대한 자세한 내용은 README_advanced.md를 참조하세요.
최신 정보와 문제 해결 도움말을 보려면 Discord의 #local-workers 채널을 확인하세요. 커뮤니티는 언제나 기꺼이 도움을 드리고 있습니다!
몇 가지 일반적인 문제와 해결 방법:
max_power
줄이세요.allow_post_processing
, allow_controlnet
, allow_sdxl_controlnet
및/또는 allow_lora
비활성화합니다.max_threads
, max_batch
또는 queue_size
(선호하는 순서대로) 줄이세요. 작업자가 활성화된 동안 다른 집중적인 프로그램을 실행하지 마십시오.버그가 발생하거나 기능 요청이 있는 경우 저장소에서 문제를 열어주세요. 귀하의 기여에 감사드립니다!
이 프로젝트의 많은 모델은 CreativeML OpenRAIL 라이선스를 사용합니다. 여기에서 전체 라이센스를 읽어보세요.