บ้าน
biniou เป็น webui ที่โฮสต์เองสำหรับ GenAI (ปัญญาประดิษฐ์ทั่วไป) หลายประเภท คุณสามารถสร้างเนื้อหามัลติมีเดียด้วย AI และใช้แชทบอทบนคอมพิวเตอร์ของคุณเองได้ แม้ว่าจะไม่มี GPU เฉพาะก็ตาม และเริ่มต้นจาก RAM ขนาด 8GB สามารถทำงานแบบออฟไลน์ได้ (เมื่อใช้งานแล้วและดาวน์โหลดโมเดลที่จำเป็น)
GNU/Linux [ ฐาน OpenSUSE | ฐาน RHEL | ฐานเดเบียน ] • Windows • macOS Intel (ทดลอง) • นักเทียบท่า
เอกสารประกอบ ❓ | โชว์รูม ⁉️
อัพเดท
- 23-11-2024 : อัปเดตประจำสัปดาห์นี้ >
- เพิ่มการรองรับ Chatbot รุ่น prithivMLmods/Llama-Doctor-3.2-3B-Instruct-GGUF
- เพิ่มการรองรับสำหรับรุ่น Flux LoRA Strangezonehf/Flux-Super-Realism-LoRA, Strangezonehf/Flux-Midjourney-Mix-LoRA, Norod78/Flux_1_Dev_LoRA_Paper-Cutout-Style, prithivMLmods/Knitted-Character-Flux-LoRA, Shakker-Labs/FLUX 1-dev-LoRA-เด็ก-ง่าย-Sketch, renderartist/retrocomicflux, prithivMLmods/Seamless-Pattern-Design-Flux-LoRA, alvdansen/haunted_linework_flux, prithivMLmods/Flux.1-Dev-Poster-HQ-LoRA, Grohv/randart2_lora, renderartist/retroadflux, prithivMLmods/Flux.1-Dev- เรียลไทม์-ตูน-มิกซ์ และ prithivMLmods/Flux-Product-Ad-Backdrop
- 16-11-2024 : อัปเดตประจำสัปดาห์นี้ >
- เพิ่มการรองรับสำหรับ Chatbot รุ่น bartowski/SuperNova-Medius-GGUF และ bartowski/OpenCoder-8B-Instruct-GGUF
- เพิ่มการรองรับสำหรับรุ่น Flux LoRA Shakker-Labs/FLUX.1-dev-LoRA-Text-Poster, dataautogpt3/FLUX-SyntheticAnime, prithivMLmods/Canopus-Pixar-3D-Flux-LoRA, prithivMLmods/Flux-Dev-Real-Anime- โลรา glif-loradex-trainer/shipley_flux_dev_AlicesAdventuresInWonderland_v2, prithivMLmods/Ton618-Only-Stickers-Flux-LoRA, markury/surrealidescent, FounderFeed/gta-style-lora, Keltezaa/movie-poster-ce-sdxl-flux, FounderFeed/MidjourneyMeetFlux และ dooart/flux-lora-vintage-ไพ่ทาโรต์
- เพิ่มการรองรับสำหรับ SD 3.5 รุ่น LoRA ขนาดใหญ่ nerijs/pixel-art-3.5L
- เพิ่มการสนับสนุนเบื้องต้นสำหรับโมดูล Flux เป็น IP-Adapter
- เพิ่มการสนับสนุนเบื้องต้นสำหรับโมดูล Flux ไปยัง ControlNet (ขณะนี้มีเพียงความสามารถและความลึกเท่านั้นที่ใช้งานได้)
- การเพิ่มประสิทธิภาพและการแก้ไขข้อบกพร่อง
- 2024-11-09 : อัปเดตประจำสัปดาห์นี้ >
- เพิ่มการรองรับสำหรับ Chatbot รุ่น bartowski/SmolLM2-1.7B-Instruct-GGUF, bartowski/cybertron-v4-qw7B-MGS-GGUF และ bartowski/OpenChat-3.5-0106_32K-PoSE-GGUF
- อัปเดต Chatbot รุ่น Llama-3.2-3B-Instruct-GGUF เป็น bartowski/Llama-3.2-3B-Instruct-uncensored-GGUF
- เพิ่มการรองรับ Flux LoRA หลายรุ่น สิ่งที่น่าทึ่งที่สุดคือโมเดล LoRA ที่รวดเร็ว Lingyuzhou/Hyper_Flux.1_Dev_4_step_Lora ซึ่งช่วยให้สามารถอนุมานได้ใน 4 ขั้นตอน คุ้มค่าแก่การลองอย่างแน่นอนหากคุณใช้ Flux
- เพิ่มการรองรับรุ่น Flux และ Flux LoRA สำหรับโมดูล img2img
- เพิ่มการรองรับรุ่น SD 3.5 Medium LoRA สำหรับโมดูล Stable Diffusion และ img2img
- เพิ่มหมวดหมู่ให้กับรุ่น Flux LoRA
- แก้ไขข้อผิดพลาดสำหรับนักเทียบท่าเมื่อใช้กับฮาร์ดไดรฟ์หลายตัวและแก้ไขปัญหาในการตั้งค่าโมดูล img2img
- 2024-11-02 : อัปเดตประจำสัปดาห์นี้ >
- เพิ่มการรองรับสำหรับรุ่น SD 3.5 ariG23498/sd-3.5-merged และ adamo1139/stable-diffusion-3.5-medium-ungated ไปจนถึง Stable Diffusion และ img2img
- เพิ่มการรองรับสำหรับ Chatbot รุ่น bartowski/granite-3.0-8b-instruct-GGUF
- เพิ่มการรองรับสำหรับรุ่น Flux LoRA dvyio/flux-lora-seventies-photograph, Bootoshi/retroanime, XLabs-AI/flux-RealismLora และ prithivMLmods/Ton618-Tarot-Cards-Flux-LoRA (อันสุดท้ายนี้ให้ผลลัพธ์ที่ยอดเยี่ยม !)
- เพิ่มการรองรับสำหรับโมเดล SD 3.5 LoRA alvarobartt/ghibli-Characters-sd3.5-lora, reverentelusarca/ancient-style-sd35 และ Wadaka/NewYorkerComic_Style
- เพิ่มการรองรับรุ่น SD 3.5 ให้กับโมดูล img2img
- 26-10-2024 : อัปเดตประจำสัปดาห์นี้ >
- ตามที่ได้ประกาศไว้ก่อนหน้านี้ ขณะนี้ Flux รุ่น Freepik/flux.1-lite-8B-alpha และ SD 3.5 รุ่น adamo1139/stable-diffusion-3.5-large-turbo-ungated ได้รับการสนับสนุนโดยโมดูล Stable Diffusion การสนับสนุนจะขยายไปยังโมดูลที่มีสิทธิ์ทั้งหมด เพิ่มการรองรับ LoRA ในรุ่นเหล่านี้ด้วย
- เพิ่มการรองรับโมเดล SDXL dataautogpt3/Proteus-v0.6 ให้กับโมดูลที่ใช้ Stable Diffusion ทั้งหมด
- เพิ่มการรองรับสำหรับรุ่น Chatbot anthracite-org/magnum-v4-9b-gguf และ bartowski/Ministral-8B-Instruct-2410-GGUF
- เพิ่มการรองรับ SDXL LoRA รุ่น KappaNeuro/moebius-jean-giraud-style
รายการอัพเดตที่เก็บถาวร
เมนู
• คุณสมบัติ
• ข้อกำหนดเบื้องต้น
• การติดตั้ง
กนู/ลินุกซ์
OpenSUSE Leap 15.5 / OpenSUSE ทัมเบิลวีด
ร็อคกี้ 9.3 / อัลมา 9.3 / CentOS สตรีม 9 / Fedora 39
เดเบียน 12 / อูบุนตู 22.04.3 / อูบุนตู 24.04 / ลินุกซ์มิ้นท์ 21.2
วินโดว์ 10 / วินโดว์ 11
ติดตั้ง macOS Intel Homebrew
Dockerfile
• รองรับ CUDA
• วิธีการใช้งาน
• ดีใจที่ได้รู้
• เครดิต
• ใบอนุญาต
คุณสมบัติ
การสร้างข้อความโดยใช้:
- ✍️ โมดูลแชทบอทที่ใช้ llama-cpp (ใช้โมเดล .gguf)
- ️ โมดูลแชทบอทหลายรูปแบบ Llava (ใช้รุ่น .gguf)
- ️ โมดูลคำบรรยายภาพ Microsoft GIT
- - โมดูลคำพูดเป็นข้อความกระซิบ
- โมดูลการแปล nllb (200 ภาษา)
- ตัวสร้างพรอมต์ (ต้องใช้ RAM 16GB+ สำหรับประเภทเอาต์พุต ChatGPT)
การสร้างและแก้ไขภาพโดยใช้:
- ️ โมดูลการแพร่กระจายที่เสถียร
- ️ โมดูล Kandinsky (ต้องใช้ RAM 16GB+)
- ️ โมดูลโมเดลความสม่ำเสมอแฝง
- ️ Midjourney-โมดูลมินิ
- ️โมดูล PixArt-Alpha
- ️ โมดูลการแพร่กระจาย Img2img ที่เสถียร
- ️ โมดูล IP-Adapter
- ️ โมดูลรูปแบบการกระจายภาพที่เสถียร (ต้องใช้ RAM 16GB+)
- ️ สั่งโมดูล Pix2Pix
- ️ โมดูล MagicMix
- ️ โมดูล Inpaint การแพร่กระจายที่เสถียร
- ️ โมดูล Fantasy Studio Paint ตามตัวอย่าง (ต้องใช้ RAM 16GB+)
- ️ โมดูลการกระจายสีที่เสถียร (ต้องใช้ RAM 16GB+)
- ️ โมดูล Diffusion ControlNet ที่เสถียร
- ️โมดูลโฟโต้บูท
- - โมดูลสลับใบหน้า Insight
- - โมดูลอัปสเกลเลอร์ ESRGAN จริง
- ?โมดูลฟื้นฟูใบหน้า GFPGAN
การสร้างเสียงโดยใช้:
- - โมดูล MusicGen
- - โมดูล MusicGen Melody (ต้องใช้ RAM 16GB+)
- - โมดูล MusicLDM
- - โมดูล Audiogen (ต้องใช้ RAM 16GB+)
- - โมดูลฮาร์โมไน
- โมดูลเปลือกไม้
การสร้างและแก้ไขวิดีโอโดยใช้:
- - โมดูล Modelscope (ต้องใช้ RAM 16GB+)
- - โมดูล Text2Video-ศูนย์
- - โมดูล AnimateDiff (ต้องใช้ RAM 16GB+)
- - โมดูลการกระจายวิดีโอที่เสถียร (ต้องใช้ RAM 16GB+)
- ️ โมดูล Video Instruct-Pix2Pix (ต้องใช้ RAM 16GB+)
การสร้างวัตถุ 3 มิติโดยใช้:
- - โมดูล Shap-E txt2shape
- - โมดูล Shap-E img2shape (ต้องใช้ RAM 16GB+)
คุณสมบัติอื่นๆ
- การติดตั้ง Zeroconf ผ่านตัวติดตั้งเพียงคลิกเดียวหรือ Windows exe
- เป็นมิตรกับผู้ใช้ : ทุกอย่างที่จำเป็นในการรัน biniou จะถูกติดตั้งโดยอัตโนมัติ ไม่ว่าจะในเวลาติดตั้งหรือในการใช้งานครั้งแรก
- WebUI เป็นภาษาอังกฤษ ฝรั่งเศส จีน (ดั้งเดิม)
- การจัดการที่ง่ายดายผ่านแผงควบคุมโดยตรงภายใน webui : อัปเดต รีสตาร์ท ปิดเครื่อง เปิดใช้งานการตรวจสอบสิทธิ์ ควบคุมการเข้าถึงเครือข่าย หรือแชร์อินสแตนซ์ของคุณทางออนไลน์ด้วยการคลิกเพียงครั้งเดียว
- การจัดการโมเดลอย่างง่ายดายผ่านอินเทอร์เฟซที่เรียบง่าย
- การสื่อสารระหว่างโมดูล : ส่งเอาต์พุตเป็นอินพุตไปยังโมดูลอื่น
- ขับเคลื่อนโดย ? Huggingface และกราดิโอ
- ข้ามแพลตฟอร์ม : GNU/Linux, Windows 10/11 และ macOS (ทดลองผ่าน homebrew)
- Dockerfile ที่สะดวกสบายสำหรับอินสแตนซ์คลาวด์
- การตั้งค่าการสร้างที่บันทึกเป็นข้อมูลเมตาในแต่ละเนื้อหา
- รองรับ CUDA (ดูการสนับสนุน CUDA)
- การสนับสนุนการทดลองสำหรับ ROCm (ดูที่นี่)
- รองรับการกระจายที่เสถียร SD-1.5, SD-2.1, SD-Turbo, SDXL, SDXL-Turbo, SDXL-Lightning, Hyper-SD, การแพร่กระจายที่เสถียร 3, LCM, VegaRT, Segmind, Playground-v2, Koala, Pixart-Alpha, Pixart-Sigma, Kandinsky และโมเดลที่เข้ากันได้ ผ่านรายการโมเดลในตัวหรือไฟล์ .safetensors แบบสแตนด์อโลน
- รองรับรุ่น LoRA (SD 1.5, SDXL และ SD3)
- รองรับการผกผันข้อความ
- รองรับการเพิ่มประสิทธิภาพ llama-cpp-python CUDA, OpenBLAS, OpenCL BLAS, ROCm และ Vulkan ผ่านการตั้งค่าง่ายๆ
- รองรับโมเดลเชิงปริมาณ Llama/2/3, Mistral, Mixtral และ GGUF ที่เข้ากันได้ ผ่านรายการโมเดลในตัวหรือไฟล์ .gguf แบบสแตนด์อโลน
- การรวมการคัดลอก/วางอย่างง่ายดายสำหรับโมเดลเชิงปริมาณของ TheBloke GGUF
ข้อกำหนดเบื้องต้น
ฮาร์ดแวร์ขั้นต่ำ:
- CPU 64 บิต (สถาปัตยกรรม AMD64 เท่านั้น)
- แรม 8GB
- ข้อกำหนดในการจัดเก็บ:
- สำหรับ GNU/Linux : อย่างน้อย 20GB สำหรับการติดตั้งโดยไม่มีรุ่น
- สำหรับ Windows : อย่างน้อย 30GB สำหรับการติดตั้งโดยไม่มีรุ่น
- สำหรับ macOS : อย่างน้อย ??GB สำหรับการติดตั้งโดยไม่มีรุ่น
- ประเภทการจัดเก็บข้อมูล : HDD
- การเข้าถึงอินเทอร์เน็ต (จำเป็นสำหรับการติดตั้งและการดาวน์โหลดรุ่นเท่านั้น): การเข้าถึงอินเทอร์เน็ตใยแก้วนำแสงแบนด์วิธไม่จำกัด
ฮาร์ดแวร์ที่แนะนำ:
- CPU 64 บิตแบบมัลติคอร์ขนาดใหญ่ (สถาปัตยกรรม AMD64 เท่านั้น) และ GPU ที่เข้ากันได้กับ CUDA หรือ ROCm
- แรม 16GB+
- ข้อกำหนดในการจัดเก็บ:
- สำหรับ GNU/Linux : ประมาณ 200GB สำหรับการติดตั้ง รวมถึงรุ่นเริ่มต้นทั้งหมด
- สำหรับ Windows : ประมาณ 200GB สำหรับการติดตั้ง รวมถึงรุ่นเริ่มต้นทั้งหมด
- สำหรับ macOS : ประมาณ ??GB สำหรับการติดตั้ง รวมถึงรุ่นเริ่มต้นทั้งหมด
- ประเภทการจัดเก็บข้อมูล : SSD Nvme
- การเข้าถึงอินเทอร์เน็ต (จำเป็นสำหรับการติดตั้งและการดาวน์โหลดรุ่นเท่านั้น): การเข้าถึงอินเทอร์เน็ตใยแก้วนำแสงแบนด์วิธไม่จำกัด
ระบบปฏิบัติการ :
- ระบบปฏิบัติการ 64 บิต:
- เดเบียน 12
- อูบุนตู 22.04.3 / 24.04
- ลินุกซ์มิ้นท์ 21.2+ / 22
- ร็อคกี้ 9.3
- แอลมา 9.3
- CentOS สตรีม 9
- เฟโดรา 39
- OpenSUSE Leap 15.5
- OpenSUSE ทัมเบิลวีด
- วินโดว์ 10 22H2
- วินโดว์ 11 22H2
- แมคโดนัลด์ ???
หมายเหตุ : biniou รองรับ Cuda หรือ ROCm แต่ไม่จำเป็นต้องมี GPU เฉพาะในการทำงาน คุณสามารถติดตั้งในเครื่องเสมือนได้
การติดตั้ง
กนู/ลินุกซ์
OpenSUSE Leap 15.5 / OpenSUSE ทัมเบิลวีด
โปรแกรมติดตั้งเพียงคลิกเดียว:
- คัดลอก/วางและดำเนินการ คำสั่งต่อไปนี้ในเทอร์มินัล:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh )
ร็อคกี้ 9.3 / อัลมา 9.3 / CentOS สตรีม 9 / Fedora 39
โปรแกรมติดตั้งเพียงคลิกเดียว:
- คัดลอก/วางและดำเนินการ คำสั่งต่อไปนี้ในเทอร์มินัล:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh )
เดเบียน 12 / อูบุนตู 22.04.3 / อูบุนตู 24.04 / ลินุกซ์มิ้นท์ 21.2+
โปรแกรมติดตั้งเพียงคลิกเดียว:
- คัดลอก/วางและดำเนินการ คำสั่งต่อไปนี้ในเทอร์มินัล:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh )
การติดตั้งด้วยตนเอง:
- ติดตั้ง สิ่งที่จำเป็นต้องมีล่วงหน้าเป็น root :
apt install git pip python3 python3-venv gcc perl make ffmpeg openssl
- โคลน ที่เก็บนี้ในฐานะผู้ใช้:
git clone https://github.com/Woolverine94/biniou.git
- เปิด ตัวโปรแกรมติดตั้ง:
- (เป็นทางเลือก แต่แนะนำอย่างยิ่ง) ติดตั้ง TCMalloc เป็นรูทเพื่อเพิ่มประสิทธิภาพการจัดการหน่วยความจำ:
apt install google-perftools
วินโดว์ 10 / วินโดว์ 11
การติดตั้ง Windows มีข้อกำหนดเบื้องต้นมากกว่า GNU/Linux และต้องการซอฟต์แวร์ต่อไปนี้ (ซึ่งจะถูกติดตั้งโดยอัตโนมัติ):
- คอมไพล์
- Python 3.11 (และรุ่น 3.11 โดยเฉพาะ)
- OpenSSL
- เครื่องมือสร้าง Visual Studio
- SDK ของ Windows 10/11
- วีเครดิสต์
- ffmpeg
- ... และการพึ่งพาทั้งหมดของพวกเขา
ระบบปฏิบัติการของคุณมีการเปลี่ยนแปลงมากมาย และ อาจ นำมาซึ่งพฤติกรรมที่ไม่พึงประสงค์ในระบบของคุณ ขึ้นอยู่กับซอฟต์แวร์ที่ติดตั้งอยู่แล้ว
คุณควรสำรองข้อมูลระบบและข้อมูลของคุณก่อนที่จะเริ่มกระบวนการติดตั้ง
- ดาวน์โหลดและรัน : biniou_netinstall.exe
หรือ
- ดาวน์โหลดและดำเนินการ : install_win.cmd (คลิกขวาที่ลิงก์และเลือก "บันทึกเป้าหมาย/ลิงก์เป็น ... " เพื่อดาวน์โหลด)
การติดตั้งทั้งหมดเป็นแบบอัตโนมัติ แต่ Windows UAC จะขอให้คุณยืนยันซอฟต์แวร์แต่ละตัวที่ติดตั้งในระหว่างขั้นตอน "ข้อกำหนดเบื้องต้น" คุณสามารถหลีกเลี่ยงปัญหานี้ได้ด้วยการเรียกใช้โปรแกรมติดตั้งที่เลือกในฐานะผู้ดูแลระบบ
เนื่องจากผู้ใช้คอมมิต 8d2537b Windows สามารถกำหนดพาธที่กำหนดเองสำหรับไดเร็กทอรี biniou เมื่อติดตั้งด้วย install_win.cmd
ดำเนินการดังต่อไปนี้:
- ดาวน์โหลดและแก้ไข install_win.cmd
- แก้ไข
set DEFAULT_BINIOU_DIR="%userprofile%"
เพื่อ set DEFAULT_BINIOU_DIR="E:datassomedir"
(ตัวอย่าง) - ใช้เส้นทางที่แน่นอนเท่านั้น (เช่น:
E:datassomedir
และไม่ใช่ .datassomedir
) - อย่าเพิ่มเครื่องหมายสแลชต่อท้าย (เช่น:
E:datassomedir
และไม่ใช่ E:datassomedir
) - อย่าเพิ่มส่วนต่อท้าย "biniou" ให้กับพาธของคุณ (เช่น
E:datassomedirbiniou
) เนื่องจากไดเร็กทอรี biniou จะถูกสร้างขึ้นโดยคำสั่ง git clone - บันทึกและเปิด install_win.cmd
ติดตั้ง macOS Intel Homebrew
การติดตั้ง Homebrew นั้นเข้ากันได้กับ macOS Intel ในทางทฤษฎี แต่ยังไม่ได้รับการทดสอบ ใช้ความเสี่ยงของคุณเอง โปรดทราบว่าขณะนี้ biniou เข้ากันไม่ได้กับ Apple Silicon ข้อเสนอแนะใดๆ เกี่ยวกับขั้นตอนนี้ผ่านการสนทนาหรือตั๋วปัญหาจะได้รับการชื่นชมอย่างมาก
อัปเดต 01/09/2024: ขอบคุณ @lepicodon มีวิธีแก้ไขสำหรับผู้ใช้ Apple Silicon: คุณสามารถติดตั้ง biniou ในเครื่องเสมือนโดยใช้ OrbStack ดูความคิดเห็นนี้สำหรับคำอธิบาย
ติดตั้ง Homebrew สำหรับระบบปฏิบัติการของคุณ
ติดตั้ง "ขวด" โฮมบรูว์ที่จำเป็น:
brew install git python3 gcc gcc@11 perl make ffmpeg openssl
- ติดตั้ง python virtualenv :
python3 -m pip install virtualenv
- โคลน ที่เก็บนี้ในฐานะผู้ใช้:
git clone https://github.com/Woolverine94/biniou.git
- เปิด ตัวโปรแกรมติดตั้ง:
Dockerfile
คำแนะนำเหล่านี้จะถือว่าคุณมีสภาพแวดล้อมนักเทียบท่าที่กำหนดค่าและใช้งานได้แล้ว
- สร้าง อิมเมจนักเทียบท่า:
docker build -t biniou https://github.com/Woolverine94/biniou.git
หรือสำหรับการสนับสนุน CUDA:
docker build -t biniou https://raw.githubusercontent.com/Woolverine94/biniou/main/CUDA/Dockerfile
- เปิด ตัวคอนเทนเนอร์:
docker run -it --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
หรือสำหรับการสนับสนุน CUDA:
docker run -it --gpus all --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
- เข้าถึง webui ด้วย url:
https://127.0.0.1:7860 หรือ https://127.0.0.1:7860/?__theme=dark สำหรับธีมสีเข้ม (แนะนำ)
... หรือแทนที่ 127.0.0.1 ด้วย ip ของคอนเทนเนอร์ของคุณ
หมายเหตุ : เพื่อประหยัดพื้นที่จัดเก็บข้อมูล คำสั่งเปิดใช้คอนเทนเนอร์ก่อนหน้านี้จะกำหนดวอลุ่มที่ใช้ร่วมกันทั่วไปสำหรับคอนเทนเนอร์ biniou ทั้งหมด และตรวจสอบให้แน่ใจว่าคอนเทนเนอร์รีสตาร์ทอัตโนมัติในกรณีที่ OOM ขัดข้อง ลบอาร์กิวเมนต์ --restart
และ -v
หากคุณไม่ต้องการให้มีพฤติกรรมเหล่านี้
รองรับ CUDA
biniou นั้นใช้เฉพาะ cpu เท่านั้น เพื่อให้แน่ใจว่าสามารถใช้งานร่วมกับฮาร์ดแวร์ได้หลากหลาย แต่คุณสามารถเปิดใช้งานการรองรับ CUDA ได้อย่างง่ายดายผ่าน Nvidia CUDA (หากคุณมีสภาพแวดล้อม CUDA 12.1 ที่ใช้งานได้) หรือ AMD ROCm (หากคุณมีสภาพแวดล้อม ROCm 5.6 ที่ใช้งานได้) โดยการเลือกประเภทการปรับให้เหมาะสมเพื่อเปิดใช้งาน (CPU, CUDA หรือ ROCm สำหรับ Linux) ในโมดูลควบคุม WebUI
ในปัจจุบัน โมดูลทั้งหมดยกเว้นโมดูล Chatbot, Llava และ faceswap อาจได้รับประโยชน์จากการเพิ่มประสิทธิภาพ CUDA
วิธีใช้
- เปิดใช้งาน โดยดำเนินการจากไดเร็กทอรี biniou :
cd /home/ $USER /biniou
./webui.sh
ดับเบิลคลิก webui.cmd ในไดเร็กทอรี biniou (C:Users%username%biniou) เมื่อ UAC ถาม ให้กำหนดค่าไฟร์วอลล์ตามประเภทเครือข่ายของคุณเพื่อให้สิทธิ์การเข้าถึง webui
หมายเหตุ : การเริ่มต้นครั้งแรกอาจช้ามากบน Windows 11 (เมื่อเปรียบเทียบกับระบบปฏิบัติการอื่น)
เข้าถึง webui ด้วย url:
https://127.0.0.1:7860 หรือ https://127.0.0.1:7860/?__theme=dark สำหรับธีมสีเข้ม (แนะนำ)
คุณยังสามารถเข้าถึง biniou ได้จากอุปกรณ์ใดๆ (รวมถึงสมาร์ทโฟน) บนเครือข่าย LAN/Wifi เดียวกันโดยแทนที่ 127.0.0.1 ใน url ด้วยที่อยู่ IP ของโฮสต์ biniou
ออก โดยใช้แป้นพิมพ์ลัด CTRL+C ใน Terminal
อัปเดต แอปพลิเคชันนี้ (สภาพแวดล้อมเสมือน biniou + python) โดยใช้ตัวเลือกการอัปเดตการควบคุม WebUI
ดีใจที่ได้รู้
สาเหตุของการหยุดทำงานที่พบบ่อยที่สุดคือหน่วยความจำบนโฮสต์ไม่เพียงพอ อาการคือการปิดโปรแกรม biniou และกลับสู่/ปิดเทอร์มินัลโดยไม่มีข้อความแสดงข้อผิดพลาดเฉพาะ คุณสามารถใช้ biniou กับ RAM 8GB ได้ แต่แนะนำให้ใช้อย่างน้อย 16GB เพื่อหลีกเลี่ยงข้อผิดพลาด OOM (หน่วยความจำไม่เพียงพอ)
biniou ใช้โมเดล AI ที่แตกต่างกันจำนวนมาก ซึ่งต้องใช้พื้นที่จำนวนมาก : หากคุณต้องการใช้โมดูลทั้งหมดใน biniou คุณจะต้องใช้พื้นที่ดิสก์ประมาณ 200GB สำหรับโมเดลเริ่มต้นของแต่ละโมดูลเท่านั้น โมเดลจะถูกดาวน์โหลดในการรันครั้งแรกของแต่ละโมดูล หรือเมื่อคุณเลือกโมเดลใหม่ในโมดูลและสร้างเนื้อหา โมเดลจะถูกจัดเก็บไว้ในไดเร็กทอรี /models ของการติดตั้ง biniou โมเดลที่ไม่ได้ใช้สามารถลบออกได้เพื่อประหยัดพื้นที่
... ดังนั้น คุณจะต้องเชื่อมต่ออินเทอร์เน็ตที่รวดเร็วเพื่อดาวน์โหลดโมเดลต่างๆ
การสำรองข้อมูลของทุกเนื้อหาที่สร้างขึ้นมีอยู่ในไดเร็กทอรี /outputs ของโฟลเดอร์ biniou
biniou อาศัยเฉพาะ CPU สำหรับการดำเนินการทั้งหมดเท่านั้น ใช้ PyTorch เวอร์ชันเฉพาะ CPU เท่านั้น ผลลัพธ์ที่ได้คือความเข้ากันได้ดีขึ้นกับฮาร์ดแวร์หลากหลายประเภท แต่ประสิทธิภาพลดลง ขึ้นอยู่กับฮาร์ดแวร์ของคุณ คาดว่าจะเกิดความล่าช้า ดูที่นี่สำหรับการรองรับ Nvidia CUDA และการสนับสนุนการทดลอง AMD ROCm (GNU/Linux เท่านั้น)
การตั้งค่าเริ่มต้นถูกเลือกเพื่ออนุญาตให้สร้างเนื้อหาบนคอมพิวเตอร์ระดับล่างด้วยประสิทธิภาพ/คุณภาพอัตราส่วนที่ดีที่สุด หากคุณมีการกำหนดค่าเหนือการตั้งค่าขั้นต่ำ คุณสามารถลองใช้รุ่นอื่น เพิ่มขนาดหรือระยะเวลาของสื่อ ปรับเปลี่ยนพารามิเตอร์การอนุมาน หรือการตั้งค่าอื่นๆ (เช่น การรวมโทเค็นสำหรับรูปภาพ) เพื่อให้ได้เนื้อหาที่มีคุณภาพดีขึ้น
biniou ได้รับอนุญาตภายใต้ GNU GPL3 แต่แต่ละรุ่นที่ใช้ใน biniou มีใบอนุญาตของตัวเอง โปรดศึกษาใบอนุญาตแต่ละรุ่นเพื่อทราบว่าคุณสามารถทำอะไรได้บ้างและไม่สามารถทำอะไรกับโมเดลเหล่านั้นได้ สำหรับแต่ละรุ่น คุณจะพบลิงค์ไปยังหน้าฮักกิ้งเฟสของโมเดลนั้นได้ในส่วน "เกี่ยวกับ" ของโมดูลที่เกี่ยวข้อง
อย่าคาดหวังมากเกินไป : biniou อยู่ในช่วงเริ่มต้นของการพัฒนา และซอฟต์แวร์โอเพ่นซอร์สส่วนใหญ่ที่ใช้ในนั้นยังอยู่ระหว่างการพัฒนา (บางอันยังอยู่ในขั้นทดลอง)
ทุกโมดูล biniou มี 2 องค์ประกอบหีบเพลง เกี่ยวกับ และ การตั้งค่า :
- เกี่ยวกับ เป็นคุณลักษณะวิธีใช้ด่วนที่อธิบายโมดูลและให้คำแนะนำและเคล็ดลับในการใช้งาน
- การตั้งค่า คือการตั้งค่าแผงเฉพาะสำหรับโมดูลที่ให้คุณกำหนดค่าพารามิเตอร์การสร้างได้
เครดิต
แอปพลิเคชั่นนี้ใช้ซอฟต์แวร์และเทคโนโลยีดังต่อไปนี้:
- - Huggingface : ไลบรารี่ของ Diffusers และ Transformers และ generative model เกือบทั้งหมด
- กราดิโอ : webUI
- llama-cpp-python : การผูกหลามสำหรับ llama-cpp
- ลาวา
- บาคลาวา
- Microsoft GIT : Image2text
- กระซิบ :คำพูด2ข้อความ
- การแปล nllb : การแปลภาษา
- การแพร่กระจายที่เสถียร: txt2img, img2img, รูปแบบรูปภาพ, inpaint, ControlNet, Text2Video-Zero, img2vid
- คันดินสกี้ : txt2img
- โมเดลความสอดคล้องแฝง: txt2img
- PixArt-อัลฟ่า : PixArt-อัลฟ่า
- IP-อะแดปเตอร์ : IP-อะแดปเตอร์ img2img
- สั่ง pix2pix : pix2pix
- เมจิกมิกซ์ : เมจิกมิกซ์
- Fantasy Studio Paint ตามตัวอย่าง : paintbyex
- โมเดลเสริมของ Controlnet : โมเดลตัวอย่างสำหรับโมดูล ControlNet
- IP-Adapter FaceID : รุ่นอะแดปเตอร์สำหรับโมดูล Photobooth
- Photomaker Adapter รุ่นสำหรับโมดูล Photobooth
- Insight Face : สลับหน้า
- ESRGAN ที่แท้จริง : ผู้อัปสเกล
- GFPGAN : การฟื้นฟูใบหน้า
- Audiocraft: musicgen, musicgen ทำนอง, audiogen
- มิวสิคแอลดีเอ็ม : มิวสิคแอลดีเอ็ม
- ฮาร์โมไน : ฮาร์โมไน
- เปลือกไม้ : text2speech
- การสังเคราะห์ข้อความเป็นวิดีโอ Modelscope: txt2vid
- AnimateLCM : txt2vid
- เปิด AI Shap-E : txt2shape, img2shape
- compel : การปรับปรุงพร้อมต์สำหรับโมดูลที่ใช้
StableDiffusionPipeline
ต่างๆ - tomesd : การรวมโทเค็นสำหรับโมดูลที่ใช้
StableDiffusionPipeline
ต่างๆ - หลาม
- ไพทอร์ช
- คอมไพล์
- ffmpeg
... และการพึ่งพาทั้งหมดของพวกเขา
ใบอนุญาต
ใบอนุญาตสาธารณะทั่วไปของ GNU v3.0
GitHub @วูล์ฟเวอรีน94 ·