Heim
biniou ist ein selbst gehostetes Webui für verschiedene Arten von GenAI (generative künstliche Intelligenz). Sie können mit KI multimediale Inhalte generieren und einen Chatbot auf Ihrem eigenen Computer nutzen, auch ohne dedizierte GPU und ab 8 GB RAM. Kann offline arbeiten (sobald die Bereitstellung erfolgt und die erforderlichen Modelle heruntergeladen wurden).
GNU/Linux [ OpenSUSE-Basis | RHEL-Basis | Debian-Basis] • Windows • macOS Intel (experimentell) • Docker
Dokumentation ❓ | Ausstellungsraum ?️
Aktualisierungen
? 23.11.2024 : Updates dieser Woche >
- Unterstützung für das Chatbot-Modell prithivMLmods/Llama-Doctor-3.2-3B-Instruct-GGUF hinzufügen.
- Unterstützung für Flux LoRA-Modelle hinzufügen: Strangerzonehf/Flux-Super-Realism-LoRA, Strangerzonehf/Flux-Midjourney-Mix-LoRA, Norod78/Flux_1_Dev_LoRA_Paper-Cutout-Style, prithivMLmods/Knitted-Character-Flux-LoRA, Shakker-Labs/FLUX.1-dev-LoRA-Children-Simple-Sketch, renderartist/retrocomicflux, prithivMLmods/Seamless-Pattern-Design-Flux-LoRA, alvdansen/haunted_linework_flux, prithivMLmods/Flux.1-Dev-Poster-HQ- LoRA, Grohv/randart2_lora, renderartist/retroadflux, prithivMLmods/Flux.1-Dev-Realtime-Toon-Mix und prithivMLmods/Flux-Product-Ad-Backdrop.
? 16.11.2024 : Updates dieser Woche >
- Unterstützung für die Chatbot-Modelle bartowski/SuperNova-Medius-GGUF und bartowski/OpenCoder-8B-Instruct-GGUF hinzufügen.
- Unterstützung für Flux LoRA-Modelle hinzufügen: Shakker-Labs/FLUX.1-dev-LoRA-Text-Poster, dataautogpt3/FLUX-SyntheticAnime, prithivMLmods/Canopus-Pixar-3D-Flux-LoRA, prithivMLmods/Flux-Dev-Real-Anime- LoRA, glif-loradex-trainer/shipley_flux_dev_AlicesAdventuresInWonderland_v2, prithivMLmods/Ton618-Only-Stickers-Flux-LoRA, markury/surrealidescent, FounderFeed/gta-style-lora, Keltezaa/movie-poster-ce-sdxl-flux, FounderFeed/MidjourneyMeetFlux und dooart/flux-lora-vintage-tarot.
- Unterstützung für SD 3.5 Large LoRA-Modelle nerijs/pixel-art-3.5L hinzufügen.
- Fügen Sie vorläufige Unterstützung für das Flux-zu-IP-Adapter-Modul hinzu.
- Vorläufige Unterstützung für Flux zum ControlNet-Modul hinzufügen (derzeit funktionieren nur Canny und Depth).
- Optimierungen und Bugfixes.
? 09.11.2024 : Updates dieser Woche >
- Unterstützung für die Chatbot-Modelle bartowski/SmolLM2-1.7B-Instruct-GGUF, bartowski/cybertron-v4-qw7B-MGS-GGUF und bartowski/OpenChat-3.5-0106_32K-PoSE-GGUF hinzugefügt.
- Aktualisierung des Chatbot-Modells Llama-3.2-3B-Instruct-GGUF auf bartowski/Llama-3.2-3B-Instruct-uncensored-GGUF.
- Fügen Sie Unterstützung für viele Flux LoRA-Modelle hinzu. Am bemerkenswertesten ist das schnelle LoRA-Modell Lingyuzhou/Hyper_Flux.1_Dev_4_step_Lora, das Rückschlüsse in 4 Schritten ermöglicht. Auf jeden Fall einen Versuch wert, wenn Sie Flux verwenden.
- Unterstützung für Flux- und Flux-LoRA-Modelle für das Modul img2img hinzufügen.
- Fügen Sie Unterstützung für SD 3.5 Medium LoRA-Modelle für Stable Diffusion und das img2img-Modul hinzu.
- Fügen Sie Kategorien zu Flux LoRA-Modellen hinzu.
- Fehlerbehebungen für Docker bei Verwendung mit mehreren Festplatten und Behebung von Problemen in den Einstellungen des img2img-Moduls.
? 02.11.2024 : Updates dieser Woche >
- Fügen Sie Unterstützung für die SD 3.5-Modelle ariG23498/sd-3.5-merged und adamo1139/stable-diffusion-3.5-medium-ungated zu den Modulen Stable Diffusion und img2img hinzu.
- Unterstützung für das Chatbot-Modell bartowski/granite-3.0-8b-instruct-GGUF hinzufügen.
- Unterstützung für die Flux LoRA-Modelle dvyio/flux-lora-seventies-photograph, Bootoshi/retroanime, XLabs-AI/flux-RealismLora und prithivMLmods/Ton618-Tarot-Cards-Flux-LoRA hinzufügen (letzteres liefert fantastische Ergebnisse!).
- Unterstützung für SD 3.5 LoRA-Modelle alvarobartt/ghibli-characters-sd3.5-lora, reverentelusarca/ancient-style-sd35 und Wadaka/NewYorkerComic_Style hinzufügen.
- Fügen Sie dem img2img-Modul Unterstützung für SD 3.5-Modelle hinzu.
? 26.10.2024 : Updates dieser Woche >
- Wie bereits angekündigt, werden das Flux-Modell Freepik/flux.1-lite-8B-alpha und das SD 3.5-Modell adamo1139/stable-diffusion-3.5-large-turbo-ungated jetzt vom Stable Diffusion-Modul unterstützt. Der Support wird auf alle berechtigten Module ausgeweitet. Fügen Sie bei diesen Modellen auch Unterstützung für LoRAs hinzu.
- Fügen Sie allen Stable Diffusion-basierten Modulen Unterstützung für das SDXL-Modell dataautogpt3/Proteus-v0.6 hinzu.
- Unterstützung für die Chatbot-Modelle anthracite-org/magnum-v4-9b-gguf und bartowski/Ministral-8B-Instruct-2410-GGUF hinzufügen.
- Unterstützung für das SDXL LoRA-Modell KappaNeuro/moebius-jean-giraud-style hinzufügen.
Liste der archivierten Updates
Speisekarte
• Merkmale
• Voraussetzungen
• Installation
GNU/Linux
OpenSUSE Leap 15.5 / OpenSUSE Tumbleweed
Rocky 9.3 / Alma 9.3 / CentOS Stream 9 / Fedora 39
Debian 12 / Ubuntu 22.04.3 / Ubuntu 24.04 / Linux Mint 21.2
Windows 10 / Windows 11
macOS Intel Homebrew-Installation
Docker-Datei
• CUDA-Unterstützung
• Verwendung
• Gut zu wissen
• Credits
• Lizenz
Merkmale
Textgenerierung mit:
- ✍️ Lama-CPP-basiertes Chatbot-Modul (verwendet .gguf-Modelle)
- ?️ Multimodales Chatbot-Modul von Llava (verwendet .gguf-Modelle)
- ?️ Microsoft GIT-Bildunterschriftenmodul
- ? Whisper Speech-to-Text-Modul
- NLLB-Übersetzungsmodul (200 Sprachen)
- Eingabeaufforderungsgenerator (erfordert 16 GB+ RAM für den ChatGPT-Ausgabetyp)
Bildgenerierung und -modifikation mit:
- ?️ Stabiles Diffusionsmodul
- ?️ Kandinsky-Modul (erfordert 16 GB+ RAM)
- ?️ Modul „Latente Konsistenzmodelle“.
- ?️ Midjourney-Mini-Modul
- ?️PixArt-Alpha-Modul
- ?️ Stabiles Diffusions-Img2img-Modul
- ?️ IP-Adapter-Modul
- ?️ Stabiles Diffusionsbild-Variationsmodul (erfordert 16 GB+ RAM)
- ?️ Pix2Pix-Modul anweisen
- ?️ MagicMix-Modul
- ?️ Stabiles Diffusions-Inpaint-Modul
- ?️ Fantasy Studio Paint by Beispiel-Modul (erfordert 16 GB+ RAM)
- ?️ Stabiles Diffusion Outpaint-Modul (erfordert 16 GB+ RAM)
- ?️ Stabiles Diffusion ControlNet-Modul
- ?️ Photobooth-Modul
- ? Insight Face Faceswapping-Modul
- ? Echtes ESRGAN-Upscaler-Modul
- ?GFPGAN-Gesichtswiederherstellungsmodul
Audiogenerierung mit:
- ? MusicGen-Modul
- ? MusicGen Melody-Modul (erfordert 16 GB+ RAM)
- ? MusicLDM-Modul
- ? Audiogen-Modul (erfordert 16 GB+ RAM)
- ? Harmoniai-Modul
- Rindenmodul
Videogenerierung und -modifikation mit:
- ? Modelscope-Modul (erfordert 16 GB+ RAM)
- ? Text2Video-Zero-Modul
- ? AnimateDiff-Modul (erfordert 16 GB+ RAM)
- ? Stabiles Videodiffusionsmodul (erfordert 16 GB+ RAM)
- ?️ Video Instruct-Pix2Pix-Modul (erfordert 16 GB+ RAM)
Generierung von 3D-Objekten mit:
- ? Shap-E txt2shape-Modul
- ? Shap-E img2shape-Modul (erfordert 16 GB+ RAM)
Weitere Funktionen
- Zeroconf-Installation über Ein-Klick-Installationsprogramme oder Windows-Exe.
- Benutzerfreundlich: Alles, was zum Ausführen von biniou erforderlich ist, wird automatisch installiert, entweder bei der Installation oder bei der ersten Verwendung.
- WebUI in Englisch, Französisch, Chinesisch (traditionell).
- Einfache Verwaltung über ein Control Panel direkt in webui: Aktualisieren, neu starten, herunterfahren, Authentifizierung aktivieren, Netzwerkzugriff steuern oder Ihre Instanz online mit einem einzigen Klick teilen.
- Einfache Verwaltung von Modellen über eine einfache Schnittstelle.
- Kommunikation zwischen Modulen: Senden Sie eine Ausgabe als Eingabe an ein anderes Modul
- Angetrieben von ? Huggingface und Grado
- Plattformübergreifend: GNU/Linux, Windows 10/11 und macOS (experimentell, über Homebrew)
- Praktische Docker-Datei für Cloud-Instanzen
- Generierungseinstellungen werden als Metadaten in jedem Inhalt gespeichert.
- Unterstützung für CUDA (siehe CUDA-Unterstützung)
- Experimentelle Unterstützung für ROCm (siehe hier)
- Unterstützung für Stable Diffusion SD-1.5, SD-2.1, SD-Turbo, SDXL, SDXL-Turbo, SDXL-Lightning, Hyper-SD, Stable Diffusion 3, LCM, VegaRT, Segmind, Playground-v2, Koala, Pixart-Alpha, Pixart-Sigma-, Kandinsky- und kompatible Modelle über integrierte Modelllisten oder eigenständige .safetensors-Dateien
- Unterstützung für LoRA-Modelle (SD 1.5, SDXL und SD3)
- Unterstützung für Textinvertierung
- Unterstützt die Lama-CPP-Python-Optimierungen CUDA, OpenBLAS, OpenCL BLAS, ROCm und Vulkan durch eine einfache Einstellung
- Unterstützung für Llama/2/3, Mistral, Mixtral und kompatible GGUF-quantisierte Modelle durch integrierte Modellliste oder eigenständige .gguf-Dateien.
- Einfache Kopier-/Einfügeintegration für quantisierte TheBloke GGUF-Modelle.
Voraussetzungen
Minimale Hardware:
- 64-Bit-CPU (NUR AMD64-Architektur)
- 8 GB RAM
- Speicheranforderungen:
- für GNU/Linux: mindestens 20 GB für die Installation ohne Modelle.
- für Windows: mindestens 30 GB für die Installation ohne Modelle.
- für macOS: mindestens ??GB für die Installation ohne Modelle.
- Speichertyp: Festplatte
- Internetzugang (nur für Installation und Modell-Download erforderlich): Internetzugang über Glasfaser mit unbegrenzter Bandbreite
Empfohlene Hardware:
- Massive Multicore-64-Bit-CPU (NUR AMD64-Architektur) und eine GPU, die mit CUDA oder ROCm kompatibel ist
- 16 GB+ RAM
- Speicheranforderungen:
- für GNU/Linux: etwa 200 GB für die Installation, einschließlich aller Standardmodelle.
- für Windows: ca. 200 GB für die Installation, einschließlich aller Standardmodelle.
- für macOS: ca. ??GB für die Installation, einschließlich aller Standardmodelle.
- Speichertyp: SSD Nvme
- Internetzugang (nur für Installation und Modell-Download erforderlich): Internetzugang über Glasfaser mit unbegrenzter Bandbreite
Betriebssystem:
- ein 64-Bit-Betriebssystem:
- Debian 12
- Ubuntu 22.04.3 / 24.04
- Linux Mint 21.2+ / 22
- Felsig 9.3
- Alma 9.3
- CentOS Stream 9
- Fedora 39
- OpenSUSE Leap 15.5
- OpenSUSE Tumbleweed
- Windows 10 22H2
- Windows 11 22H2
- macOS ???
Hinweis: biniou unterstützt Cuda oder ROCm, erfordert jedoch keine dedizierte GPU zum Ausführen. Sie können es in einer virtuellen Maschine installieren.
Installation
GNU/Linux
OpenSUSE Leap 15.5 / OpenSUSE Tumbleweed
Ein-Klick-Installationsprogramm:
- Kopieren Sie den folgenden Befehl, fügen Sie ihn ein und führen Sie ihn in einem Terminal aus:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-opensuse.sh )
Rocky 9.3 / Alma 9.3 / CentOS Stream 9 / Fedora 39
Ein-Klick-Installationsprogramm:
- Kopieren Sie den folgenden Befehl, fügen Sie ihn ein und führen Sie ihn in einem Terminal aus:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-rhel.sh )
Debian 12 / Ubuntu 22.04.3 / Ubuntu 24.04 / Linux Mint 21.2+
Ein-Klick-Installationsprogramm:
- Kopieren Sie den folgenden Befehl, fügen Sie ihn ein und führen Sie ihn in einem Terminal aus:
sh <( curl https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh || wget -O - https://raw.githubusercontent.com/Woolverine94/biniou/main/oci-debian.sh )
Manuelle Installation:
- Installieren Sie die Voraussetzungen als Root:
apt install git pip python3 python3-venv gcc perl make ffmpeg openssl
- Klonen Sie dieses Repository als Benutzer:
git clone https://github.com/Woolverine94/biniou.git
- Starten Sie das Installationsprogramm:
- (optional, aber dringend empfohlen) Installieren Sie TCMalloc als Root, um die Speicherverwaltung zu optimieren:
apt install google-perftools
Windows 10 / Windows 11
Die Windows-Installation erfordert mehr Voraussetzungen als die GNU/Linux-Installation und erfordert folgende Software (die automatisch installiert wird):
- Git
- Python 3.11 (und insbesondere Version 3.11)
- OpenSSL
- Visual Studio Build-Tools
- Windows 10/11 SDK
- Vcredist
- ffmpeg
- ... und all ihre Abhängigkeiten.
Es handelt sich um viele Änderungen an Ihrem Betriebssystem, die möglicherweise zu unerwünschtem Verhalten auf Ihrem System führen können , je nachdem, welche Software bereits darauf installiert ist.
️ Sie sollten unbedingt ein Backup Ihres Systems und Ihrer Daten erstellen, bevor Sie mit der Installation beginnen. ️
- Laden Sie Folgendes herunter und führen Sie es aus : biniou_netinstall.exe
ODER
- Laden Sie Folgendes herunter und führen Sie es aus : install_win.cmd (klicken Sie mit der rechten Maustaste auf den Link und wählen Sie zum Herunterladen „Ziel/Link speichern unter ...“).
Die gesamte Installation erfolgt automatisiert, aber Windows UAC fordert Sie für jede in der „Voraussetzungsphase“ installierte Software zur Bestätigung auf. Sie können dies vermeiden, indem Sie das ausgewählte Installationsprogramm als Administrator ausführen.
️ Seit Commit 8d2537b können Windows-Benutzer bei der Installation mit install_win.cmd
nun einen benutzerdefinierten Pfad für das Biniou-Verzeichnis definieren ️
Gehen Sie wie folgt vor:
- Laden Sie install_win.cmd herunter und bearbeiten Sie es
- Ändern Sie
set DEFAULT_BINIOU_DIR="%userprofile%"
in set DEFAULT_BINIOU_DIR="E:datassomedir"
(zum Beispiel) - Verwenden Sie nur den absoluten Pfad (z. B.
E:datassomedir
und nicht .datassomedir
) - Fügen Sie keinen abschließenden Schrägstrich hinzu (z. B.
E:datassomedir
und nicht E:datassomedir
). - Fügen Sie Ihrem Pfad kein „biniou“-Suffix hinzu (z. B.
E:datassomedirbiniou
), da das biniou-Verzeichnis durch den Befehl git clone erstellt wird - Speichern und starten Sie install_win.cmd
macOS Intel Homebrew-Installation
️ Die Homebrew-Installation ist theoretisch mit macOS Intel kompatibel, wurde jedoch nicht getestet. Die Nutzung erfolgt auf eigene Gefahr. Beachten Sie außerdem, dass Biniou derzeit nicht mit Apple-Silizium kompatibel ist. Wir freuen uns über jedes Feedback zu diesem Verfahren durch Diskussionen oder ein Issue-Ticket. ️
️ Update 01.09.2024: Dank @lepicodon gibt es eine Problemumgehung für Benutzer von Apple Silicon: Sie können biniou mit OrbStack in einer virtuellen Maschine installieren. Erläuterungen finden Sie in diesem Kommentar. ️
Installieren Sie Homebrew für Ihr Betriebssystem
Installieren Sie die erforderlichen Homebrew-„Flaschen“:
brew install git python3 gcc gcc@11 perl make ffmpeg openssl
- Installieren Sie Python Virtualenv:
python3 -m pip install virtualenv
- Klonen Sie dieses Repository als Benutzer:
git clone https://github.com/Woolverine94/biniou.git
- Starten Sie das Installationsprogramm:
Docker-Datei
Bei diesen Anweisungen wird davon ausgegangen, dass Sie bereits über eine konfigurierte und funktionierende Docker-Umgebung verfügen.
- Erstellen Sie das Docker-Image:
docker build -t biniou https://github.com/Woolverine94/biniou.git
oder für CUDA-Unterstützung:
docker build -t biniou https://raw.githubusercontent.com/Woolverine94/biniou/main/CUDA/Dockerfile
- Starten Sie den Container:
docker run -it --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
oder für CUDA-Unterstützung:
docker run -it --gpus all --restart=always -p 7860:7860
-v biniou_outputs:/home/biniou/biniou/outputs
-v biniou_models:/home/biniou/biniou/models
-v biniou_cache:/home/biniou/.cache/huggingface
-v biniou_gfpgan:/home/biniou/biniou/gfpgan
biniou:latest
- Greifen Sie über die URL auf die Web-Benutzeroberfläche zu:
https://127.0.0.1:7860 oder https://127.0.0.1:7860/?__theme=dark für dunkles Theme (empfohlen)
... oder ersetzen Sie 127.0.0.1 durch die IP Ihres Containers
Hinweis: Um Speicherplatz zu sparen, definiert der vorherige Container-Startbefehl gemeinsame freigegebene Volumes für alle Biniou-Container und stellt sicher, dass der Container im Falle eines OOM-Absturzes automatisch neu startet. Entfernen Sie die Argumente --restart
und -v
, wenn Sie diese Verhaltensweisen nicht wünschen.
CUDA-Unterstützung
biniou ist nativ nur CPU, um die Kompatibilität mit einer breiten Palette von Hardware sicherzustellen, aber Sie können die CUDA-Unterstützung einfach über Nvidia CUDA (wenn Sie eine funktionierende CUDA 12.1-Umgebung haben) oder AMD ROCm (wenn Sie eine funktionierende ROCm 5.6-Umgebung haben) aktivieren. durch Auswahl des zu aktivierenden Optimierungstyps (CPU, CUDA oder ROCm für Linux) im WebUI-Steuermodul.
Derzeit könnten alle Module außer Chatbot-, Llava- und Faceswap-Modulen von der CUDA-Optimierung profitieren.
Verwendung
- Starten Sie durch Ausführen aus dem Biniou-Verzeichnis:
cd /home/ $USER /biniou
./webui.sh
Doppelklicken Sie auf webui.cmd im Biniou-Verzeichnis (C:Benutzer%Benutzername%biniou). Wenn Sie von der Benutzerkontensteuerung dazu aufgefordert werden, konfigurieren Sie die Firewall entsprechend Ihrem Netzwerktyp, um den Zugriff auf die Webui zu autorisieren
Hinweis: Der erste Start kann unter Windows 11 (im Vergleich zu anderen Betriebssystemen) sehr langsam sein.
Greifen Sie über die URL auf die Web-Benutzeroberfläche zu:
https://127.0.0.1:7860 oder https://127.0.0.1:7860/?__theme=dark für dunkles Theme (empfohlen)
Sie können auch von jedem Gerät (einschließlich Smartphones) im selben LAN/WLAN-Netzwerk auf biniou zugreifen, indem Sie 127.0.0.1 in der URL durch die Host-IP-Adresse von biniou ersetzen.
Beenden Sie den Vorgang, indem Sie im Terminal die Tastenkombination STRG+C verwenden
Aktualisieren Sie diese Anwendung (virtuelle Biniou- + Python-Umgebung) mithilfe der Aktualisierungsoptionen für das WebUI-Steuerelement.
Gut zu wissen
Die häufigste Absturzursache ist nicht genügend Speicher auf dem Host. Das Symptom besteht darin, dass das Programm ohne spezifische Fehlermeldung geschlossen wird und zum Terminal zurückkehrt/schließt. Sie können Biniou mit 8 GB RAM verwenden, es werden jedoch mindestens 16 GB empfohlen, um einen OOM-Fehler (Out of Memory) zu vermeiden.
Biniou verwendet viele verschiedene KI-Modelle, was viel Speicherplatz erfordert: Wenn Sie alle Module in Biniou verwenden möchten, benötigen Sie nur für das Standardmodell jedes Moduls etwa 200 GB Festplattenspeicher. Modelle werden beim ersten Durchlauf jedes Moduls heruntergeladen oder wenn Sie ein neues Modell in einem Modul auswählen und Inhalte generieren. Modelle werden im Verzeichnis /models der Biniou-Installation gespeichert. Nicht verwendete Modelle können gelöscht werden, um Platz zu sparen.
... daher benötigen Sie zum Herunterladen von Modellen einen schnellen Internetzugang.
Eine Sicherung aller generierten Inhalte ist im Verzeichnis /outputs des Biniou-Ordners verfügbar.
biniou verlässt sich bei allen Vorgängen nativ nur auf die CPU. Es verwendet eine bestimmte Nur-CPU-Version von PyTorch. Das Ergebnis ist eine bessere Kompatibilität mit einer breiten Palette von Hardware, aber eine schlechtere Leistung. Abhängig von Ihrer Hardware müssen Sie mit Langsamkeit rechnen. Informationen zur Nvidia CUDA-Unterstützung und zur experimentellen AMD ROCm-Unterstützung (nur GNU/Linux) finden Sie hier.
Standardeinstellungen werden ausgewählt, um die Erstellung von Inhalten auf Low-End-Computern mit dem besten Verhältnis von Leistung/Qualität zu ermöglichen. Wenn Sie über eine Konfiguration verfügen, die über den Mindesteinstellungen liegt, können Sie versuchen, andere Modelle zu verwenden, die Medienabmessungen oder die Dauer zu erhöhen, Inferenzparameter oder andere Einstellungen (z. B. Token-Zusammenführung für Bilder) zu ändern, um Inhalte mit besserer Qualität zu erhalten.
biniou ist unter GNU GPL3 lizenziert, aber jedes in biniou verwendete Modell verfügt über eine eigene Lizenz. Bitte konsultieren Sie jede Modelllizenz, um zu erfahren, was Sie mit den Modellen tun dürfen und was nicht. Für jedes Modell finden Sie im Abschnitt „Über“ des zugehörigen Moduls einen Link zur Huggingface-Seite des Modells.
Machen Sie keine zu großen Erwartungen: Biniou befindet sich in einem frühen Entwicklungsstadium und die meisten darin verwendeten Open-Source-Software befinden sich in der Entwicklung (einige sind noch experimentell).
Jedes Biniou-Modul bietet 2 Akkordeon-Elemente „Info“ und „Einstellungen“ :
- „Info“ ist eine Schnellhilfefunktion, die das Modul beschreibt und Anweisungen und Tipps zu seiner Verwendung gibt.
- „Einstellungen“ ist eine modulspezifische Bedienfeldeinstellung, mit der Sie die Generierungsparameter konfigurieren können.
Credits
Diese Anwendung verwendet die folgenden Softwareprogramme und Technologien:
- ? Huggingface: Diffusoren- und Transformatorenbibliotheken und fast alle generativen Modelle.
- Gradio: webUI
- llama-cpp-python: Python-Bindungen für llama-cpp
- Llava
- BakLLava
- Microsoft GIT: Image2text
- Flüstern: Speech2Text
- NLLB-Übersetzung: Sprachübersetzung
- Stabile Verbreitung: txt2img, img2img, Bildvariation, Inpaint, ControlNet, Text2Video-Zero, img2vid
- Kandinsky: txt2img
- Latente Konsistenzmodelle: txt2img
- PixArt-Alpha: PixArt-Alpha
- IP-Adapter: IP-Adapter img2img
- Weisen Sie pix2pix an: pix2pix
- MagicMix: MagicMix
- Fantasy Studio Malen nach Beispiel: paintbyex
- Controlnet-Hilfsmodelle: Vorschaumodelle für das ControlNet-Modul
- IP-Adapter FaceID: Adaptermodell für Photobooth-Modul
- Photomaker-Adaptermodell für Photobooth-Modul
- Insight Face: Faceswapping
- Echtes ESRGAN: Upscaler
- GFPGAN: Gesichtswiederherstellung
- Audiocraft: Musikgen, Musikgenmelodie, Audiogen
- MusicLDM: MusicLDM
- Harmoniai: Harmoniai
- Rinde: text2speech
- Modelscope Text-zu-Video-Synthese: txt2vid
- AnimateLCM: txt2vid
- Öffnen Sie AI Shap-E: txt2shape, img2shape
- compel: Prompt-Erweiterung für verschiedene
StableDiffusionPipeline
-basierte Module - tomesd: Token-Zusammenführung für verschiedene
StableDiffusionPipeline
-basierte Module - Python
- PyTorch
- Git
- ffmpeg
... und all ihre Abhängigkeiten
Lizenz
GNU General Public License v3.0
GitHub @Woolverine94 ·