Un outil d'inpainting et d'outpainting gratuit et open source alimenté par le modèle SOTA AI.
Effacer(LaMa) | Remplacer l'objet (PowerPaint) |
---|---|
IOPaint-effacer-markdown.mp4 | iopaint-inpaint-markdown.mp4 |
Dessiner du texte (AnyText) | Peinture (PowerPaint) |
---|---|
AnyText-markdown.mp4 | peinture.mp4 |
Entièrement gratuit et open source, entièrement auto-hébergé, prend en charge CPU, GPU et Apple Silicon
Programme d'installation de Windows en 1 clic
OptiClean : application macOS et iOS pour l'effacement d'objets
Prend en charge divers modèles d'IA pour effectuer des tâches d'effacement, d'inpainting ou d'outpainting.
runwayml/stable-diffusion-inpainting
diffuseurs/stable-diffusion-xl-1.0-inpainting-0.1
andregn/Realistic_Vision_V3.0-inpainting
Lykon/dreamshaper-8-inpainting
Sanster/n'importe quoi-4.0-inpainting
BrosseNet
PowerPaintV2
Sanster/AnyText
Fantasy-Studio/Peinture par exemple
Effacer les modèles : ces modèles peuvent être utilisés pour supprimer des objets indésirables, des défauts, des filigranes ou des personnes de l'image.
Modèles de diffusion : Ces modèles peuvent être utilisés pour remplacer des objets ou réaliser des peintures. Certains modèles d'occasion populaires incluent :
Plugins :
Segmentez n'importe quoi : segmentation d'objets interactifs précise et rapide
RemoveBG : supprimez l'arrière-plan de l'image ou générez des masques pour les objets de premier plan
Segmentation Anime : Semblable à RemoveBG, le modèle est spécifiquement formé pour les images animées.
RealESRGAN : super résolution
GFPGAN : Restauration du visage
RestoreFormer : restauration du visage
FileManager : parcourez facilement vos images et enregistrez-les directement dans le répertoire de sortie.
IOPaint fournit une interface Web pratique pour utiliser les derniers modèles d'IA pour éditer vos images. Vous pouvez installer et démarrer facilement IOPaint en exécutant la commande suivante :
# Pour utiliser le GPU, installez d'abord la version cuda de pytorch.# pip3 install torch==2.1.2 torchvision==0.16.2 --index-url https://download.pytorch.org/whl/cu118# AMD GPU utilisateurs, veuillez utiliser la commande suivante, ne fonctionne que sous Linux, car pytorch n'est pas encore pris en charge sous Windows avec ROCm.# pip3 install torch==2.1.2 torchvision==0.16.2 --index-url https://download.pytorch.org/whl/rocm5.6pip3 installer iopaint iopaint start --model=lama --device=cpu --port=8080
Voilà, vous pouvez commencer à utiliser IOPaint en visitant http://localhost:8080 dans votre navigateur Web.
Tous les modèles seront téléchargés automatiquement au démarrage. Si vous souhaitez modifier le répertoire de téléchargement, vous pouvez ajouter --model-dir
. Plus de documentation peut être trouvée ici
Vous pouvez voir d'autres modèles pris en charge ici et comment utiliser le fichier sd ckpt/safetensors local ici.
Vous pouvez spécifier les plugins à utiliser lors du démarrage du service et afficher les commandes permettant d'activer les plugins en utilisant iopaint start --help
.
Plus de démonstrations du plugin peuvent être vues ici
iopaint start --enable-interactive-seg --interactive-seg-device=cuda
Vous pouvez également utiliser IOPaint dans la ligne de commande pour traiter des images par lots :
iopaint run --model=lama --device=cpu --image=/chemin/vers/dossier_image --mask=/chemin/vers/mask_folder --output=rép_sortie
--image
est le dossier contenant les images d'entrée, --mask
est le dossier contenant les images de masque correspondantes. Lorsque --mask
est un chemin vers un fichier de masque, toutes les images seront traitées en utilisant ce masque.
Vous pouvez voir plus d'informations sur les modèles et plugins disponibles pris en charge par IOPaint ci-dessous.
Installez nodejs, puis installez les dépendances frontend.
git clone https://github.com/Sanster/IOPaint.gitcd IOPaint/web_app installation npm npm exécuter la construction cp -r dist/ ../iopaint/web_app
Créez un fichier .env.local
dans web_app
et remplissez l'adresse IP et le port du backend.
VITE_BACKEND=http://127.0.0.1:8080
Démarrer l'environnement de développement front-end
npm exécuter le développement
Installer la configuration requise pour le back-end et démarrer le service back-end
pip install -r exigences.txt python3 main.py start --model lama --port 8080
Ensuite, vous pouvez visiter http://localhost:5173/
pour le développement. Le code du frontend sera automatiquement mis à jour après avoir été modifié, mais le backend doit redémarrer le service après avoir modifié le code python.