Ein schneller, genauer und detaillierter Präprozessor zur Linienerkennung
Anyline ist ein ControlNet-Zeilenpräprozessor, der Objektkanten, Bilddetails und Textinhalte aus den meisten Bildern präzise extrahiert. Benutzer können jede Art von Bild eingeben, um schnell Strichzeichnungen mit klaren Kanten, ausreichender Detailerhaltung und Text mit hoher Wiedergabetreue zu erhalten, die dann als Eingabe für die bedingte Generierung in Stable Diffusion verwendet werden.
Das in Anyline verwendete Modell und die Algorithmen basieren auf innovativen Bemühungen, die aus dem Papier „Tiny and Efficient Model for the Edge Detection Generalization (TEED)“ (arXiv:2308.06468) stammen. Auch die TEED-Voreinstellung in ComfyUI stammt aus dieser Arbeit und markiert sie als leistungsstarken visuellen Algorithmus (TEED ist derzeit der Stand der Technik). Weitere Einzelheiten finden Sie im Papier.
Anyline verwendet eine Verarbeitungsauflösung von 1280 Pixel und daher werden Vergleiche mit dieser Auflösung durchgeführt. Im Vergleich zu anderen häufig verwendeten Linienpräprozessoren bietet Anyline erhebliche Vorteile in Bezug auf Konturgenauigkeit, Objektdetails, Materialtexturen und Schrifterkennung (insbesondere in großen Szenen). Außerdem wird das Rauschen in den meisten Szenen besser reduziert, was zu einer saubereren Bildverarbeitung mit weniger Ungenauigkeiten bei der Generierung führt.
Anyline bildet in Kombination mit dem Mistoline ControlNet-Modell einen vollständigen SDXL-Workflow, der die präzise Steuerung maximiert und die generativen Fähigkeiten des SDXL-Modells nutzt. Anyline kann auch in SD1.5-Workflows mit SD1.5s ControlNet verwendet werden, obwohl es im Anyline+MistoLine-Setup innerhalb des SDXL-Workflows im Allgemeinen eine bessere Leistung erbringt.
Hinweis: Das Endergebnis hängt stark vom verwendeten Basismodell ab. Bitte wählen Sie entsprechend Ihren Bedürfnissen das passende Basismodell aus.
Bald erhältlich!
Um Anyline als ComfyUI-Plugin verwenden zu können, müssen Sie zuerst COMFYUI_CONTROLNET_AUX installieren! Sie können den Anweisungen hier folgen: https://github.com/Fannovel16/comfyui_controlnet_aux?tab=readme-ov-file#installation
Sobald Sie „comfortui_controlnet_aux“ installiert haben, führen Sie die folgenden Schritte aus:
cd custom_nodes
git clone https://github.com/TheMistoAI/ComfyUI-Anyline.git
cd ComfyUI-Anyline
pip install -r requirements.txt
.pth
Datei im angegebenen Verzeichnis. Nach der Installation kann in ComfyUI per Suche oder Rechtsklick auf den Anyline-Präprozessor zugegriffen werden. Der Standard-Workflow mit Anyline+Mistoline in SDXL ist wie folgt
Sie können diesen Workflow-JSON hier herunterladen: ComfyUI Workflow
Befolgen Sie die Anweisungen in Mikubill/sd-webui-controlnet#2907.
Quelle: https://pan.baidu.com/s/1ik11P_u1vK8mI4q33v0MTQ?pwd=v8f1
Versionsnummer: v8f1
@InProceedings { Soria_2023teed ,
author = { Soria, Xavier and Li, Yachuan and Rouhani, Mohammad and Sappa, Angel D. } ,
title = { Tiny and Efficient Model for the Edge Detection Generalization } ,
booktitle = { Proceedings of the IEEE/CVF International Conference on Computer Vision (ICCV) Workshops } ,
month = { October } ,
year = { 2023 } ,
pages = { 1364-1373 }
}