Ist es oft frustrierend, beim Online-Einkauf den Unterschied zwischen der Präsentation eines Verkäufers und der Präsentation eines Käufers zu sehen? Um dieses Problem zu lösen, hat das Team für maschinelles Lernen der Universität Bielefeld in Deutschland ein KI-Tool namens TryOffDiff entwickelt. Diese KI kann Personen aus Fotos entfernen, so dass nur die Kleidung selbst übrig bleibt, und ein hochwertiges Produktanzeigebild erzeugen, wodurch die Lücke zwischen der Show des Käufers und der Show des Verkäufers effektiv geschlossen und das Einkaufserlebnis verbessert wird.
Haben Sie sich beim Online-Shopping jemals über den großen Unterschied zwischen der Show des Käufers und der Show des Verkäufers geärgert? Es ist offensichtlich das gleiche Kleidungsstück, aber wenn es an einem Model getragen wird, sieht es so modisch aus, wie kommt es, dass es so aussieht? „schrecklich“, wenn man es trägt? Keine Sorge! Das Team für maschinelles Lernen der Universität Lefeld hat eine KI-Schwarz-Technologie namens TryOffDiff entwickelt, die die Personen auf dem Foto „entfernen“ kann und nur die Kleidung selbst übrig lässt Generieren Sie ein Standard-Produktanzeigebild!
Diese Technologie nutzt leistungsstarke „Diffusionsmodell“-Technologie der künstlichen Intelligenz, um Form, Farbe, Textur und andere Informationen von Kleidung anhand eines Fotos zu identifizieren und diese Informationen in einem hochauflösenden Produktanzeigebild „wiederherzustellen“. Die resultierenden Bilder sind nicht nur klar und naturgetreu im Detail, sondern entfernen auch automatisch den Hintergrund, genau wie bei der Arbeit eines professionellen Fotografen!
Wie funktioniert TryOffDiff? Einfach ausgedrückt: Es ist wie ein erfahrener „Schneider“. Zunächst nutzt es einen Bildkodierer namens SigLIP, um charakteristische Informationen der Kleidung aus den Fotos zu extrahieren, darunter Farbe, Textur, Muster usw., genau wie ein Schneider, der den Stoff sorgfältig beobachtet. Anschließend „füttert“ es diese Informationen an das Stable Diffusion-Bilderzeugungsmodell. Stable Diffusion ist wie eine magische „Nähmaschine“, die basierend auf den Eingabeinformationen eine Vielzahl von Bildern erzeugen kann. Schließlich generiert Stable Diffusion auf der Grundlage der extrahierten Kleidungsmerkmalsinformationen ein Standardproduktanzeigebild und „tragt“ die Kleidung an einem virtuellen Modell, genau wie ein Schneider ein perfektes Kleidungsstück anfertigt.
Um die Wirkung von TryOffDiff zu testen, verwendeten die Forscher für Training und Tests einen Datensatz namens VITON-HD. Experimentelle Ergebnisse zeigen, dass TryOffDiff nicht nur im Detail klar, sondern auch sehr realistisch ist und sogar mit der Arbeit professioneller Fotografen vergleichbar ist. Noch besser, vor allem was Muster und Logos angeht.
Die Anwendungsaussichten dieser Technologie sind sehr breit gefächert. Sie kann nicht nur den Verbrauchern helfen, Produktinformationen besser zu verstehen, sondern auch E-Commerce-Plattformen dabei helfen, die Wirkung der Produktdarstellung zu verbessern und die Rücklaufquoten zu senken. Wenn Sie in Zukunft Kleidung online kaufen, müssen Sie möglicherweise nur ein Foto von sich hochladen, um zu sehen, wie Sie in verschiedenen Kleidungsstücken aussehen. Sie müssen sich keine Sorgen mehr machen, dass die Ware zwischen der Show des Käufers und der des Verkäufers falsch ist zeigen!
Online-Erlebnis: https://huggingface.co/spaces/rizavelioglu/tryoffdiff
Projektadresse: https://rizavelioglu.github.io/tryoffdiff/
Das Aufkommen von TryOffDiff bietet zweifellos eine neue Möglichkeit, den Unterschied zwischen „Verkäufershow“ und „Käufershow“ beim Online-Shopping zu lösen. Diese Technologie wird das Online-Shopping-Erlebnis erheblich verbessern und den Verbrauchern und E-Commerce-Plattformen mehr Komfort bieten. Vielleicht können wir uns in Zukunft auf ein noch perfekteres virtuelles Anpasserlebnis freuen.