¿A menudo resulta frustrante ver la diferencia entre la presentación de un vendedor y la presentación de un comprador cuando se compra en línea? El equipo de aprendizaje automático de la Universidad de Bielefeld en Alemania desarrolló una herramienta de inteligencia artificial llamada TryOffDiff para resolver este problema. Esta IA puede eliminar personas de las fotos, dejando solo la ropa, y genera una imagen de exhibición del producto de alta calidad, cerrando efectivamente la brecha entre la exhibición del comprador y la exhibición del vendedor, y mejorando la experiencia de compra.
Al comprar en línea, ¿alguna vez le ha dolido la gran diferencia entre el espectáculo del comprador y el del vendedor? Obviamente es la misma prenda, pero cuando se usa en un modelo, se ve tan a la moda, ¿cómo es que resulta serlo? ¿"horrible" cuando lo llevas puesto? ¡No te preocupes! Comparación alemana El equipo de aprendizaje automático de la Universidad de Lefeld ha desarrollado una tecnología de IA negra llamada TryOffDiff, que puede "eliminar" a las personas de la foto, dejando solo la ropa. ¡Genere una imagen de visualización de producto estándar!
Esta tecnología utiliza una poderosa tecnología de inteligencia artificial de "modelo de difusión" para identificar la forma, el color, la textura y otra información de la ropa a partir de una fotografía, y "restaurar" esta información en una imagen de exhibición del producto de alta definición. Las imágenes resultantes no sólo son claras y realistas en detalle, sino que también eliminan automáticamente el fondo, ¡como el trabajo de un fotógrafo profesional!
¿Cómo funciona TryOffDiff? En pocas palabras, es como un "sastre" experto. En primer lugar, utiliza un codificador de imágenes llamado SigLIP para extraer información característica de la ropa a partir de las fotografías, incluido el color, la textura, el patrón, etc., tal como un sastre observa cuidadosamente la tela. Luego "alimenta" esta información al modelo de generación de imágenes de Difusión Estable. Stable Diffusion es como una "máquina de coser" mágica que puede generar una variedad de imágenes basadas en la información de entrada. Finalmente, Stable Diffusion generará una imagen de visualización del producto estándar basada en la información de las características de la ropa extraída y "usará" la ropa en un modelo virtual, como un sastre que hace una prenda perfecta.
Para probar el efecto de TryOffDiff, los investigadores utilizaron un conjunto de datos llamado VITON-HD para entrenamiento y pruebas. Los resultados experimentales muestran que TryOffDiff funciona muy bien. Las imágenes de ropa que genera no solo son claras en detalle, sino también muy realistas, ¡incluso comparables al trabajo de fotógrafos profesionales! En comparación con la tecnología de ajuste virtual existente, TryOffDiff funciona bien en la retención de detalles de la ropa. Aún mejor, especialmente en términos de patrones y logotipos.
Las perspectivas de aplicación de esta tecnología son muy amplias. No solo puede ayudar a los consumidores a comprender mejor la información del producto, sino también ayudar a las plataformas de comercio electrónico a mejorar los efectos de visualización de los productos y reducir las tasas de devolución. En el futuro, cuando compre ropa en línea, es posible que solo necesite cargar una foto suya para ver cómo se ve con ropa diferente. Ya no tendrá que preocuparse de que "los productos estén equivocados" entre la exhibición del comprador y la del vendedor. ¡espectáculo!
Experiencia en línea: https://huggingface.co/spaces/rizavelioglu/tryoffdiff
Dirección del proyecto: https://rizavelioglu.github.io/tryoffdiff/
La aparición de TryOffDiff sin duda proporciona una nueva forma de resolver la diferencia entre "show del vendedor" y "show del comprador" en las compras en línea. Esta tecnología mejorará en gran medida la experiencia de compra en línea y brindará más comodidad a los consumidores y las plataformas de comercio electrónico. En el futuro, tal vez podamos esperar una experiencia de adaptación virtual más perfecta.