谷歌前两天发了一个AI试衣模型 TryOnDiffusion,想解决的是用户提供一张自己的全身照,就可以获得自己穿上对应服装的样子。 需要一张用户的全身照和服装模特穿着的照片,效果看起来非常好。 以往一个关键的挑战是在保留服装细节的同时,将服装进行变形以适应不同主体之间的重要姿势和形状变化。以往的方法要么只注重保留服装细节而无法有效处理姿势和形状的变化,要么允许尝试不同的形状和姿势,但缺乏服装细节。 他们提出了一种基于扩散的架构,将两个UNet(称为Parallel-UNet)统一起来,这使得能够在单个网络中保留服装细节并对服装进行重要的姿势和身体变化。
他们主要解决了两个问题:1)通过交叉注意机制隐式地对服装进行变形,2)服装的变形和人物的融合作为一个统一的过程,而不是两个独立任务的序列。
从数据和参考图上来看服装在人物上的变形非常自然,服装的细节也还原的非常好,现在的主要问题就是,演示所有的服装都没有LOGO和文字,不知道他们解决了没有,如果不能有文字的话实用性就大打折扣了。目前没有开源。
Google文章链接: blog.google/products/shopp
模型介绍页面: tryondiffusion.github.io
How AI makes virtual try-on more realistic
© 版权声明
文章版权归作者所有,未经允许请勿转载。
THE END
暂无评论内容