谷歌为其在线购物体验推出了两项新功能,旨在帮助用户更详细地搜索衣服,并更好地想象不同体型的衣服的效果。
从今天开始,谷歌购物在美国的用户可以获得虚拟试穿体验,真实地展示一件衣服在真人模特身上的效果。这些模特有不同的肤色、种族、发型和体型,尺码从XXS到4XL不等,以帮助用户了解一件衣服穿在和自己相似的体型上是什么样子。
最初,只有H&M、Anthropologie、Everlane和Loft等品牌的女装上衣可以进行虚拟试穿体验,谷歌声称,今年晚些时候,男装上衣和“其他服装”也将推出。该功能旨在帮助购物者在购买之前准确地想象一件衣服的样子,从而避免失望。该公司援引自己的购物数据称,59%的网上购物者对购买的衣服感到失望,因为他们希望衣服穿在自己身上看起来不一样,42%的人觉得网上服装模特不能代表自己。
新的谷歌购物虚拟试穿体验使用了基于扩散的生成式人工智能模型,该模型通过向图像(本质上是随机像素)添加高斯噪声来训练,然后模型学习如何去除高斯噪声以生成逼真的图像。这一过程使谷歌的人工智能模型能够真实地描绘出一件衣服在不同型号的可用范围内是如何起皱、褶皱、折叠、粘着和拉伸的,而不管它们处于什么角度或姿势。需要明确的是,谷歌购物的模型并不是人工智能生成的——人工智能只是用来围绕这些人体模型的图像来塑造服装。
谷歌购物今天也引入了新的过滤器,旨在帮助用户找到他们想要的东西,比如一件相似但更便宜的衬衫或夹克,但图案不同。机器学习和视觉匹配算法允许用户优化各种在线服装商店的颜色、风格和图案等输入,以找到最符合他们要求的商品。这项功能现在可以在谷歌购物的产品列表中使用,同样仅限于上衣,谷歌还没有提到什么时候会扩展到其他类型的服装。
李维斯(Levi’s)今年3月也宣布,将利用人工智能扩大在线购物的造型选择。然而,该牛仔品牌表示,将使用人工智能生成的模型进行测试,而不是像谷歌那样使用真人的图像,最初声称这将有助于“多样化”牛仔公司的购物体验。在声明遭到强烈反对后,李维斯随后收回了这些评论,但坚持认为使用人工智能生成的模型将使该品牌“更快地在一系列体型上发布更多我们产品的图像”。