一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

杨净 发自 凹非寺

量子位 | 公众号 QbitAI

在元宇宙里看时装秀,会是什么赶脚?

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

各种布料摩擦细节,不光看得一清二楚,而且就跟真的一样。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

裙摆随着模特的走动飞舞起来~光是看看,就能知道这件衣服是不是轻盈。

这是图形学大牛王华民团队的最新成果,提出了一个基于GPU的预处理器MAS,一张GPU完成实时布料碰撞特效。

比如这件羊毛大衣,就能以每秒37帧的速度实时模拟出来,仿真精度可达5mm。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

而且也不光是衣服,连毛毛球、软皮玩具也能实现逼真的碰撞特效。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

其论文收录于SIGGRAPH 2022。作为全球规模最大、水平最高的图形学会议,SIGGRAPH每年接收的论文都代表着当年CG最高水平。

来康康这是一项什么样的研究?

一张GPU实时模拟碰撞特效

要构建真正意义上的元宇宙,首先需要的是一个强大的实时物理仿真模拟引擎。

而当前常见的物理引擎在效果或效率上还远达不到理想的状态。

服装模拟是所有模拟问题的制高点。

因为服装的材质、碰撞都是最复杂的,解决好服装模拟,就等于解决了大部分实时物理模拟问题,为未来元宇宙开发奠定基础。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

从技术上划分,实时物理模拟分为流体和形变体模拟两大类。

相较于流体,形变体的应用范围更加广泛,比如弹性体模拟、布料模拟、头发模拟等,其产业端的价值也更加清晰,比如在服装、工业上的应用。

但当前困扰科学家的一道挑战,是完成更高质量的实时仿真

任何形变体的模拟,最后都归于一个线性求解问题,个中区别无非就是矩阵内部数值、稀疏程度还有矩阵大小的不同。

因此,如何快速求解也就成为其中一个重要的突破口。

基于这样的背景,王华民团队提出了基于GPU的MAS预处理器 (Multilevel Additive Schwarz Preconditioner)

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

顾名思义,这一预处理器采用了多层和域(domain)分解的概念。

以往的算法主要依赖在一层网格上处理,这样域越少越好,不然误差大。

但此次研究人员则是构建多个网格层,这样使用小的、不重叠的域,可以发挥GPU并行计算能力。

具体而言,MAS预处理程序可以分成三个阶段。

第一阶段,利用Morton代码快速分层分域

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

研究人员提出了一种超节点分割方法和跳过方法,用于空间的初步构建。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

第二阶段,通过单向Gauss-Jordan消除的低成本矩阵预计算,在每个域进行快速的inverse求解。此外,研究人员还开发了一个选择性更新方案,以解决轻微的矩阵修改。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

第三阶段,运行时预处理,从而对矩阵向量快速求解。为了降低计算成本,研究人员发明了一种对称矩阵-向量乘法

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

实验表明,MAS预处理器与许多线性和非线性求解器兼容,这些求解器用于带有动态接触的形变体模拟,如PCG、加速梯度下降和L-BFGS。

以最常见的PCG求解器为例,在两者一起使用时,在GPU上的收敛速率仍然明显优于其他预处理程序,包括GPU上的多网格AmgX。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

在达到相同的收敛目标时,MAS预处理器的收敛速度要比其他预处理器快约四倍

与此同时,MAS预处理器在CPU上也是有效的,其性能也优于其他预处理程序,比如英特尔的ILU0和ILUT。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

除此之外还发现,MAS预处理器的计算开销很低。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

并行计算时仅为0.118秒,相比之下ILU0、ichol和ILUT的成本为2.50秒、33.8秒和154秒。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

研究人员表示,此次为5万个定点到50万个顶点区间规模的布料和形变体仿真推向了一个更高水平。

未来还将继续研究基于GPU域分解(GPU-based domain decomposition)的技术,因为这类算法有很多可以挖掘的空间。

Style3D出品

本次研究团队来自Style3D研究院王华民所带领的团队。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

王华民俄亥俄州立大学前副教授,佐治亚理工学院计算机科学博士,斯坦福大学计算机科学硕士,公认的世界级图形学科学家。

曾以唯一作者身份完成四篇SIGGRAPH论文,6届SIGGRAPH/SIGGRAPH Asia技术论文委员会委员,其学生遍布知名大厂,因为聚焦布料仿真,业内流传着这样一句话:

如果你研究布料仿真,就不可能没读过王华民教授的论文。

去年8月,他正式加盟国内时尚产业链3D数字化公司——凌迪科技Style3D,任职首席科学家兼凌迪研究院院长。

结果不到一年时间,就率队带来了最新产学研成果,将实时仿真技术又提升到了新水平。

研究进展如此快速,背后既有世界级技术团队的实力加成,也有企业的产业化驱动。

凌迪科技Style3D,创立之初将视线聚焦在最制约服装行业效率的服装设计开发环节上。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

其核心产品,一个是率先打破国外技术垄断的3D柔性体仿真工业软件Style3D Studio,其二是全球创新的面料数字化设计软件Style3D Fabric,另有研发全流程协同平台Style3D Cloud,以及开创性的数字时尚内容资源商城Style3D Market

研发过程中从面辅料选择、款式设计、渲染仿真、协同与展销等全流程,都可以进行数字化呈现以及协同合作,以此来提升研发效率。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

此外,凌迪Style3D还依据工厂生产标准生成生产资料清单,串起整个生产制造环节,进一步推动整个行业链路的数字化。

据透露,今年6月底凌迪Style3D将有面向元宇宙开发者的神秘产品发布。

目前,它的客户涉及到海内外品牌方、ODM(原始设计制造)商、面辅料商以及泛电商等。

值得一提的是,就在SIGGRAPH收录结果出炉同一时间,凌迪Style3D官宣了与牛仔技术公司Jeanologia的合作。

全球每年生产35%的牛仔裤,都采用了这家公司的环保技术。

两者合作下,牛仔设计师也能够直接在Style3D一键调用牛仔裤纹样及水洗效果图案等,无需制作牛仔裤实样,即可呈现牛仔裤水洗等多种工艺的设计效果。

而且这样高仿真的数字牛仔裤,还可以直接拿去营销展示和售卖。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

事实上,除了推动整个服装产业链效率外,还有更现实的全球性问题能得到缓解,即现在热议的碳中和、碳排放。

当前,纺织服装已经成为全球第二大污染产业,全球每年约有1280万吨服装被填埋焚烧,制作服装所排放的废水占全球总量的20%,并承担着全球10%碳排放。

甚至于,还有15%纺织产品会遭遇不被使用,直接走向烧毁的命运,从而造成二次污染。

而一旦将整个产业从研发、生产到最后的商品展销等全流程搬上数字平台,污染问题就能得到有效解决,可持续时尚才真正有落实的方向。

图形学的产业发展

最后,回到这篇被收录SIGGRAPH的研究成果本身。

可以看到的是,它不像是英伟达、谷歌每年传统艺能——各种炫酷逼真的特效技术,以彰显企业的前沿技术实力。

而是从更垂直的产业角度出发,技术迭代不太容易被人感知,但切实地解决了产业问题。

一方面,这说明图形学技术已经来到了产业端创造价值。

图形学最有可能、也是最大限度落地的领域,不是热议的电影、游戏,而是像服装、工业这等产业领域。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

另一方面还说明中国在图形学上技术水平并不弱,会像AI一样从前沿到产业加速前进。

从此次SIGGRAPH论文收录结果可以看到,中国团队已经占据名单的一大半,其中不乏高校以及企业代表。

一张GPU实时模拟布料碰撞特效,元宇宙时装秀栩栩如生|SIGGRAPH

随着图形学产业价值更加显性,更多世界级大牛参与进来。企业也将通过设立研究院、启动奖学金等方式吸引更多高校人才加入。

以凌迪Style3D为例,去年就启动了凌迪图形学奖学金计划,每位获奖者将获得3万人民币的现金奖励,第一期就有清华浙大中科大南开山大等10名硕博士获得。

如此一来,产学研闭环一形成,更有利于图形学产业化的长期发展。

如今爆火的元宇宙,最终挤掉泡沫。像当初的AI一样,只有将底层技术与产业相结合,发挥更长远的价值。

而这一点,中国的企业已经先行一步。

— 完 —

量子位 QbitAI · 头条号签约

关注我们,第一时间获知前沿科技动态

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

(0)
上一篇 2022年7月6日 上午10:14
下一篇 2022年7月6日 上午10:28

相关推荐