SIGGRAPH ASIA 2020 微软亚洲研究院论文精选

2020 年 12 月 8 日 微软研究院AI头条

编者按:由 ACM SIGGRAPH 举办的 SIGGRAPH ASIA 2020 大会124日-13线上举办本届大会涉及视觉科学、艺术、动画、游戏、互动、教育、电影多个领域今天我们将为大家介绍一下微软亚洲研究院在 SIGGRAPH ASIA 2020 上发表的两篇论文,内容涉及了真实世界数字化方法和草图到 CAD 建模领域


基于深度学习表达实现360度自由视角重光照

Deferred Neural Lighting: Free-viewpoint Relighting from Unstructured Photographs

论文链接:http://yuedong.shading.me/project/defnlight/DeferredNeuralLighting.pdf

 

真实世界数字化是指将某个真实世界存在的物体或场景,通过计算机图形学的方法得到该真实场景的数字化表达,从而可以生成在全新视角和光照下的高逼真图片。


相关的真实世界数字化的方法可以分为两大类:传统基于建模的方法和基于图片的方法。随着深度学习的发展,用于全新视角生成的深度学习表达和方法也不断被提出。然而,基于图片的方法为了得到高逼真的结果,往往依赖于专业的、高精度的采集设备以及密集的场景采样数据,这大大限制了其使用场景。此外,很多基于图片的方法仅支持新视角的生成而无法实现重光照。如图1,通过一个富有挑战性的例子展示了目前方法存在的局限性。


图1:现有方法对比展示。 (a)为参考图片;(c)是现有基于图片方法的结果(d)为现有基于图片新视角生成方法的扩展,这些方法都未能正确捕捉反射效果;(e)是基于建模方法的结果,同样无法正确处理高光反射作为对比,(b)新研究方法得到的结果。


本篇论文中提出的研究方法的目标是针对生活中的真实场景,使用轻量级的采集条件获得的图片作为输入,实现高真实感的360度自由视角的重光照。为了实现以上目标,微软亚洲研究院的研究员们提出了结合深度学习的全新三维物体表达和相应的全新渲染流程


图2:方法流程总览


图2展示了该方法的主要流程——首先将投影到屏幕空间的可学习的深度纹理贴图与预先渲染得到的光照信号相乘,接着将其输入给深度渲染网络,最后输出渲染结果。

 

然而,由于训练数据仅包含点光源,深度渲染网络无法很好地处理带有颜色的或者低频的光照,从而导致网络的输出带有明显瑕疵。为此,全新的光照增强策略被提出,以解决光照泛用性问题。其核心思路是使用经典的基于图片的重光照方法来合成环境光照下的渲染图片数据集,然后在该增强的环境光照数据集和原拍摄的点光源数据集下一起训练。图3展示了对比结果,从图中可以看出,光照增强策略可以显著提升在环境光照下的结果质量。关于提出的深度表达的参数细节以及其他实现细节,感兴趣的读者可以深度阅读论文。


图3:左侧图片为参考图片,中间图片是经过光照增强策略训练后的预测结果,右侧为没有该策略情况下的预测结果。


研究员们拍摄了大量真实世界的复杂物体,图4展示了该方法的预测结果和参考图片的对比,需要注意的是,这些数据并没有被用于训练。从图中可以看出,拍摄的数据集涵盖了多种复杂物体,但该方法仍可以在这些复杂的真实场景上生成真实的渲染结果。



图4在真实拍摄数据上,使用法和参考图片的对比。每个物体的左列是参考图片,右列则是预测输出。二者之间的图片是误差图片放大5倍的结果。


图5进一步展示了其他视角下的结果以及部分场景在环境光照下的渲染结果。


图5:更多的例子。其中(a) (b) (c)为点光源下的渲染结果,而(d)(e)(f)为环境光照下的渲染结果。


此外,本篇论文提出的方法还对粗糙几何的误差具有鲁棒性。图6展示了不同“粗糙”层次的粗糙几何的结果。其中 (c) 对应的粗糙几何的质量类似于在真实拍摄中重建的物体几何质量,而 (d) 是一个更加粗糙的版本,可以看到在 (c)、 (d) 中,几何存在很多缺失和不匹配,例如树上端的星形已经几乎消失,但仍然可以给出高逼真的渲染结果。


6对于不同粗糙度几何的鲁棒性。


如下是更多的例子以及连续旋转视角和光照的展示视频。



综上,微软亚洲研究院的研究员们提出了一种结合深度学习的全新三维物体表达和相应的全新渲染流程,可以以轻量级拍摄条件得到的无结构图片集作为输入,实现360度自由视角下的重光照,实验证明该方法对于很多真实世界的复杂物体和场景可以得到逼真的渲染结果。此外,新的光照增强训练策略也可以扩展该方法适用的光照范围。


从草图到 CAD:通过上下文相关的草图绘制进行序列化 CAD 建模

Sketch2CAD: Sequential CAD Modeling by Sketching in Context

论文链接:https://arxiv.org/abs/2009.04927

GitHub代码: https://github.com/Enigma-li/Sketch2CAD

 

传统的产品设计流程从概念设计开始,由工程师建模转化为 CAD 模型,再经分析验证后进行生产制造。在概念设计阶段,设计人员为了便捷构思和自由表达,往往以绘制草图的方式完成。如图7所示,草图绘制的过程(第一行)是很明显的从主体到细节的序列,其顺序与软件建模 CAD 的过程(第二行)非常类似。为了加速从设计到建模的迭代,减少人力成本,微软亚洲研究院的研究员与合作者们提出了将草图绘制序列翻译成 CAD 建模操作序列的方法 Sketch2CAD,从而实现直观、自然的 CAD 建模(图8)。


7 (a) 绘制草图进行产品概念设计,(b)CAD 软件中的建模,两者展现出了非常相似的序列过程。


8Sketch2CAD 系统。从一个启发式的产品设计草图(a,©Koos Eissen and Roselien Steur) 出发,系统支持用户交互绘制一系列的平面草图(b)之后再将草图序列转译为 CAD 操作序列 (c),执行该序列就得到了重建的 CAD 模型 (d)


尽管具有相似的顺序结构,但草图和 CAD 操作之间仍存在巨大的差异。草图是固定视角下的二维平面图,因为手绘而没有精确几何,而且同一组笔画可以有完全不同的理解方法,这样的二义性需要更多上下文信息才能去除(图8 (b))。比较而言,CAD 每一步都是精确的三维几何操作,其执行结果完全确定,否则无法用于生产制造(图8 (c,d))。为了完成从草图序列到 CAD 序列的翻译,研究员们通过借助机器学习的方法来对抗草图的不精确和二义性。


如图9所示,机器学习模型利用草图所在模型作为上下文信息,使用卷积神经网络进行 CAD 操作的分类和关键参数的回归。随后,作为后处理,进一步通过搜索和几何拟合的方法完全恢复 CAD 操作。通过组合机器学习模型的统计稳定性和几何优化的精确性,该方法完成了从自由草图到精准 CAD 操作的转译。


图9:给定一个部分构造的三维模型和重叠其上的二维草图,机器学习模型首先提取深度和法向图作为上下文信息,然后合并草图信息进行 CAD 操作的识别和关键操作参数的回归。之后进一步进行几何优化来确定 CAD 操作的所有参数。由此完成了一组草图到 CAD 操作的转换。


最后一个困难是训练机器学习模型所需要的大规模【草图,CAD 操作】数据对并不存在。为此,研究员们再次利用序列化数据的优势,随机合成了4万条 CAD 指令序列,这些序列在长度和组合上都充分采样了可能的形状空间。执行任一序列都可以得到三维模型,再利用提取出的对应的草图和上下文信息,来训练机器学习模型。


研究过程中,研究员们邀请了6名没有 CAD 建模或者产品设计经验的用户来测试系统的易用性。如图10所示,所有参与者在半个小时的学习之后,都能在10分钟左右完成模型构建,而且乐于探索形状的不同变化。


图10:无 CAD 建模经验的用户创造的模型和所用时间。绿色模型是参考目标,同时允许并鼓励用户自由探索形状的变化。


图11则显示了三个草图绘制的过程和转译后的 CAD 构造过程,以及最终的 CAD 模型。通过使用 Sketch2CAD,用户可以轻松构造很多具有不同复杂度的三维模型。更多结果、数据和方法细节请见论文和 GitHub 代码页。


图11:绘制草图进行序列化建模的过程和结果。






你也许还想看



登录查看更多
0

相关内容

由国际图形图像协会(ACM SIGGRAPH)举办的SIGGRAPH电脑图像和互动技术展览及会议是世界上影响最广、规模最大,同时也是最权威的一个集科学、艺术、商业于一身的CG及互动技术展览及会议。
专知会员服务
76+阅读 · 2020年12月6日
【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
82+阅读 · 2020年6月21日
 【SIGGRAPH 2020】人像阴影处理,Portrait Shadow Manipulation
专知会员服务
28+阅读 · 2020年5月19日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
八篇 ICCV 2019 【图神经网络(GNN)+CV】相关论文
专知会员服务
29+阅读 · 2020年1月10日
五篇 ICCV 2019 的【图神经网络(GNN)+CV】相关论文
专知会员服务
14+阅读 · 2020年1月9日
深度学习视频中多目标跟踪:论文综述
专知会员服务
90+阅读 · 2019年10月13日
17篇入选CVPR 2020,腾讯优图 9 篇精选论文详解
AI科技评论
3+阅读 · 2020年3月6日
CVPR 2019 | 微软亚洲研究院7篇精选论文解读
微软研究院AI头条
23+阅读 · 2019年6月18日
本周精选共读论文《姿态估计&图像生成》五篇
人工智能前沿讲习班
7+阅读 · 2019年3月25日
CVPR 2018 最酷的十篇论文
AI研习社
6+阅读 · 2019年2月13日
CVPR2018 目标检测算法总览(最新的目标检测论文)
极市平台
21+阅读 · 2018年12月21日
CVPR 2018中国论文分享会 之「人物重识别及追踪」
AI科技评论
4+阅读 · 2018年6月3日
CVPR 2018 论文解读(部分)
计算机视觉战队
5+阅读 · 2018年5月8日
论文 | 深度学习实现目标跟踪
七月在线实验室
47+阅读 · 2017年12月8日
Arxiv
0+阅读 · 2021年2月5日
Arxiv
13+阅读 · 2018年4月6日
Arxiv
26+阅读 · 2018年2月27日
Arxiv
4+阅读 · 2017年4月12日
VIP会员
相关VIP内容
专知会员服务
76+阅读 · 2020年12月6日
【ICLR 2019】双曲注意力网络,Hyperbolic  Attention Network
专知会员服务
82+阅读 · 2020年6月21日
 【SIGGRAPH 2020】人像阴影处理,Portrait Shadow Manipulation
专知会员服务
28+阅读 · 2020年5月19日
必读的10篇 CVPR 2019【生成对抗网络】相关论文和代码
专知会员服务
31+阅读 · 2020年1月10日
八篇 ICCV 2019 【图神经网络(GNN)+CV】相关论文
专知会员服务
29+阅读 · 2020年1月10日
五篇 ICCV 2019 的【图神经网络(GNN)+CV】相关论文
专知会员服务
14+阅读 · 2020年1月9日
深度学习视频中多目标跟踪:论文综述
专知会员服务
90+阅读 · 2019年10月13日
相关资讯
17篇入选CVPR 2020,腾讯优图 9 篇精选论文详解
AI科技评论
3+阅读 · 2020年3月6日
CVPR 2019 | 微软亚洲研究院7篇精选论文解读
微软研究院AI头条
23+阅读 · 2019年6月18日
本周精选共读论文《姿态估计&图像生成》五篇
人工智能前沿讲习班
7+阅读 · 2019年3月25日
CVPR 2018 最酷的十篇论文
AI研习社
6+阅读 · 2019年2月13日
CVPR2018 目标检测算法总览(最新的目标检测论文)
极市平台
21+阅读 · 2018年12月21日
CVPR 2018中国论文分享会 之「人物重识别及追踪」
AI科技评论
4+阅读 · 2018年6月3日
CVPR 2018 论文解读(部分)
计算机视觉战队
5+阅读 · 2018年5月8日
论文 | 深度学习实现目标跟踪
七月在线实验室
47+阅读 · 2017年12月8日
Top
微信扫码咨询专知VIP会员