5熊猫网

 找回密码
 免费注册

QQ登录

只需一步,快速开始

开启左侧
查看: 90|回复: 0
 野牛 发表于: 2021-12-26 18:19:01|显示全部楼层|阅读模式

[2021年] 撸猫何必要真猫,一张靓照也可以!斯坦福英伟达3D版神笔马良连屠两榜,3D合成7倍速

 [复制链接]
源自:创事记
  看一张平面的照片,还原一张3D人脸,对人来说好像不是那么难。
  这是因为人的大脑已经做了很多的「脑补」,把单一视角看不到的信息都尽量补全了。
649a-8a6316b84676814934f4c53ba2968ac1.png
而补全的方式可能需要依赖人们不断积累的经验。
  然而,让AI仅用单一视角的2D照片集合,无监督地生成高质量的多视角图像和3D形状,可真是要把它难倒了。
b812-a789422bda8c391b8a5ee2877d1996ce.png
现有的3D GAN要么是计算量太高,要么近似的时候做不到3D一致性。而前者限制了生成图像的质量和分辨率,后者则对多视图一致性和形状质量有不利影响。
  近日,来自斯坦福大学和英伟达的研究人员提出了一种全新的方法,在没有过度依赖近似值的情况下,改善了3D GAN的计算效率和图像质量。
4ca7-2590f43ffab3c7424bceb6a95ec5728b.png
https://arxiv.org/pdf/2112.07945.pdf
  为此,作者引入了一个富有表现力的显式-隐式混合网络架构,不仅可以实时合成高分辨率的多视图一致性图像,还可以产生高质量的三维几何图形。
  通过解耦特征生成和神经渲染,论文的框架能够利用SOTA的二维CNN生成器,如StyleGAN2,并继承其高效性和表现力。
  实验结果表明,论文提出的3D GAN在FFHQ和AFHQ Cats数据集上实现了SOTA的3D感知合成效果。
f6d6-bd2b7ebd69a079c9bedc21f74649d3f7.jpg
高质量、多视角一致的渲染和详细的几何图形
  值得一提的是,文中的方法直接从2D图像的集合中进行训练,而不需要目标特定的形状先验、三维扫描信息或多视图监督信息。
话不多说,上效果!
  前方多图预警(doge)。
6a85-468f32fd9135265af574532e4b69a4e6.png
使用FFHQ和AFHQv2 Cats训练的模型的合成示例
  在场景合成的定性实验中,论文中的3D GAN采用的方法既能产生高质量、多视图一致的渲染,又能产生详细的3D几何图形。
5708-d39f74980e6434b75751c68ffa0497a2.png
GIRAFFE,pi-GAN,Lifting StyleGAN和3D GAN产生的3D人脸效果
  在渲染彩色视频时,3D GAN是通过沿着路径移动摄像机,同时固定控制场景的隐码实现的。
a5f0-a7d417c1f532cb071ae99a8ab95b659e.gif
在渲染人物的表面时,3D GAN通过提取三维表征的密度场与等值面得到相关信息。
9d3e-7c26293cee0959df6c747d113e8b4733.gif
3D GAN框架
  3D GAN框架包括几个部分:基于StyleGAN2的特征生成器和映射网络、具有轻量级特征解码器的三平面3D表示模块、神经体积渲染器、超分辨率模块和具有dual discrimination的StyleGAN2鉴别器。
93ab-a9e8cf2271da637839e0bb20ae795eca.png
这种架构将特征生成和神经渲染分离开来,并且可以使用强大的StyleGAN2生成器进行三维场景概括,十分优雅。
  此外,轻量级3D三平面表示在实现高质量的3D视图实时合成方面,既能保证合成3D视图的表现力又能做到十分高效。
  三平面表示法
  3D GAN框架中有一个设计非常巧妙的模块:轻量级3D三平面表示。
  根据前人的工作,用神经渲染来训练GAN的成本极高。
  因此作者采用了一种混合的显式-隐式三维表征,从而尽可能提高神经渲染的效率。
  通过结合一个显式骨干,可以产生在三个正交平面上排列的特征,以及一个小型的隐式解码器。
  与典型的多层感知器表征方法相比,3D三平面表示方法在速度上提高了7倍以上,而使用的内存却不到16分之一。
8faa-54bc3f37f1750b665f5688fe4437a376.png
如上图a所示,神经隐性表征(NeRF)使用带有位置编码(PE)的全连接层(FC)来表示一个场景,但其查询速度很慢。
  上图b中的显式体素化网格(Voxels)使用小型隐式解码器的混合变体,虽然查询速度快,但随着分辨率的提高,其获得的细节也会变少。
  而该论文中提出的显式-隐式混合三平面表征方法不仅速度快,而且可以随着分辨率的增加而有效地扩展,在同等容量下可以获得更多细节。
  在下图中,左图为完全隐式的Mip-NeRF表示、中间为密集体素网格(Voxels),而3D GAN采用三平面表示。
  肉眼可见,三平面合成视图的效果达到了最高质量。
c469-c804c1cb883ca6ce907cfb55d7049e92.png
多视图场景的合成视图
实验结果
  该论文将3D GAN与三种最先进的三维图像合成方法(π-GAN,GIRAFFE,和Lifting StyleGAN)进行了比较。
  在两个数据集上,3D GAN在FID、ID、深度精度和姿态精度指标上,实现了SOTA的性能。
c23a-45a939ec7cae1a40f2712546f1a02a4a.png
在FFHQ数据集上使用FID、ID、深度精度和姿态精度进行定量评估,在AFHQ Cats使用FID进行评估,128,256,512代表训练和评估的图像分辨率
  研究人员还比较了这几种方法在单个英伟达RTX 3090图形处理器上的推理渲染速度。
  可以看出,3D GAN方法明显快于π-GAN。
  当然,虽然3D GAN比Lifting StyleGAN和GIRAFFE计算成本更高,但是其在图像质量、几何质量和视图一致性上,有非常重大的改进。
4fbd-ef39bf735fb432e56fd470285aedb404.png
不同渲染分辨率下的每秒帧数
  其中,3D GAN有使用和没使用三平面缓存(TC)方法的两种变体。实验在单个RTX 3090图形处理器上运行。
266f-30d040c62ab06bdaf527c6cf9fcc9ddd.gif
实时合成和渲染场景的演示
  在未来,富有真实感的3D感知图像合成可以实现3D模型的快速制作、更可控的图像合成等等应用。
  再进一步,如果能实现以实时帧率进行场景合成和渲染,那就会为许多令人兴奋的互动应用打开大门。
『 5熊猫网 』提醒,在使用本论坛之前您必须仔细阅读并同意下列条款:
  1. 遵守《全国人大常委会关于维护互联网安全的决定》及中华人民共和国其他各项有关法律法规,并遵守您在会员注册时已同意的《『 5熊猫网 』管理办法》;
  2. 严禁发表危害国家安全、破坏民族团结、破坏国家宗教政策、破坏社会稳定、侮辱、诽谤、教唆、淫秽等内容;
  3. 本帖子由 野牛 发表,享有版权和著作权(转帖除外),如需转载或引用本帖子中的图片和文字等内容时,必须事前征得 野牛 的书面同意;
  4. 本帖子由 野牛 发表,仅代表用户本人所为和观点,与『 5熊猫网 』的立场无关,野牛 承担一切因您的行为而直接或间接导致的民事或刑事法律责任。
  5. 本帖子由 野牛 发表,帖子内容(可能)转载自其它媒体,但并不代表『 5熊猫网 』赞同其观点和对其真实性负责。
  6. 本帖子由 野牛 发表,如违规、或侵犯到任何版权问题,请立即举报,本论坛将及时删除并致歉。
  7. 『 5熊猫网 』管理员和版主有权不事先通知发帖者而删除其所发的帖子。
您需要登录后才可以回帖 登录 | 免费注册

本版积分规则

© 2002-2025, 蜀ICP备12031014号, Powered by 5Panda
GMT+8, 2025-5-7 01:19, Processed in 0.140401 second(s), 9 queries, Gzip On, MemCache On
快速回复 返回顶部 返回列表