为了使得视觉与学习领域相关从业者快速及时地了解领域的最新发展动态和前沿技术进展,VALSE最新推出了《论文速览》栏目,将在每周发布一至两篇顶会顶刊论文的录制视频,对单个前沿工作进行细致讲解。本期VALSE论文速览选取了来自复旦大学和腾讯光影实验室的隐式神经表示和新视角生成的工作,CoCo-INR。该工作由复旦大学陈涛教授指导,论文第一作者尹富坤博士生录制。 论文题目:CoCo-INR: Coordinates Are NOT Lonely--Codebook Prior Helps Implicit Neural 3D Representations 作者列表:Fukun Yin (复旦大学),Wen Liu (腾讯), Zilong Huang (腾讯),Pei Cheng (腾讯),Tao Chen (复旦大学),Gang YU (腾讯) B站观看网址: 论文摘要: 隐式神经表示 (Implicit Neural Representation, INR) 在表面或场景重建和新视图合成方面取得了优异的成果。然而,现有的方法,如Neural Radiance Field (NeRF),及其变体 Unisurf、NeuS、VolSDF,通常需要密集的输入视图 (约 50-150个)才能获得不错的结果。为了解决对海量校准图像的过度依赖,我们探索将先验信息注入到基于坐标的网络中,丰富基于坐标的特征表示,并引入一个新的基于坐标的模型,CoCo-INR。该方法的核心是两个注意力模块:Codebook码本注意力和Coordinates坐标注意力。在先验信息的帮助下,我们的方法可以比现有的方法在使用更少的校准图像的情况下渲染出更逼真的 3D 视图。在DTU、BlendedMVS和H3DS三个数据集上都表现出了良好的鲁棒性和细节保存能力。 论文信息: [1] Fukun Yin, Wen Liu, Zilong Huang, Pei Cheng, Tao Chen and Gang YU. Coordinates Are NOT Lonely - Codebook Prior Helps Implicit Neural 3D Representations [C]//Thirty-Sixth Conference on Neural Information Processing Systems, 2022. 论文链接: [https://arxiv.org/abs/2210.11170] 代码链接: [https://github.com/fukunyin/CoCo-NeRF] 视频讲者简介: 尹富坤,复旦大学博士生,在CVPR、NeurIPS、T-CSVT等国际高水平会议或期刊发表多篇论文,博士期间主要研究方向是三维场景表示与生成。 特别鸣谢本次论文速览主要组织者: 月度轮值AC:胡鹏 (四川大学)、林迪 (天津大学) 活动参与方式 1、VALSE每周举行的Webinar活动依托B站直播平台进行,欢迎在B站搜索VALSE_Webinar关注我们! 直播地址: https://live.bilibili.com/22300737; 历史视频观看地址: https://space.bilibili.com/562085182/ 2、VALSE Webinar活动通常每周三晚上20:00进行,但偶尔会因为讲者时区问题略有调整,为方便您参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ S群,群号:317920537); *注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。 3、VALSE微信公众号一般会在每周四发布下一周Webinar报告的通知。 4、您也可以通过访问VALSE主页:http://valser.org/ 直接查看Webinar活动信息。Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新。 |
小黑屋|手机版|Archiver|Vision And Learning SEminar
GMT+8, 2024-12-4 02:09 , Processed in 0.012402 second(s), 14 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.