设为首页收藏本站

VALSE

VALSE 首页 活动通知 查看内容

20190710-16期 云深可知处:视觉SLAM

2019-7-4 20:34| 发布者: 程一-计算所| 查看: 1281| 评论: 0

摘要: 报告时间:2019年7月10日(星期三)晚上20:00(北京时间)主题:云深可知处:视觉SLAM报告主持人:曹汛(南京大学)Panel主持人:章国锋(浙江大学)报告嘉宾:吴毅红(中国科学院自动化研究所)报告题目:几何SLAM ...
报告时间:2019年7月10日(星期三)晚上20:00(北京时间)

主题:云深可知处:视觉SLAM

报告主持人: 曹汛(南京大学)

Panel主持人:章国锋(浙江大学)


报告嘉宾:吴毅红(中国科学院自动化研究所)

报告题目:几何SLAM还是学习SLAM?


报告嘉宾:邹丹平(上海交通大学)

报告题目:StructVIO: Visual-Inertial Odometry with Structural Regularity of Man-Made Environments


Panel议题:

1. SLAM的未来发展之路在哪里?还有哪些问题有待解决?

2. 深度学习对SLAM的影响?

3. SLAM的产学研如何做?

4.无人机、自动驾驶上哪种SLAM方案更有前景?视觉SLAM还是激光SLAM?


Panel嘉宾:

吴毅红(中国科学院自动化研究所)、邹丹平(上海交通大学)、沈邵劼(香港科技大学)、李名杨(阿里巴巴人工智能实验室)


*欢迎大家在下方留言提出主题相关问题,主持人和panel嘉宾会从中选择若干热度高的问题加入panel议题!

报告嘉宾:吴毅红(中国科学院自动化研究所)

报告时间:2019年7月10日(星期三)晚上20:00(北京时间)

报告题目:几何SLAM 还是学习SLAM?


报告人简介:

吴毅红,中国科学院自动化研究所、模式识别国家重点实验室, 研究员,博士生导师。研究方向为多视几何理论、相机标定与定位、SLAM及在机器人定位与导航、AR、VR中的应用。在国际权威期刊和重要会议等上发表论文80余篇,包括PAMI、IJCV、ICCV、ECCV上第一作者论文。申请或获权国内外发明专利10余项。曾担任ICCV、CVPR、ACCV、ICPR、IJCAI等的PC委员或Session/Area Chair。目前为《Pattern Recognition》编委、《自动化学报》编委、《计算机辅助设计与图形学学报》编委、《计算机科学与探索》编委,《Visual Computing for Industry, Biomedicine, and Art》编委。中国图形图像学会三维视觉专委会副主任,中国图形图像学会机器视觉专委会常委。首批阿里菜鸟驼峰计划特约专家。获三星电子校企合作卓越贡献奖。获1项高等学校科学研究自然科学奖二等奖。为诺基亚芬兰、三星、华为、百度等企业提供视觉SLAM技术服务累计10余年。


个人主页:

http://vision.ia.ac.cn/Faculty/yhwu/index.htm


报告摘要:

近年来,深度学习在计算机视觉的各个方面取得了非常大的进展,三维计算机视觉领域也涌现了一系列的深度学习方法,尤其也出现了端到端的SLAM方法。本报告首先列举了若干几何SLAM与学习SLAM的方法,并分析几何与深度学习融合的前景。之后介绍本人最近在几何与深度学习融合的SLAM方面的系列工作,包括FMD SLAM中深度哈希相似分层的闭环检测,动态目标SLAM中的深度学习分割与运动模糊的抠图工作,大场景中深度哈希学习描述子与随机森林结合的SLAM重定位,Circular marker SLAM中深度学习marker检测。最后,对未来进行了展望。


参考文献:

[1] Yihong Wu, Haoren Wang, and Fulin Tang. Efficient Conic Fitting with a Polar-N-Direction Geometric Distance. Pattern Recognition, 2019.

[2] Fulin Tang, Heping Li, Yihong Wu. FMD Stereo SLAM: Fusing MVG and Direct Formulation Towards Accurate and Fast Stereo SLAM,ICRA,2019.

[3] Lang Wu and Yihong Wu. Deep Supervised Hashing with Similar Hierarchy for Place Recognition Towards SLAM. IROS,2019.

[4] Xiaomei Zhao and Yihong Wu. Automatic Motion-blurred Hand Matting for Human Soft Segmentation in Videos. ICIP, 2019.

[5] Xiaomei Zhao and Yihong Wu. Automatic Extraction of Semi-transparent Motion-blurred Hand from a Single Image. https://arxiv.org/pdf/1906.11470.pdf, Submitted.

[6] Xiaomei Zhao, Fulin Tang and Yihong Wu. Real Time Human Segmentation by BowtieNet and a SLAM Based Human AR System, Submitted.

[7] Fulin Tang and Yihong Wu. Circular Marker SLAM Without PnP, Submitted.

报告嘉宾:邹丹平(上海交通大学)

报告时间:2019年7月10日(星期三)晚上20:30(北京时间)

报告题目:StructVIO: Visual-Inertial Odometry with Structural Regularity of Man-Made Environments


报告人简介:

邹丹平,博士,上海交通大学副教授。他的研究兴趣为视觉SLAM与多源融合定位导航。他2010年于复旦大学计算机学院获计算机应用技术博士学位,2010-2013年任新加坡国立大学博士后研究员。2013年加入上海交通大学感知与导航研究所,他在SLAM方面的代表工作有动态环境下群体协同CoSLAM (TPAMI, 2012),面向人造环境下的StructSLAM (TVT,2015) 以及StructVIO (TRO, 2019)等。他发起并连续策划了五届上海交通大学无人飞行器智能感知技术挑战赛,并在2017年推广为全国性赛事。


个人主页:

http://drone.sjtu.edu.cn/dpzou/


报告摘要:

This talk will present a novel visual-inertial odometry (VIO) approach that adopts structural regularity in man-made environments. Instead of using Manhattan world assumption, we use Atlanta world model to describe such regularity. An Atlanta world is a world that contains multiple local Manhattan worlds with different heading directions. Each local Manhattan world is detected on the fly, and their headings are gradually refined by the state estimator when new observations are received. With full exploration of structural lines that aligned with each local Manhattan worlds, our VIO method becomes more accurate and robust, as well as more flexible to different kinds of complex man-made environments. Through benchmark tests and real-world tests, the results show that the proposed approach outperforms existing visual-inertial systems in large-scale man-made environment.

The executable of this system and the test data are available at: 

http://drone.sjtu.edu.cn/dpzou/project/structvio.html

The paper is online published at: 

https://ieeexplore.ieee.org/document/8731724


参考文献:

[1] D. Zou, Y. Wu, L. Pei, H. Ling and W. Yu. "StructVIO: Visual-Inertial Odometry With Structural Regularity of Man-Made Environments," in IEEE Transactions on Robotics. doi: 10.1109/TRO.2019.2915140.

Panel嘉宾:沈邵劼(香港科技大学)


嘉宾简介:

Shaojie Shen received his B.Eng. degree in Electronic Engineering from the Hong Kong University of Science and Technology (HKUST) in 2009. He received his M.S. in Robotics and Ph.D. in Electrical and Systems Engineering in 2011 and 2014, respectively, all from the University of Pennsylvania. He joined the Department of Electronic and Computer Engineering at the HKUST in September 2014 as an Assistant Professor. He is the founding director of the HKUST-DJI Joint Innovation Laboratory (HDJI Lab). His research interests are in the areas of robotics and unmanned aerial vehicles, with focus on state estimation, sensor fusion, localization and mapping, and autonomous navigation in complex environments. He was the regional program chair of SSRR 2017 and program co-chair of SSRR 2015. He is currently serving as associate editors for T-RO and AURO. He and his research team won the best student paper award in IROS 2018, best service robot paper finalist in ICRA 2017, best paper finalist in ICRA 2011, and best paper awards in SSRR 2016 and SSRR 2015.


个人主页:

http://uav.ust.hk/group/

Panel嘉宾:李名杨(阿里巴巴人工智能实验室)


嘉宾简介:

李名杨,本科毕业于电子科技大学自动化专业,博士毕业于加州大学河滨分校电子工程专业。博士毕业之后,在Google Tango/Daydream从事AR/VR算法的研发以及产品化的工作,2017年底,加入阿里巴巴人工智能实验室负责机器人和计算机视觉的算法工作。其主要研究方向包括计算机视觉、机器人定位和地图、以及多传感器融合。已在IJRR,RSS,ICRA,IROS等国际一流机器人杂志和会议发表论文以及专利30余项。


个人主页:

https://sites.google.com/site/mingyangli009/

主持人:曹汛(南京大学)


主持人简介:

曹汛,清华大学工学博士,现任南京大学教授、博导,通信工程系主任。提出了PMIS(棱镜掩模调制)光谱视频成像理论,理论成果发表在PAMI、Optica、IJCV、ICCV(Oral)、CVPR(Oral)等国际期刊和会议,关键技术授权美国和中国专利40余项,被美国空军实验室在其报道中列为当前三大光谱视频成像技术之一(其余两项技术由美国DARPA和亚利桑那光学中学分别提出)。主持国家重大科研仪器研制专项,曾获2011年教育部技术发明一等奖(第2完成人),2012年国家技术发明一等奖(第4完成人)。

Panel主持人:章国锋(浙江大学)


主持人简介:

章国锋,浙江大学CAD&CG国家重点实验室教授,博士生导师,国家优秀青年科学基金获得者。主要从事三维视觉与增强现实方面的研究,尤其在同时定位与地图构建和三维重建方面取得了一系列重要成果,研制了一系列相关软件,如ACTS、LS-ACTS、RDSLAM、RKSLAM等(http://www.zjucvg.net),并开源了基于非连续特征跟踪的大尺度运动恢复结构系统ENFT-SfM、分段集束调整SegmentBA和高效的增量式集束调整EIBA、ICE-BA等算法的源代码(https://github.com/zju3dv/)。获全国百篇优秀博士学位论文奖、计算机学会优秀博士学位论文奖以及教育部高等学校科学研究优秀成果奖科学技术进步奖一等奖(排名第4)。


19-16期VALSE在线学术报告参与方式:


长按或扫描下方二维码,关注“VALSE”微信公众号(valse_wechat),后台回复“16期”,获取直播地址。



特别鸣谢本次Webinar主要组织者:

主办AC:章国锋(浙江大学)

协办AC:曹汛(南京大学)

责任AC:欧阳万里(悉尼大学)


VALSE Webinar改版说明:

自2019年1月起,VALSE Webinar改革活动形式,由过去每次一个讲者的方式改为两种可能的形式:

1)Webinar专题研讨:每次活动有一个研讨主题,先邀请两位主题相关的优秀讲者做专题报告(每人30分钟),随后邀请额外的2~3位嘉宾共同就研讨主题进行讨论(30分钟)。

2)Webinar特邀报告:每次活动邀请一位资深专家主讲,就其在自己熟悉领域的科研工作进行系统深入的介绍,报告时间50分钟,主持人与主讲人互动10分钟,自由问答10分钟。


活动参与方式:

1、VALSE Webinar活动依托在线直播平台进行,活动时讲者会上传PPT或共享屏幕,听众可以看到Slides,听到讲者的语音,并通过聊天功能与讲者交互;

2、为参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ群(目前A、B、C、D、E、F、G、H、I群已满,除讲者等嘉宾外,只能申请加入VALSE J群,群号:734872379);

*注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。

3、在活动开始前5分钟左右,讲者会开启直播,听众点击直播链接即可参加活动,支持安装Windows系统的电脑、MAC电脑、手机等设备;

4、活动过程中,请不要说无关话语,以免影响活动正常进行;

5、活动过程中,如出现听不到或看不到视频等问题,建议退出再重新进入,一般都能解决问题;

6、建议务必在速度较快的网络上参加活动,优先采用有线网络连接;

7、VALSE微信公众号会在每周四发布下一周Webinar报告的通知及直播链接。

8、Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新[slides]

9、Webinar报告的视频(经讲者允许后),会更新在VALSE爱奇艺空间,请在爱奇艺关注Valse Webinar进行观看。


吴毅红[slides]

邹丹平[slides]

Archiver|手机版|小黑屋|Vision And Learning SEminar    

GMT+8, 2019-9-20 05:16 , Processed in 0.037373 second(s), 16 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

返回顶部