报告时间:2019年9月21日(星期六)晚上20:00(北京时间) 主题:产学研共舞VALSE 报告主持人:周晓巍(浙江大学) 报告嘉宾:王鹏 (百度) 报告题目:Learning the perception for autonomous driving 报告嘉宾:刘浩敏 (商汤科技) 报告题目:增强现实的技术与应用 报告嘉宾:王乃岩 (图森科技) 报告题目:图森未来无人驾驶技术实践分享 报告时间:2019年9月22日(星期日)晚上20:00(北京时间) 报告主持人:夏勇(西北工业大学) 报告嘉宾:喻晓源 (华为) 报告题目:华为全栈AI技术架构介绍 报告嘉宾:徐玉华 (奥比中光) 报告题目:三维结构光成像技术进展与应用 报告嘉宾:王鹏 (百度) 报告时间:2019年9月21日(星期六)晚上20:00(北京时间) 报告题目:Learning the perception for autonomous driving 报告人简介: Peng Wang is a lead research scientist at Baidu robotics and autonomous driving lab. He graduated from UCLA advised by Professor Alan Yuille. Before UCLA, he obtained his B.S and M.S degree on machine intelligence from Peking University. His research interest is especially on machine visual perception, such as learning to estimate depth and segmentation from stereo/monocular videos, fusing multiple sensors such as video and LiDAR. He has published over 20 papers on major computer vision and machine learning conferences such as TPAMI, IJCV, CVPR, ICCV, ECCV and NIPS. 报告摘要: A successful self-driving vehicle that is widely applied must include several essential elements. Firstly, understanding the driving environment. Secondly, understanding self-location, dependent on which it can plot a path to every target location. Thirdly, understanding semantics/3d depth in the view, where a 3D perceptual system detects other moving objects, guidance signs, and obstacles on the road, in order to avoid collisions and perform corrective actions. In this talk, I will briefly introduce our research into tackling these issues including our developed datasets, system, and architectures. We first built the world's largest self-driving research platform, namely ApolloScape, based on which we developed various applications on segmentation, self-localization, and simulation. In addition, we also developed the SoTA system that can automatically learn depth, optical flow, and ego-motion without human supervision from self-driving videos. Last, I will introduce our SoTA algorithm for depth estimation from stereo and LiDAR, namely convolutional spatial propagation network (CSPN) and its variants. 报告嘉宾:刘浩敏 (商汤) 报告时间:2019年9月21日(星期六)晚上20:30(北京时间) 报告题目:增强现实的技术与应用 报告人简介: 刘浩敏,硕士、博士毕业于浙江大学计算机科学与技术专业,于浙江大学CAD&CG国家重点实验室从事SfM/SLAM技术的研发,发布了一系列SfM/SLAM软件LS-ACTS、RDSLAM、RKSLAM,并开源SfM/SLAM核心算法ENFT、SegmentBA、EIBA、ICE-BA,核心成果发表于CVPR、ECCV、TIP、ISMAR等国际顶级期刊、会议。现就职于商汤科技,从事移动端的多传感器融合与优化、高精地图相关技术研发。 报告摘要: 增强现实(Augmented Reality)相信大家都不陌生,它能将真实世界信息与虚拟世界信息“无缝”集成起来。因其高互动性以及高趣味性,被广泛运用于教育、建筑、工程、影视、娱乐等领域。比如,《王者荣耀》就推出了AR相机的功能,通过OPPO手机与小米手机搭载的商汤SenseAR,支持王者荣耀玩家将喜欢的峡谷英雄“请”到现实生活中来。要实现增强现实,需要用到的技术包括:实时跟踪及注册、场景融合、环境理解、三维重建、多传感器融合、实时目标检测和多媒体视频处理等,而其中重要的一步就是定位和理解环境,并在三维尺度空间中增添虚拟物体。本次报告将为大家讲解增强现实的相关技术,教大家打怪升级,欢迎对3D、增强现实感兴趣的同学踊跃参加! 报告嘉宾:王乃岩 (图森) 报告时间:2019年9月21日(星期六)晚上21:00(北京时间) 报告题目:图森未来无人驾驶技术实践分享 报告人简介: 王乃岩,图森未来合伙人、首席科学家。香港科技大学博士,主要负责带领中国国内算法团队进行自动驾驶卡车技术研发。曾多次在国际数据挖掘和计算机视觉比赛中名列前茅,发表论文引用次数已超过4000余次,是将深度学习应用于目标追踪领域全球第一人。曾入选2014Google PhD Fellow 计划, 也是 MXNet 核心开发者。 报告摘要: 1. 图森未来无人驾驶的发展历程,以及最新的技术进展。 2. 计算机视觉技术在无人驾驶卡车领域中的实践和应用。 报告嘉宾:喻晓源 (华为) 报告时间:2019年9月22日(星期日)晚上20:00(北京时间) 报告题目:华为全栈AI技术架构介绍 报告人简介: 喻晓源,华为云EI产品部首席机器视觉专家, 博士毕业于华中科技大学,曾访学UIUC2年,师从Thomas Huang教授。毕业后赴新加坡ADSC研究院从事研究工作。有多年AI产业经验。目前负责华为AI产品部门视觉算法研发。 报告摘要: 华为技术有限公司是全球范围内少量具备全栈AI能力的公司。最近几年,华为大力布局AI产业, 利用自身优势, 在AI行业创造了非常大的影响力。华为对AI投资是持之以恒的,是真正把AI产业作为主航道来发展的公司。我们将从芯片、软硬平台、产业、应用四个角度全面介绍华为的业务布局和组织结构。同时,我们也将重点介绍视觉业务在华为的开展情况。在分享的案例中,我们可以看到某些颠覆性的视觉算法是如何改变行业的, 一些AI技术是如何落地到产品中的。同时,也将向同学们建议如何同时做好产品和技术。 报告嘉宾:徐玉华 (奥比中光) 报告时间:2019年9月22日(星期日)晚上20:30(北京时间) 报告题目:三维结构光成像技术进展与应用 报告人简介: 徐玉华,奥比中光研究院计算机视觉算法组负责人。分别于2006年和2011年于合肥工业大学电气与自动化工程学院获得学士和博士学位,2012年7月-2015年7月在国防科技大学空天科学与工程学院于起峰院士团队开展博士后研究。目前主要从事三维视觉领域的研究工作。主持国家自然科学青年基金项目1项,在Optics Express、Optics and Lasers in Engineering等期刊发表论文十余篇。2018年被评为深圳市高层次专业技术人才,同年入选中国图象图形学会三维视觉专业委员会委员。 报告摘要: 自2010年微软推出Kinect以来,3D传感器在人机交互、体感游戏、机器人环境感知、3D建模等方面获得了广泛的应用,实时、廉价的深度信息获取方式极大地推动了计算机视觉技术的进展。2017年苹果发布的iphoneX手机,首次搭载了结构光3D传感器,使得3D视觉技术进入了普通大众的生活。2018年,oppo发布的安卓手机Find X搭载了奥比中光的3D传感器。同年,奥比中光获得蚂蚁金服领投的两亿美金的D轮融资。采用奥比中光3D传感技术的支付宝线下刷脸支付系统也在快速推广。本报告结合在奥比研究院的工作和研究经历,介绍了结构光三维成像技术的基本原理、最新进展和相关的应用。 主持人:周晓巍 (浙江大学) 主持人简介: 周晓巍,浙江大学CAD&CG国家重点实验室研究员,国家青年千人计划入选者。2008年本科毕业于浙江大学,2013年博士毕业于香港科技大学。2014年至2017年在美国宾夕法尼亚大学GRASP机器人实验室从事博士后研究。研究方向主要是计算机视觉及其在机器人、增强现实等领域的应用,目前课题侧重于三维场景理解与重建,包括三维物体和人体的检测、识别、姿态估计、运动恢复、在线重建以及匹配等问题,近年来在计算机视觉顶级期刊及会议(T-PAMI、CVPR、ICCV、NeurIPS)上发表论文20余篇。策划和组织了Geometry Meets Deep Learning Workshops,并长期担任PAMI、IJCV、TIP等二十余种SCI期刊审稿人以及CVPR、ICCV、IJCAI等计算机领域顶级会程序委员会委员。 个人主页: http://www.cad.zju.edu.cn/home/xzhou 主持人:夏勇 (西北工业大学) 主持人简介: 夏勇,博士,教授,国家级青年人才计划入选者,西北工业大学计算机学院多学科交叉计算研究中心执行主任,中国图象图形学学会视觉大数据专委会常委,中国抗癌协会肿瘤影像专业委员会人工智能学组副组长,陕西省计算机学会人工智能专委会主任,VALSE执行领域主席,MICCAI 2019领域主席。研究方向为医学影像处理、分析与学习,发表学术论文140余篇,并先后在ISBI 2019 C-NMC、LiTS 2017和PROMISE12等国际学科竞赛中排名第一。 个人主页: http://jszy.nwpu.edu.cn/yongxia.html 特别专题之产学研共舞VALSE在线学术报告参与方式: 长按或扫描下方二维码,关注“VALSE”微信公众号(valse_wechat),后台回复“产学研共舞VALSE”,获取直播地址。 VALSE Webinar改版说明: 自2019年1月起,VALSE Webinar改革活动形式,由过去每次一个讲者的方式改为两种可能的形式: 1)Webinar专题研讨:每次活动有一个研讨主题,先邀请两位主题相关的优秀讲者做专题报告(每人30分钟),随后邀请额外的2~3位嘉宾共同就研讨主题进行讨论(30分钟)。 2)Webinar特邀报告:每次活动邀请一位资深专家主讲,就其在自己熟悉领域的科研工作进行系统深入的介绍,报告时间50分钟,主持人与主讲人互动10分钟,自由问答10分钟。 活动参与方式: 1、VALSE Webinar活动依托在线直播平台进行,活动时讲者会上传PPT或共享屏幕,听众可以看到Slides,听到讲者的语音,并通过聊天功能与讲者交互; 2、为参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ群(目前A、B、C、D、E、F、G、H、I、J群已满,除讲者等嘉宾外,只能申请加入VALSE K群,群号:691615571); *注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。 3、在活动开始前5分钟左右,讲者会开启直播,听众点击直播链接即可参加活动,支持安装Windows系统的电脑、MAC电脑、手机等设备; 4、活动过程中,请不要说无关话语,以免影响活动正常进行; 5、活动过程中,如出现听不到或看不到视频等问题,建议退出再重新进入,一般都能解决问题; 6、建议务必在速度较快的网络上参加活动,优先采用有线网络连接; 7、VALSE微信公众号会在每周四发布下一周Webinar报告的通知及直播链接。 8、Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新[slides]。 9、Webinar报告的视频(经讲者允许后),会更新在VALSE爱奇艺空间,请在爱奇艺关注Valse Webinar进行观看。 徐玉华[slides] |
小黑屋|手机版|Archiver|Vision And Learning SEminar
GMT+8, 2024-11-23 02:09 , Processed in 0.014057 second(s), 14 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.