VALSE

VALSE 首页 活动通知 查看内容

20210113-02 总第226期「慧眼识人」— 以人为中心的视觉技术特辑2 ...

2021-1-8 11:52| 发布者: 程一-计算所| 查看: 3889| 评论: 0

摘要: 报告时间2021年01月13日 (星期三)晚上20:00 (北京时间)主 题「慧眼识人」— 以人为中心的视觉技术特辑2主持人赵健 (北方电子设备研究所)报告嘉宾:郑良 (ANU)报告题目:The Promises of Synthetic Data报告嘉宾:周 ...

报告时间

2021年01月13日 (星期三)

晚上20:00 (北京时间)

主  题

「慧眼识人」— 以人为中心的视觉技术特辑2

主持人

赵健 (北方电子设备研究所)


报告嘉宾:郑良 (ANU)

报告题目:The Promises of Synthetic Data


报告嘉宾:周晓巍 (浙江大学)

报告题目:Human Motion Capture from RGB Videos



Panel嘉宾:

申省梅 (澎思科技)、郑伟诗 (中山大学)、郑良 (ANU)、周晓巍 (浙江大学)、王文冠 (ETH Zurich)、王正 (东京大学)


Panel议题:

1. 以人脸识别、人物解析、行人重识别、姿态估计和行为识别为代表的human-centric image understanding未来的突破点在哪?

2. 面向真实应用场景,现在有相关落地产品吗?现有的以人为中心的视觉技术还存在哪些问题,距离真正落地应用还有多远?

3. 在相关领域有哪些值得关注的最新发展方向?

4. 如何解决以人为中心的视觉技术中面临的小样本问题、样本不均衡问题,如何提升可解释性以及算法模型的推理效率?

5. 针对实际安防监控场景,以人为中心的视觉技术如何充分发挥最大效能?如,基于跨设备联动、多模态融合等,请各位老师谈谈自己的见解?

6. 各位老师在各自熟悉的领域,对新入门的同学们有何建议?


*欢迎大家在下方留言提出主题相关问题,主持人和panel嘉宾会从中选择若干热度高的问题加入panel议题!


报告嘉宾:郑良 (ANU)

报告时间:2021年01月13日(星期三)晚上20:00(北京时间)

报告题目:The Promises of Synthetic Data


报告人简介:

Dr Liang Zheng is a Senior Lecturer in the School of Computing, Australian National University. He obtained both his B.S degree (2010) and Ph.D degree (2015) from Tsinghua University. He makes some early attempts in large-scale person re-identification, and his works are positively received by the community. Named as the Top-40 Early Achievers by The Australians, Dr Zheng received the Outstanding PhD Thesis and the Wen-Tsun Wu Award from Chinese Association of Artificial Intelligence, and the DECRA award from the Australian Research Council. He serves as an Area Chair/Senior PC in CVPR 2021, ECCV 2020, ACM MM 2020, AAAI 2020, IJCAI 2019-20, and regularly organizes tutorials and workshops at ECCV 2018, CVPR 2019-2021. He is an Associate Editor of IEEE TCSVT.


个人主页:

http://zheng-lab.cecs.anu.edu.au/


报告摘要:

Data collected from the real world is usually viewed as the engine for computer vision research. Their limitations are obvious: expensive, hard to be modified, unknown environmental compositions, etc. In comparison synthetic data, e.g., from simulation engines, mitigates these drawbacks, but its role is severely underestimated due to the so-called appearance gap. In this talk, I will answer some interesting questions around some new and critical roles synthetic data takes in the community: what makes a good synthetic training set? How is a synthetic test set validated? When does the synthetic-real domain gap disappear? 


报告嘉宾:周晓巍 (浙江大学)

报告时间:2021年01月13日(星期三)晚上20:30(北京时间)

报告题目:Human Motion Capture from RGB Videos


报告人简介:

周晓巍,浙江大学“百人计划”研究员、博士生导师。2008年本科毕业于浙江大学,2013年博士毕业于香港科技大,2014至2017年在宾夕法尼亚大学 GRASP 机器人实验室从事博士后研究。2017年入选国家级青年项目并加入浙江大学。研究方向主要为计算机视觉及其在混合现实、机器人等领域的应用,在3D目标检测、姿态估计、运动捕捉、图像匹配等方面取得了一系列成果,相关工作曾多次获得CVPR及ICCV等顶级会议口头报告,曾获得CVPR18 3DHUMANS Workshop Best Poster Award、CVPR19 Best Paper Finalists、“陆增镛CAD&CG高科技奖”一等奖。担任CVPR21和ICCV21领域主席。


个人主页:

http://www.cad.zju.edu.cn/home/xzhou/


报告摘要:

Human motion capture (MoCap) is the basis of many human-centered applications such as human-computer interaction, AR/VR, sports analysis, healthcare, etc. Existing commercial MoCap systems are often expensive and only usable in well-controlled environments. How to make MoCap systems more lightweight and widely applicable is a long-standing problem in computer vision and graphics communities. In this talk, I will introduce our recent efforts towards this goal, which aim to recover 3D human motion with only RGB videos as input. Specifically, I will discuss how to estimate 3D human poses from multi-view or single-view images, recover high-quality human motion from unsynchronized internet videos, and synthesize free-view videos (bullet time) of dynamic humans from sparse multi-view videos. 


Panel嘉宾:申省梅 (澎思科技)


嘉宾简介:

申省梅,澎思科技首席科学家、新加坡研究院院长。申省梅是人工智能和深度学习领域的带头人,前新加坡(松下)研究院副院长,领导超过 40 人的算法研究团队,累计专利 300 余项。上世纪 80 年代起就从事人工智能在无人驾驶汽车和医学心电图辅助诊断等领域的相关研究。1992 年加入新加坡松下研究院,从事音视频信号处理和压缩算法设计和应用,随后专注于图像识别领域的研究工作。2013 年就率先带领团队转向深度学习方向,在深度学习、计算机视觉领域取得了瞩目的成绩,拥有计算机视觉的全栈技术能力,技术面横跨多个应用领域,在基于深度学习的人脸检测和识别、行人检测和跟踪、行人再识别、车辆识别、自动驾驶、驾驶员行为检测、移动操作机器人等领域均取得了世界顶级成果。2019 年 3 月,申省梅加入国内 AI 公司澎思科技,任首席科学家、新加坡研究院院长,致力于监控与安全、智慧城市、自动驾驶、智能机器人以及 AI 工厂自动化等领域的相关技术研究。在 2019 年,申省梅带领澎思新加坡研究院已经斩获 13 项计算机视觉技术相关世界冠军,遍布人脸识别(Face Recognition)、行人再识别(Person ReID)、车辆再识别(Vehicle ReID)和异常行为检测(Anomaly Detection)等计算机视觉技术多个领域。


Panel嘉宾:郑伟诗 (中山大学)


嘉宾简介:

郑伟诗博士,中山大学计算机学院教授、副院长、机器智能与先进计算教育部重点实验室副主任。主要研究方向为智能视频图像分析,他最近主要解决大规模智能视频应用中的行人身份识别与行为解析问题,并最近集中展开无监督和弱标注学习,力图解决“大数据、小标注”下的图像视频分析问题。担任Pattern Recognition、《自动化学报》等期刊的编委,担任ICCV、CVPR、IJCAI 、BMVC等Area Chair。他是国际IEEE 多媒体系统与应用(MSA)技术委员会委员和国际IEEE 视觉信号处理与通信(VSPC)技术委员会委员。主持过国家重点研发课题一项、国家自然科学基金委联合基金集成项目重点课题一项等。曾获全国2020水下目标检测算法赛光学图像赛项一等奖、获CVPR等国际顶级学术会议竞赛第一名3次。获中国图象图形学学会自然科学奖一等奖、广东省自然科学奖一等奖等;获国家优秀青年科学基金、英国皇家学会牛顿高级学者基金和广东省创新领军人才项目支持。


个人主页

https://www.isee-ai.cn/~zhwshi/


Panel嘉宾:王文冠 (ETH Zurich)


嘉宾简介:

王文冠,苏黎世联邦理工学院博后研究员。2018年博士毕业于北京理工大学,2016至2018年在加州大学洛杉矶分校(UCLA)访学。2018至2019年,在起源人工智能研究院(IIAI)任Senior Scientist。曾获百度奖学金、ACM中国优博奖、中国人工智能学会优博奖、世界人工智能大会青年优秀论文奖、ECCV Top 12 Reviewer。带队在以下国际比赛的若干赛道获得先进名次:CVPR20 LID 和ICCV19 PIC 冠军,CVPR20 DAVIS 和CVPR20 LIP亚军,及CVPR20 Embodied-AI Habitat、CVPR19 WAD 和CVPR19 LIP 季军。主要研究方向为图像/视频分析、以人为中心的视觉理解、点云分割/检测、Embodied AI等,相关工作曾多次获得CVPR、ICCV、ECCV、AAAI顶级会议口头报告,曾获得CVPR20 LID Workshop Best Poster Award及CVPR19 Best Paper Finalists。


个人主页:

https://sites.google.com/view/wenguanwang


Panel嘉宾:王正 (东京大学)


嘉宾简介:

王正,东京大学特任助理教授,入选日本文部科学省卓越研究员计划。2017年博士毕业于武汉大学,2017至2020年在日本国立信息学研究所任日本学术振兴会外国人特别研究员。曾获PCM 2014最佳论文奖、ACM Wuhan优博奖、中国图象图形学学会优博提名奖、留日同学会最优秀青年学者奖。主要研究方向为行人重识别、人群计数、多媒体内容分析与检索等,相关工作曾获得NIST TRECVID INS任务2016最高准确率,DSDI任务2020亚军,Google Landmark Retrieval 2018第7名/483支参赛队(金牌),并曾组织CVPR 2020和ACM MM 2020专题讲座(Tutorial)。


个人主页:

https://wangzwhu.github.io/home/


主持人:赵健 (北方电子设备研究所)

主持人简介:

赵健,2012年获得北京航空航天大学学士学位,2014年获得国防科技大学硕士学位,博士就读于新加坡国立大学电子与计算机工程系,师从新加坡国立大学冯佳时教授和新加坡工程院院士、ACM/IEEE/IAPR Fellow颜水成教授,2019年获得博士学位并回国参加工作,现为北方电子设备研究所助理研究员,北京市科协2021-2023年度青年人才托举工程获得者、视觉与学习青年学者研讨会VALSE执行领域主席、中国图象图形学学会视觉大数据专业委员会CSIG-BVD委员。主要研究领域为人工智能、深度学习、模式识别、计算机视觉与多媒体分析。目前,共主持/参与创新特区项目3项(排名第1/3/5),主持国家自然科学基金青年科学基金项目1项。近5年已受理国家专利3项(序1),发表高水平学术论文40余篇,单篇影响因子最高17.89,其中,以第一作者发表CCF A类论文10篇(含2篇T-PAMI、2篇IJCV)。研究成果被包括图灵奖得主Yoshua Bengio和多位国内外院士、ACM/IEEE Fellow在内的权威学者引用。曾作为第一作者获得新加坡模式识别与机器智能协会PREMIA 2019 Lee Hwee Kuan奖(金奖),CCF A类会议、国际多媒体领域顶级会议ACM MM 2018最佳学生论文奖,CCF A类国际会议ICCV 2017 MS-Celeb-1M人脸识别竞赛Hard Set/Random Set/Low-Shot Learning全部任务全球冠军,CCF A类国际会议CVPR 2017 L.I.P竞赛人物解析与人物姿态估计全部任务全球亚军,美国国家标准与技术研究院NIST 2017 IJB-A无约束人脸识别竞赛人脸验证与人脸鉴别全部任务全球冠军。担任T-PAMI、IJCV、T-MM、T-IFS、T-CSVT、Neurocomputing、NeurIPS(NeurIPS 2018前30%最佳审稿人)、CVPR、ICCV、ECCV、ACM MM、AAAI、ICLR、ICML、ACCV、UAI等本领域主流国际期刊/会议的受邀审稿人。


个人主页:

https://zhaoj9014.github.io/





21-02期VALSE在线学术报告参与方式:

长按或扫描下方二维码,关注“VALSE”微信公众号 (valse_wechat),后台回复“02期”,获取直播地址。


特别鸣谢本次Webinar主要组织者:

主办AC:赵健 (北方电子设备研究所)

协办AC:王文冠 (ETH Zurich)、王正 (东京大学)

责任SAC:邓成 (西安电子科技大学)



活动参与方式

1、VALSE Webinar活动依托在线直播平台进行,活动时讲者会上传PPT或共享屏幕,听众可以看到Slides,听到讲者的语音,并通过聊天功能与讲者交互;


2、为参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ群(目前A、B、C、D、E、F、G、H、I、J、K、L、M、N群已满,除讲者等嘉宾外,只能申请加入VALSE P群,群号:1085466722);

*注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。


3、在活动开始前5分钟左右,讲者会开启直播,听众点击直播链接即可参加活动,支持安装Windows系统的电脑、MAC电脑、手机等设备;


4、活动过程中,请不要说无关话语,以免影响活动正常进行;


5、活动过程中,如出现听不到或看不到视频等问题,建议退出再重新进入,一般都能解决问题;


6、建议务必在速度较快的网络上参加活动,优先采用有线网络连接;


7、VALSE微信公众号会在每周四发布下一周Webinar报告的通知及直播链接。


8、Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新[slides]


9、Webinar报告的视频(经讲者允许后),会更新在VALSEB站、西瓜视频,请在搜索Valse Webinar进行观看。


周晓巍 [slides]

小黑屋|手机版|Archiver|Vision And Learning SEminar

GMT+8, 2024-11-23 19:33 , Processed in 0.013845 second(s), 14 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

返回顶部