报告时间:2020年04月29日(星期三)晚上20:00(北京时间) 主题:深度目标检测 报告主持人:王栋(大连理工大学) 报告嘉宾:雷震(中国科学院自动化研究所) 报告题目:Accurate and Efficient Anchor based Object Detection 报告嘉宾:诸宸辰 (Carnegie Mellon University) 报告题目:Feature Selection Matters for Anchor-Free Object Detection Panel议题: 1. 物体检测是一个solved problem吗?现有SOTA系统还有什么不足需要继续深挖?学术界、工业界和用户对识别系统性能的评价有何不同理解?何时可以说一个问题是solved? 2. 学术界应该如何面对工业界靠数据/计算取胜的局面?除了靠数据/大规模计算,还有什么可以提高性能?是否未来检测的发展要全面拥抱NAS (如 EfficientDet)? 3. Anchor-free检测器是否能取代Anchor-based检测器? 4. 学术界出现了很多新的benchmark,这些数据库的优劣?哪些更贴近现实应用? 5. 是否有必要以及如何提升物体检测系统的可解释性? 6. 物体检测与特征学习、物体识别的本质性区别是什么,物体检测有自己特定的研究方法论么? 7. 如何解决开放环境的检测器学习问题,准确定位和识别新类?不同的场景下,检测的难度不同。如何根据场景难度自适应地分配算力? 8. 通用物体检测之外,特殊类别的物体检测(如人脸,行人)是否有其特殊的方法论? Panel嘉宾: 雷震(中国科学院自动化研究所)、诸宸辰 (Carnegie Mellon University)、吴庆波(电子科技大学)、叶齐祥(中国科学院大学)、程明明(南开大学)、廖胜才(阿联酋起源人工智能研究院) *欢迎大家在下方留言提出主题相关问题,主持人和panel嘉宾会从中选择若干热度高的问题加入panel议题! 报告嘉宾:雷震(中国科学院自动化研究所) 报告时间:2020年4月29日(星期三)晚上20:00(北京时间) 报告题目:Accurate and Efficient Anchor based Object Detection 报告人简介: Zhen Lei is a professor at the Center for Biometrics and Security Research (CBSR) & National Laboratory of Pattern Recognition (NLPR), Institute of Automation, Chinese Academy of Sciences. His research interest includes face recognition and video analytics. He has published over 160 papers in international journals and conferences (Google Scholar: 12700+, H-index:58). He holds 14 invention patents and has drawn up 7 standards of public security. He won the Lightweight Face Recognition Challenge on DeepGlint-Large track in ICCV2019, the UG2 Challenge: (Semi-) Supervised Face Detection in Low Light Conditions in CVPR2019, the competition of facial micro-expression recognition in FG2017, the 300-w face landmark localization held in ICCV2013, and won the face liveness detection in ICB2011 and 2013. In 2019, he has been awarded the IAPR Young Biometrics Investigator Award, given to a single researcher worldwide every two years under the age of 40, whose research work has a major impact in biometrics. 个人主页: http://www.cbsr.ia.ac.cn/users/zlei/ 报告摘要: Accuracy and Efficiency are two important issues for practical object detection. In general, two-stage object detection framework achieves higher accuracy than one-shot detection method, while usually takes more time for inference. We focus on making a good trade-off between the accuracy and speed and thus try to improve the detection accuracy of one-shot detection method. This talk will firstly introduces the RefineDet, which adjusts the positions and sizes of anchors to make the predictions more accurate and meanwhile maintains the inference efficiency of one-shot method. Moreover, we will discuss some preliminary results about the sample selection in detection with a comparison between anchor-based and anchor-free method. 参考文献: [1] Shifeng Zhang, Cheng Chi, Yongqiang Yao, Zhen Lei, Stan Z. Li, “Bridging the Gap Between Anchor-based and Anchor-free Detection via Adaptive Training Sample Selection”, In Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition, (CVPR2020) .Seattle, Washington, June 14-19, 2020. [2] Shifeng Zhang, Longyin Wen, Xiao Bian, Zhen Lei, Stan Z. Li. “Single-Shot Refinement Neural Network for Object Detection”. In Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition, (CVPR2018). Salt Lake City, Utah, June 18-June 22, 2018. 报告嘉宾:诸宸辰 (Carnegie Mellon University) 报告时间:2020年4月29日(星期三)晚上20:30(北京时间) 报告题目:Feature Selection Matters for Anchor-Free Object Detection 报告人简介: Chenchen Zhu is a Ph.D. student from Carnegie Mellon University (CMU). He works with Prof. Marios Savvides at the CyLab Biometrics Center. His research interest lies in computer vision and deep learning. Before that, he received a M.S. degree from CMU and a B.S. degree from Nanjing University. He serves as a reviewer for TPAMI, IJCV, CVPR, ICCV, ECCV, AAAI, etc. 个人主页: https://sites.google.com/andrew.cmu.edu/zcckernel 报告摘要: Scale variation has been a long-standing problem for object detection. Two widely adopted approaches in modern CNN-based detectors are anchor box design and feature pyramid construction. However, feature pyramids integrated with anchor boxes constrain the feature selection for instance training to be heuristic, i.e. the assignment of instances to feature levels is based on the ad-hoc IoU criteria. Anchor-free detectors, on the other hand, can naturally avoid this constraint, which is an important advantage over the anchor-based counterparts. We study the feature selection problem in anchor-free detection and demonstrate that proper selection can make a big difference. We propose to select the features for instance training guided by per-level instance loss and a sub-network. Experiments prove the effectiveness and superiority of our methods to conventional heuristic selection. Our feature selection approaches are agnostic to feature pyramids and anchor-free detectors and can serve as a training booster without loss of inference speed. 参考文献: [1] Zhu, Chenchen, Yihui He, and Marios Savvides. "Feature selective anchor-free module for single-shot object detection." In Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition, pp. 840-849. 2019. [2] Zhu, Chenchen, Fangyi Chen, Zhiqiang Shen, and Marios Savvides. "Soft Anchor-Point Object Detection." arXiv preprint arXiv:1911.12448 (2019). Panel嘉宾:吴庆波(电子科技大学) 嘉宾简介: 吴庆波,男,博士,电子科技大学副教授、硕士生导师。2015年,于电子科技大学获得信号与信息处理专业博士学位。在入职电子科技大学前,先后在香港中文大学担任助研和加拿大滑铁卢大学联合培养。吴庆波副教授于2018年入选电子科技大学“基础研究星火计划”,并于同年获电子科技大学“学术新人奖”,四川省科技进步二等奖。其研究领域主要集中于图像视频质量评价理论、图像增强与恢复模型、感知驱动的图像内容分析等。发表论文90余篇,包括CVPR、ECCV、ACM MM、IEEE TPAMI、TIP、TCSVT、TMM等国际重要会议与期刊等。 个人主页: http://ivipc.uestc.edu.cn/aprofessor/201812/76.html Panel嘉宾:叶齐祥(中国科学院大学) 嘉宾简介: 叶齐祥,分别于1999、2001年获哈尔滨工业大学学士、硕士学位。2006年获中科院计算所博士学位。2006年在中国科学院大学任教,历任讲师、(长聘)副教授、教授。2013至2014年在美国马里兰大学先进计算机技术研究所(UMIACS)任访问助理教授,2016年Duke大学信息技术研究所(IID)访问学者。在视觉目标检测方面进行了长期研究,涉及弱监督视觉建模方法、高精度目标检测方法,相关方法在金山、华为公司获得应用。发表论文100余篇,包括IEEE CVPR, ICCV, ECCV, NeurIPS, PAMI等重要期刊与国际会议50篇,担任了IJCAI 2020 SPC。 个人主页: http://people.ucas.ac.cn/~qxye Panel嘉宾:程明明(南开大学) 嘉宾简介: 程明明,南开大学教授,计算机系主任,国家“万人计划”青拔、“优青”获得者。他的主要研究方向是计算机视觉和计算机图形学。在CCF-A类国际期刊和会议上发表学术论文60余篇(含TPAMI/IJCV论文14篇),论文Google Scholar引用15000余次,一作论文单篇最高引用3300余次,入选Elsevier 2016-2018中国高被引学者榜单。其显著性物体分割技术被应用于华为公司旗舰手机,为华为产品的智能拍照效果提供了支持,并在华为Mate 10发布会上展示。多项技术被普林斯顿大学、布朗大学等国际著名大学的图形学和视觉课程列为课程内容。研究成果被英国《BBC》、德国《明镜周刊》、美国《赫芬顿邮报》等国际媒体撰文报道。 个人主页: http://mmcheng.net Panel嘉宾:廖胜才(阿联酋起源人工智能研究院) 嘉宾简介: 廖胜才,博士,阿联酋起源人工智能研究院(IIAI)领席科学家(Lead Scientist),IEEE高级会员。2005年获中山大学数学与应用数学学士学位,2010年获中科院自动化所模识识别与智能系统博士学位,2010年至2012年于美国密歇根州立大学计算机系从事博士后研究,2012-2018年间在中科院自动化所历任助理研究员、副研究员。主要从事模式识别和计算机视觉方面的研究工作,侧重于图像视频分析领域,特别是人脸/行人检测与识别,和智能视频分析与监控。在国际主流期刊和会议上发表论文100余篇,论文被引用超过10000次(Google Scholar),其中一作单篇最高引用1354次。曾担任ICPR、ICB等国际会议领域主席,Springer《生物特征识别百科全书》领域编辑,ICCV、CVPR、ECCV等国际会议程序委员,IEEE TPAMI、TIP、TNNLS、IJCV等国际期刊审稿人。因在人脸识别领域的突出工作,获得ICB 2006优秀学生论文奖,ICB 2007最佳论文奖,被2008北京奥运会安保部授予突出贡献荣誉(人脸识别电子票证系统)。此外,还获得IJCB 2014最佳审稿人奖,指导学生获得ICB 2015最佳学生论文奖和CCBR 2016最佳学生论文奖。 个人主页: https://liaosc.wordpress.com/ 主持人:王栋(大连理工大学) 主持人简介: 王栋,大连理工大学,信息与通信工程学院,副教授。研究方向为计算机视觉和模式识别,主要从事目标跟踪与识别方面研究。2013年于大连理工大学获得博士学位,同年留校任教。2015年至2016年,美国天普大学访问学者。2016年12月受聘副教授。迄今在本领域顶级会议(CVPR、ICCV、ECCV)及期刊(IEEE TPAMI、IEEE TIP、IEEE TCSVT等)发表论文30余篇,ESI高引用论文4篇,Google Scholar引用3200余次。获CCF自然科学二等奖(排名第1),教育部自然科学二等奖(排名第2)等奖励。 个人主页: http://faculty.dlut.edu.cn/wangdongice/zh_CN/index.htm 20-11期VALSE在线学术报告参与方式: 长按或扫描下方二维码,关注“VALSE”微信公众号(valse_wechat),后台回复“11期”,获取直播地址。 特别鸣谢本次Webinar主要组织者: 主办AC:王栋(大连理工大学) 协办AC:欧阳万里(The University of Sydney),吴庆波(电子科技大学) VALSE Webinar改版说明: 自2019年1月起,VALSE Webinar改革活动形式,由过去每次一个讲者的方式改为两种可能的形式: 1)Webinar专题研讨:每次活动有一个研讨主题,先邀请两位主题相关的优秀讲者做专题报告(每人30分钟),随后邀请额外的2~3位嘉宾共同就研讨主题进行讨论(30分钟)。 2)Webinar特邀报告:每次活动邀请一位资深专家主讲,就其在自己熟悉领域的科研工作进行系统深入的介绍,报告时间50分钟,主持人与主讲人互动10分钟,自由问答10分钟。 活动参与方式: 1、VALSE Webinar活动依托在线直播平台进行,活动时讲者会上传PPT或共享屏幕,听众可以看到Slides,听到讲者的语音,并通过聊天功能与讲者交互; 2、为参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ群(目前A、B、C、D、E、F、G、H、I、J、K群已满,除讲者等嘉宾外,只能申请加入VALSE M群,群号:531846386); *注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。 3、在活动开始前5分钟左右,讲者会开启直播,听众点击直播链接即可参加活动,支持安装Windows系统的电脑、MAC电脑、手机等设备; 4、活动过程中,请不要说无关话语,以免影响活动正常进行; 5、活动过程中,如出现听不到或看不到视频等问题,建议退出再重新进入,一般都能解决问题; 6、建议务必在速度较快的网络上参加活动,优先采用有线网络连接; 7、VALSE微信公众号会在每周四发布下一周Webinar报告的通知及直播链接。 8、Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新[slides]。 9、Webinar报告的视频(经讲者允许后),会更新在VALSE爱奇艺空间,请在爱奇艺关注Valse Webinar进行观看。 诸宸辰 [slides] |
小黑屋|手机版|Archiver|Vision And Learning SEminar
GMT+8, 2024-11-22 03:00 , Processed in 0.014537 second(s), 14 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.