VALSE

VALSE 首页 活动通知 查看内容

VALSE Webinar 20220525-12期 总第278期 高效率神经网络学习与紧致视觉 ... ...

2022-5-28 17:18| 发布者: 程一-计算所| 查看: 1243| 评论: 0

摘要: 报告时间2022年05月25日 (星期三)晚上20:00 (北京时间)主 题高效率神经网络学习与紧致视觉主持人陈涛 (复旦大学)直播地址https://live.bilibili.com/22300737报告嘉宾:林绍辉 (华东师范大学)报告题目:深度模型压缩 ...

报告时间

2022年05月25日 (星期三)

晚上20:00 (北京时间)

主  题

高效率神经网络学习与紧致视觉

主持人

陈涛 (复旦大学)

直播地址

https://live.bilibili.com/22300737


报告嘉宾:林绍辉 (华东师范大学)

报告题目:深度模型压缩与加速技术及其应用


报告嘉宾:陈涛 (复旦大学)

报告题目:Efficient Neural Architecture Design for Visual Analysis




Panel嘉宾:

陈涛 (复旦大学)、林绍辉 (华东师范大学)、周天异 (新加坡科技研究局A*STAR)、俞刚 (腾讯)、王云鹤 (华为诺亚方舟实验室)


Panel议题:

1. 目前作模型轻量化的几个方法,包括NAS,剪枝、蒸馏等,各自的优缺点是什么?分别在什么样的应用场景或者任务上比较合适?

2. 模型的紧凑化和泛化能力往往是不可兼得的,大模型泛化能力往往更强,如何最大可能的实现两者的最好折中?

3. 目前深度模型压缩领域取得了很大进展,在控制准确率和压缩比上也有很大的突破,后期该领域方向上还有哪些方面需要进一步研究与探索呢?

4. 目前针对移动端的分类,检测,分割等算法的进展怎么样?

5. 移动端中的加速需要注意哪些问题?

6. 深度模型压缩落地所面临的机遇和挑战?


*欢迎大家在下方留言提出主题相关问题,主持人和panel嘉宾会从中选择若干热度高的问题加入panel议题!


报告嘉宾:林绍辉 (华东师范大学)

报告时间:2022年05月25日 (星期三)晚上20:00 (北京时间)

报告题目:深度模型压缩与加速技术及其应用


报告人简介:

林绍辉,男,华东师范大学计算机科学与技术学院研究员、博导、紫江青年学者。2019年博士毕业于厦门大学,之后在新加坡国立大学计算机科学系从事博士后研究工作。目前主要研究方向有计算机视觉、机器学习、视频理解,特别是深度模型压缩与加速。在国际顶级期刊和会议,TPAMI、TNNLS、CVPR、ECCV、AAAI、IJCAI等,发表20余篇论文。担任国际顶级期刊和会议 (如:TPAMI、IJCV、CVPR等)审稿人。主持了国家自然科学基金青年项目,上海市科委“杨帆计划”等多个重点项目。担任人工智能领域顶级会议IJCAI 2021 SPC、VALSE EACC委员。获2019年福建省优秀博士学位论文奖、2020年中国人工智能学会博士优秀毕业论文提名奖、2021年度《中国科学:技术科学》优秀审稿人等。


个人主页:

https://sites.google.com/site/shaohuilin007/home


报告摘要:

深度模型参数量和计算开销巨大,严重制约其在资源受限环境下的应用。深度模型压缩与加速技术作为一种有效解决方案,成为了边缘计算、人工智能芯片设计、深度学习等领域研究热点。本次报告主要介绍 (1) 相关深度模型压缩与加速技术理论与方法,包括低秩分解、参数剪枝、知识蒸馏等。(2) 深度模型压缩与加速技术在低层视觉中的若干应用。


参考文献:

[1] S. Lin, R. Ji, C. Chen, D. Tao, and J. Luo. Holistic cnn compression via low-rank decomposition with knowledge transfer. IEEE TPAMI, 2018.

[2] S. Lin, R. Ji, C. Yan, B. Zhang, L. Cao, Q. Ye, F. Huang, and D. Doermann. Towards optimal structured cnn pruning via generative adversarial learning. In CVPR, 2019.

[3] S. Lin, R. Ji, Y. Li, Y. Wu, F. Huang, and B. Zhang. Accelerating convolutional networks via global & dynamic filter pruning. In IJCAI, 2018.

[4] Y. Li, S. Lin, B. Zhang, J. Liu, D. Doermann, Y. Wu, F. Huang and R. Ji. Exploiting kernel sparsity and entropy for interpretable CNN compression, In CVPR, 2019.

[5] H. Wu, Y. Qu, S. Lin, J. Zhou, R. Qiao, Z. Zhang, Y. Xie and L. Ma. Contrastive learning for compact single image dehazing. In CVPR, 2021.


报告嘉宾:陈涛 (复旦大学)

报告时间:2022年05月25日 (星期三)晚上20:30 (北京时间)

报告题目:Efficient Neural Architecture Design for Visual Analysis


报告人简介:

陈涛博士现为复旦大学信息科学与工程学院院长助理,国际电气与电子工程师学会高级会员 (IEEE Senior Member),研究员,博士生导师,入选上海市以及国家高层次青年人才计划。他的主要研究领域包括二维和三维图像内容分析、数据和资源高效的机器 (深度)学习,以及这些理论在智能交通、无人驾驶等移动端视觉方面的应用。他目前主持2项国家自然科学基金项目,1项上海市级重大专项的子课题以及多项来自华为、中兴等企业的横向课题,累计经费近千万。迄今为止,他已经在各类国际学术期刊和会议如IEEE T-PAMI/T-IP/IJCV/CVPR上发表高水平论文70余篇,含2篇ESI高被引用论文和热点论文,申请国际PCT专利10多项,其中部分成果成功应用在相关企业的技术产品中。


个人主页:

https://faculty.fudan.edu.cn/chentao1/zh_CN/index.htm


报告摘要:

A trend in visual analysis is to deploy high-performance deep models on-device and run them in real-time in real-world scenarios. As a practical solution, efficient neural architecture design has attracted extensive attention from both academia and industry. Our talk mainly consists of three parts: (1) Related technical theories and methods for efficient neural architecture design, including neural architecture search (NAS), network pruning, knowledge distillation, and lightweight model design. (2) Introduce our recent works on efficient neural architecture design, including effective and efficient joint dimensional search method for semantic segmentation, robust and generalized NAS method, global channel pruning method for multitask CNNs, lightweight transformer network for mobile semantic segmentation, and efficient asymmetric dilated network for hyperspectral image classification. (3) In addition, introduce our recent works on efficient data utilization, including semi-supervised few-shot learning method and few-shot fine-grained image classification method.


参考文献:

[1] P. Ye, B. Li, Y. Li, T. Chen, J. Fan, W. Ouyang, “Beta-decay Regularization for Differentiable Architecture Search,” Proc. of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR oral), 2022.

[2] P. Ye, B. Li, T. Chen, J. Fan, Z. Mei, C. Lin, C. Zuo, Q. Chi, W. Ouyang, “Efficient Joint-Dimensional Search with Solution Space Regularization for Real-Time Semantic Segmentation,” in press, International Journal of Computer Vision (IJCV), 2022.

[3] H. Ye, B. Zhang, T. Chen, J. Fan, B. Wang, "Performance-aware Approximation of Global Channel Pruning for Multitask CNNs", in press, IEEE T-PAMI, 2022.

[4] W. Zhang, Z. Huang, G. Luo, T. Chen, X. Wang, W. Liu, G. Yu, C. Shen, “TopFormer: Token Pyramid Transformer for Mobile Semantic Segmentation,” Proc. of the IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2022.

[5] M. Zhu, J. Fan, Q. Yang, T. Chen, "SC-EADNet: A Self-supervised Contrastive Efficient Asymmetric Dilated Network for Hyperspectral Image Classification," IEEE Transactions on Geoscience and Remote Sensing, 2021.

[6] Bo Zhang, Hancheng Ye, Gang Yu, Bin Wang, Yike Wu, Jiayuan Fan, Tao Chen, Sample-centric Feature Generation for Semi-supervised Few-shot Learning[J]. IEEE Transactions on Image Processing, 2022, 31: 2309-2320.

[7] Y. Wu, B. Zhang, G. Yu, W. Zhang, B. Wang, T. Chen, J. Fan. Object-aware Long-short-range Spatial Alignment for Few-Shot Fine-Grained Image Classification[C]/Proceedings of the 29th ACM International Conference on Multimedia (ACM MM 2021 oral), Chengdu, China, 2021, 107–115.


Panel嘉宾:周天异 (新加坡科技研究局高性能研究所)


嘉宾简介:

周天异,新加坡南洋理工大学博士,现为新加坡科技研究局高性能研究所高级研究员。曾在美国硅谷的索尼研发中心担任高级研发工程师。发表100多篇国际顶级期刊和会议文章其中包括JMLR, TPAMI, AIJ, ICML, CVPR, ACL, AAAI等等,他分别于ACML 2012 获得最佳海报提名奖,BeyondLabeler workshop on IJCAI 2016 最佳论文奖,ECCV-16最佳学生论文提名,NIPS-17最佳审稿人,担任IET Image Processing和IEEE TETCI的副主编。

个人主页:

https://joeyzhouty.github.io/


Panel嘉宾:俞刚 (Tencent)


嘉宾简介:

俞刚,腾讯QQ影像中心算法负责人。博士毕业于新加坡南洋理工大学。在加入腾讯之前,曾就职于北京旷视科技有限公司 (Face++), 负责Detection Team。主要研究方向包括目标检测,分割,人体的姿态估计,动作行为分析, GAN生成等。在国内外高水平期刊以及会议 (包括IJCV, CVPR, ICCV, NeurIPS等)发表论文30余篇, 论文引用超8000余次。并且带队获得了十余次著名的CVPR/ ICCV/ ECCV Workshop Challenges第一 (包括COCO, ActivityNet, WAD等)。

个人主页:

http://www.skicyyu.org/


Panel嘉宾:王云鹤 (华为诺亚方舟实验室)


嘉宾简介:

王云鹤,在华为诺亚方舟实验室从事边缘计算领域的算法开发和工程落地,研究领域包含深度神经网络的模型裁剪、量化、蒸馏和自动搜索等。在相关领域发表学术论文40余篇,包含NeurIPS、ICML、CVPR、ICCV、TPAMI、AAAI、IJCAI等。多项自研算法落地公司产品,包含2019和2020年发布的手机。端侧AI算法亮相华为HDC 2020。主导的加法神经网络项目受到了公司内外的广泛关注。

个人主页:

http://www.wangyunhe.site/



特别鸣谢本次Webinar主要组织者:

主办AC:胡鹏 (四川大学)


活动参与方式

1、VALSE每周举行的Webinar活动依托B站直播平台进行,欢迎在B站搜索VALSE_Webinar关注我们!

直播地址:

https://live.bilibili.com/22300737;

历史视频观看地址:

https://space.bilibili.com/562085182/ 


2、VALSE Webinar活动通常每周三晚上20:00进行,但偶尔会因为讲者时区问题略有调整,为方便您参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ R群,群号:137634472);


*注:申请加入VALSE QQ群时需验证姓名、单位和身份缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。


3、VALSE微信公众号一般会在每周四发布下一周Webinar报告的通知。


4、您也可以通过访问VALSE主页:http://valser.org/ 直接查看Webinar活动信息。Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新。


林绍辉 [slide] 

陈涛 [slide] 

小黑屋|手机版|Archiver|Vision And Learning SEminar

GMT+8, 2024-4-29 12:55 , Processed in 0.072926 second(s), 14 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

返回顶部