短教程讲师:邱锡鹏 (复旦大学) [slide] 短教程题目:A Tutorial of Transformers 讲师简介: 邱锡鹏,复旦大学计算机学院教授,国家优青获得者,于复旦大学获得理学学士和博士学位。主要从事自然语言处理、深度学习等方向的研究,发表CCF A/B类论文70余篇,获得ACL 2017杰出论文奖(CCF A类)、CCL 2019最佳论文奖,有4篇论文入选PaperDigest发布的IJCAI/ACL/EMNLP的最有影响力论文(各会议每年10篇)。出版开源专著《神经网络与深度学习》,Github关注数1.4万,豆瓣评分9.4分。主持开发了开源框架FudanNLP和FastNLP,已被国内外数百家单位使用。2015年入选首届中国科协青年人才托举工程项目,2018年获钱伟长中文信息处理科学技术奖青年创新奖一等奖,2020-2021年连续两年入选"AI 2000人工智能全球最具影响力提名学者"等。培养学生曾获中国中文信息学会优博、中国人工智能学会优博、上海市优博、微软学者、百度奖学金等。 短教程摘要: 目前Transformer在自然语言处理、计算机视觉领域取得了广泛的成功。本次短教程主要介绍Transformer模型以及变体,主要涵盖两部分内容:1)Transformer模型介绍:介绍自注意力模型以及Transformer的基本架构并分析模型优缺点;2)Transformer模型的改进,通过针对性的改进来进一步提高Transformer模型的效率、泛化性,具体包括模块级的改进、架构级的改进、预训练、针对特定数据和任务的改进等。最后,对Transformer模型及其未来发展趋势进行展望。 综述文章: https://arxiv.org/abs/2106.04554 特别鸣谢本次Tutorial主要组织者: 主办AC:苏航 (清华大学) 活动参与方式 1、VALSE每周举行的Webinar活动依托B站直播平台进行,直播地址:https://live.bilibili.com/22300737;VALSE的近期历史视频可在这里观看:https://space.bilibili.com/562085182/ 2、VALSE Webinar活动通常每周三晚上20:00进行,但偶尔会因为讲者时区问题略有调整,为方便您参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ Q群,群号:698303207); *注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。 3. VALSE微信公众号一般会在每周四发布下一周Webinar报告的通知。 4、您也可以通过访问VALSE主页:http://valser.org/ 直接查看Webinar活动信息。Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新。 邱锡鹏 [sldies] |
小黑屋|手机版|Archiver|Vision And Learning SEminar
GMT+8, 2024-11-22 13:46 , Processed in 0.012951 second(s), 14 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.