报告嘉宾:叶茫 (武汉大学) 报告题目:多模态行人重识别进展与挑战 报告嘉宾:丁长兴 (华南理工大学) 报告题目:细粒度、可泛化的行人重识别方法:从单模态到多模态 报告嘉宾:叶茫 (武汉大学) 报告时间:2023年09月06日 (星期三)晚上20:00 (北京时间) 报告题目:多模态行人重识别进展与挑战 报告人简介: 叶茫,武汉大学计算机学院教授、博士生导师,国家级高层次青年人才,中国科协青年托举人才。曾任阿联酋起源人工智能研究院研究科学家和美国哥伦比亚大学访问学者。主要研究方向计算机视觉、多媒体检索、联邦学习等,发表国际期刊会议论文 80 余篇,ESI 高被引论文 10 篇,谷歌学术引用 5600 余次。担任CVPR24、ACM MM23等学术会议领域主席。主持湖北省重点研发计划、国家自然科学基金面上项目等科研项目。获谷歌优秀奖学金、国际计算机视觉顶会 ICCV2021无人机目标重识别赛道冠军、2021-2022年斯坦福排行榜 “全球前2%顶尖科学家”、2022年百度AI华人青年学者等荣誉。 个人主页: https://marswhu.github.io/ 报告摘要: 跨视角目标 (如行人、车辆等)重识别在智慧城市、智慧社区等领域有重要应用,多模态行人重识别旨在探索不同异构数据间的行人检索问题,该任务可以有效弥补常规基于可见光图像行人重识别技术在复杂场景下的不足。本次报告将介绍我们近期在可见光-红外图像跨模态行人重识别、文本-图像跨模态行人重识别、素描-图像跨模态行人重识别等方面的研究工作。 参考文献: [1] Cross-Modal Implicit Relation Reasoning and Aligning for Text-to-Image Person Retrieval. In CVPR 2023. [2] Towards Modality-Agnostic Person Re-identification with Descriptive Query. In CVPR 2023. [3] Unsupervised Visible-Infrared Person Re-Identification via Progressive Graph Matching and Alternate Learning. In CVPR 2023. [4] Towards Grand Unified Representation Learning for Unsupervised Visible-Infrared Person Re-Identification. In ICCV 2023. 报告嘉宾:丁长兴 (华南理工大学) 报告时间:2023年09月06日 (星期三)晚上20:30 (北京时间) 报告题目:细粒度、可泛化的行人重识别方法:从单模态到多模态 报告人简介: 丁长兴,华南理工大学研究员、博士生导师。于悉尼科技大学 (UTS)获得计算机科学博士学位,主要研究人的身份识别与行为理解任务。近年来在IEEE TPAMI、TIP、IJCV、CVPR、ICCV、ECCV等重要学术期刊和会议上发表论文30余篇,多篇论文入选ESI高被引,提出的ICFG-PEDES基于语言描述的行人检索数据集被国内外100多个学术团队使用。获得本领域主流国际学术竞赛冠亚军6次,含CVPR EPIC Kitchens动作识别/预期挑战赛冠军各一次。担任国际期刊IET Computer Vision编委、Pattern Recognition Letters责任客座编辑、VALSE执行领域主席、CSIG青年科学家会议论坛主席。研究工作获得国家自然科学基金、广东省引进创新创业团队项目、广东省青年拔尖人才计划、华南理工大学杰出青年基金、CAAI-华为Mindspore学术奖励基金、CCF-百度松果基金等10余项目的资助。 个人主页: https://www2.scut.edu.cn/ft/2021/1102/c29779a449569/page.htm 报告摘要: 实用的行人重识别方法应当具备细粒度、可泛化、多模态三方面的性质。特别的,真实场景下的行人重识别任务往往依据目击者的语言描述,因此基于语言描述的行人重识别任务成为近年来行人重识别领域的研究热点。本报告将分别介绍本课题组在基于图像和基于语言描述的行人重识别领域的最新进展,包括数据集的构建和技术探索,并分析单模态和跨模态行人重识别方法在提取细粒度、可泛化特征方面的异同。 参考文献: [1] Changxing Ding*, Kan Wang, Pengfei Wang, and Dacheng Tao, “Multi-task Learning with Coarse Priors for Robust Part-aware Person Re-identification”, IEEE Trans. Pattern Anal. Mach. Intell. (T-PAMI), 2022. [2] Zhiyin Shao, Xinyu Zhang, Changxing Ding*, Jian Wang, Jingdong Wang, “Unified Pre-training with Pseudo Texts for Text-To-Image Person Re-identification”, ICCV, 2023. [3] Zhiyin Shao, Xinyu Zhang, Meng Fang, Zhifeng Lin, Jian Wang, Changxing Ding*, “Learning Granularity-Unified Representations for Text-to-Image Person Re-identification”, ACM MM, 2022. [4] Wentao Tan, Changxing Ding*, Pengfei Wang, Mingming Gong, Kui Jia, “Style Interleaved Learning for Generalizable Person Re-identification”, IEEE Trans. Multimedia (T-MM), 2023. [5] Zefeng Ding, Changxing Ding*, Zhiyin Shao, Dacheng Tao, “Semantically Self-Aligned Network for Text-to-Image Part-aware Person Re-identification”, arXiv:2107.12666, 2021. 主持人:胡建芳 (中山大学) 主持人简介: 胡建芳博士,现为中山大学计算机学院副教授、博士生导师。专注于研究解决不同应用场景下的视频分析与理解问题,包括视频行为识别、行为预测和视频分割等。在IEEE TPAMI和CVPR等国际权威刊物上发表多篇相关研究成果。获2022年广东省杰出青年基金支持,2020年广东省自然科学奖二等奖和2017年中国图象图形学学会优秀博士论文奖。 特别鸣谢本次Webinar主要组织者: 主办AC:杨猛 (中山大学) 活动参与方式 1、VALSE每周举行的Webinar活动依托B站直播平台进行,欢迎在B站搜索VALSE_Webinar关注我们! 直播地址: https://live.bilibili.com/22300737; 历史视频观看地址: https://space.bilibili.com/562085182/ 2、VALSE Webinar活动通常每周三晚上20:00进行,但偶尔会因为讲者时区问题略有调整,为方便您参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ S群,群号:317920537); *注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。 3、VALSE微信公众号一般会在每周四发布下一周Webinar报告的通知。 4、您也可以通过访问VALSE主页:http://valser.org/ 直接查看Webinar活动信息。Webinar报告的PPT(经讲者允许后),会在VALSE官网每期报告通知的最下方更新。 |
小黑屋|手机版|Archiver|Vision And Learning SEminar
GMT+8, 2024-12-27 09:40 , Processed in 0.015327 second(s), 14 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.