报告嘉宾1:张炜(中国科学院信息工程研究所) [Slides] 报告时间:2017年06月21日(星期三)晚20:00-21:00(北京时间) 报告题目:Binarized Mode Seeking for Scalable Visual Pattern Discovery 主持人: 朱鹏飞(天津大学) 报告摘要: 模式发现是大数据分析中最根本的问题之一。给定一个大规模无标注数据集合(例如,从社交网站上抓取的大量图像),首要的问题就是,“数据集中都有些什么样的模式?这个数据集与其他‘常见的’数据集有什么区别?”,本文的模式发现旨在无监督地快速找到具有代表性和区分度的模式。 在计算、存储等资源受限的情况下,图像通常被表示为二进制码。本文通过二值化模式搜索来研究大规模图像集中的视觉模式挖掘。我们从二值空间模式搜索(mode seeking)的角度解决这个问题。首先,本文提出二值化均值漂移算法(bMS),直接在二值空间发现频繁模式。为此我们引入基于二项式的核函数和二进制约束来适应二值空间。除此之外,我们进一步将bMS扩展到更为一般的形式,即基于对比密度的二值化均值漂移(cbMS),通过最大化二值空间中的对比密度找到数据集中频繁并具有判别力的模式。通过二值化的算法和优化,我们的方法显著提高了计算(50X)和存储(32X)效率,而在性能方面则没有太大的损失。在已标注的ILSVRC(1M)和未标注的Flickr(10M图像)数据集上的实验表明bMS和cbMS具有良好的可扩展性,能在大规模图像集中找到频繁和具有判别力的模式。 报告人简介: 张炜,中国科学院信息工程研究所,助理研究员。2015年7月在香港城市大学获博士学位。主要从事大规模视觉实例分析等方面的研究。发表国际期刊和会议论文近20篇(包括ACM Multimedia, CVPR, TIP, TMM, TIFS等),7项发明专利。基于研究成果的演示论文获ACM-HK 2013最佳展示论文奖。研究成果在国际标准评测TRECVID竞赛中取得了2012年“实例搜索”第二名(24个国际知名高校与公司)。负责开发的VIREO-VH开源项目被多次应用于学术界和工业界,其中包括清华大学、中科院、香港科技大学、复旦大学、阿里巴巴研究院、华为、 南加州大学、昆士兰大学 等单位。个人主页http://vireo.cs.cityu.edu.hk/wzhang/。 报告嘉宾2:边佳旺(新加坡科技设计大学) 报告时间:2017年06月21日(星期三)晚20:00-21:00(北京时间) 报告题目:GMS: Grid-based Motion Statistics for Fast, Ultra-robust Feature Correspondence 主持人: 朱鹏飞(天津大学) 报告摘要: 图像特征匹配算法是一系列计算机视觉以及机器人相关应用的基础,其中包括三维物体重建,机器人视觉导航,无人驾驶等。研究旨在根据图像中包含的场景内容建立图像间的联系,由此估计机器人(相机)所处的空间位置以及精确的位移变化。由于此算法为众多应用及产品提供初始信息并需要在移动端实时运行,算法的匹配质量和计算速度都显得极其重要。本次活动主要介绍今年CVPR 2017最新提出的快速且稳定的GMS匹配策略(论文及代码见项目主页http://jwbian.net/gms)。 报告人简介: 边佳旺,2016年6月毕业于南开大学并取得本科学历。现为新加坡科技设计大学(SUTD)助理研究员(Research Assistant)并同时在新加坡高等数字科学研究中心(ADSC)工作。边同学在本科时期(大三,大四)加入南开媒体计算实验室参与计算机视觉方向的研究并在程明明副教授的指导下与同学合作发表国际学术会议(ECCV)论文一篇。工作后专注图像特征匹配算法的研究,并发表CVPR论文一篇。文中提出的算法实现了高速并超稳定的图像匹配并对计算机视觉及机器人导航领域的研究和产品产生重要影响。因此文章被多次转载于各大社交网络平台(包括微博,微信,知乎,搜狐新闻等)。文章信息及作者联系方式见个人主页(http://jwbian.net)。 报告嘉宾3:唐芃(华中科技大学) [Slides] 报告时间:2017年06月21日(星期三)晚21:00-22:00(北京时间) 报告题目:Multiple Instance Detection Network with Online Instance Classifier Refinement 主持人: 高陈强(重庆邮电大学) 报告摘要: 弱监督的物体检测是物体识别中的重要问题。目前基于深度学习的弱监督检测器已经取得了较好的结果。然而,与全监督的物体检测相比,训练弱监督的深度学习检测面临着更大的挑战。在这里我们将弱监督的检测视为一个多示例学习(MIL)问题,其中示例分类器(物体检测器)被看成是网络中的隐节点。我们提出了一种在线示例分类器精炼的方法,来将MIL和示例分类器精炼过程整合进一个单独的深度学习网络。对这个网络,我们可以只使用图像级别的监督信息来进行端到端训练。更准确的,由弱监督学习推断得到的示例级别标签信息被传播到与它们空间重叠较大的示例上,这些信息被用来在线的精炼示例分类器。我们通过在网络中添加多个分支来实现这种迭代的示例分类器精炼过程,其中每个分支的监督信息由上一个分支得到。我们在PASCAL VOC 2007和2012上进行了实验,并取得了远超之前最好方法的实验结果。 报告人简介: 唐芃目前在华中科技大学媒体与通信实验室刘文予和王兴刚老师的指导下攻读博士学位。他的主要研究方向为深度学习与图像识别,主要研究弱监督下的物体分类与检测,其主要研究成果发表在CVPR,TIP,PR等会议和期刊上。 报告嘉宾4:言宏亮(哈尔滨工业大学) [Slides] 报告时间:2017年06月21日(星期三)晚21:00-22:00(北京时间) 报告题目:Mind the Class Weight Bias: Weighted Maximum Mean Discrepancy for Unsupervised Domain Adaptation 主持人: 高陈强(重庆邮电大学) 报告摘要: In domain adaptation, maximum mean discrepancy (MMD) has been widely adopted as a discrepancy metric between the distributions of source and target domains. However, existing MMD-based domain adaptation methods generally ignore the changes of class prior distributions, i.e., class weight bias across domains. This remains an open problem but ubiquitous for domain adaptation, which can be caused by changes in sample selection criteria and application scenarios. We show that MMD cannot account for class weight bias and results in degraded domain adaptation performance. To address this issue, a weighted MMD model is proposed in this paper. Specifically, we introduce class-specific auxiliary weights into the original MMD for exploiting the class prior probability on source and target domains, whose challenge lies in the fact that the class label in target domain is unavailable. To account for it, our proposed weighted MMD model is defined by introducing an auxiliary weight for each class in the source domain, and a classification EM algorithm is suggested by alternating between assigning the pseudo-labels, estimating auxiliary weights and updating model parameters. Extensive experiments demonstrate the superiority of our weighted MMD over conventional MMD for domain adaptation. 报告人简介: 言宏亮,就读于哈尔滨工业大学,计算机学院感知计算研究中心的在读博士,指导老师为左旺孟教授。现在加拿大麦吉尔大学访问,研究兴趣包括迁移学习,图像分类,超广谱图像处理。 特别鸣谢本次Webinar主要组织者: VOOC责任委员:苏航(清华大学),高陈强(重庆邮电大学), VODB协调理事:曹汛(南大) |
小黑屋|手机版|Archiver|Vision And Learning SEminar
GMT+8, 2024-11-21 20:14 , Processed in 0.013149 second(s), 15 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.