国庆即将来临,VALSE在这里祝大家国庆快乐,为了让大家度过一个愉快轻松的黄金周,10月3日的webinar活动暂停一周,下一期的活动时间为10月10日。 报告嘉宾:伍洋(日本奈良先端科学技术大学院大学) 报告时间:2018年10月10日(星期三)晚上20:00(北京时间) 报告题目:Understanding humans: identity, communication, state, and more 主持人:姬艳丽(电子科大) 报告人简介: 伍洋,日本奈良先端科学技术大学院大学特任助理教授,NAIST国际机器人与视觉联合研究室(与CMU联合创建)实际负责人(科研与运营)。分别于2004年和2010年获得西安交通大学学士和博士学位,师从郑南宁教授(院士)。2007年至2008年获首批CSC公派联合培养奖学金资助于美国宾夕法尼亚大学机器人研究室访学,师从图像分割领域著名模型NCut的创立者Jianbo Shi教授。2011年至2014年在日本京都大学担任日本文部科学省公共安全领域重大产学研结合项目的特任研究员。2014年7月至8月于英国伦敦大学学院大数据研究所任特邀访问学者。2014年12月至今担任现职,在金出武雄(Takeo Kanade)教授的指导下工作。研究方向主要集中在基于图像或视频的内容理解(检测,跟踪与识别),尤其关注与人相关的应用。当前正在从事的研究包括人物身份识别,人与人以及人与机器之间交流与交互的视觉理解,人手和人体的姿态估计,动作和行为识别等。其中人手姿态估计在首届全球公开挑战赛中获得手物交互单项冠军。指导的访问学生的工作获得ICPR 2018 Piero Zamperoni最佳学生论文奖和AutoML2018 Workshop最佳论文奖。
个人主页: http://rvlab.naist.jp/ 报告摘要: Computer vision is an important part of AI, because vision is so important to intelligent beings like humans. Though AI can be useful for many things, a well-motivated and also desired usage of it is assisting humans. Proper and smart assisting comes from deep understanding, so it is critical to understand humans by making the best use of computer vision. In this talk, I shall present the latest progresses that we have got in vision-based human understanding, in the aspects of identity, communication, state, and more. I will start with our recent work on across-camera person re-identification which targets at identifying people from distance in an unobtrusive way. After that, I will showcase our latest progress on classifying and detecting head gestures in spontaneous human conversations, for the aspect of communication. Finally, I will present our efforts and findings on hand pose estimation and tracking, human detection and activity recognition, etc. A brief overview of my own research history and a short introduction of my lab (which is unique) may also be given if time allows. 参考文献: [1] Shanxin Yuan, et al. “Depth-Based 3D Hand Pose Estimation: From Current Achievements to Future Goals”, CVPR 2018. [2] Xuelin Qian, et al. “Pose-Normalized Image Generation for Person Re-identification”, ECCV 2018. [3] Yang Wu, Jie Qiu, Jun Takamatsu, Tsukasa Ogasawara. “Temporal-Enhanced Convolutional Network for Person Re-identification”. AAAI, 2018. [4] Yang Wu, Kai Akiyama, Kris Kitani, Laszlo Jeni, Yasuhiro Mukaigawa. “Head Gesture Recognition in Spontaneous Human Conversations: A Benchmark”. The 4th Workshop on Egocentric (First-Person) Vision, in conjunction with CVPR 2016. 长按或扫描下方二维码,关注“VALSE”微信公众号(valse_wechat),后台回复“31期”,获取直播地址。 特别鸣谢本次Webinar主要组织者: VOOC责任委员:姬艳丽(电子科大) 活动参与方式: 1、VALSE Webinar活动依托在线直播平台进行,活动时讲者会上传PPT或共享屏幕,听众可以看到Slides,听到讲者的语音,并通过聊天功能与讲者交互; 2、为参加活动,请关注VALSE微信公众号:valse_wechat 或加入VALSE QQ群(目前A、B、C、D、E、F、G群已满,除讲者等嘉宾外,只能申请加入VALSE H群,群号:701662399); *注:申请加入VALSE QQ群时需验证姓名、单位和身份,缺一不可。入群后,请实名,姓名身份单位。身份:学校及科研单位人员T;企业研发I;博士D;硕士M。 3、在活动开始前5分钟左右,讲者会开启直播,听众点击直播链接即可参加活动,支持安装Windows系统的电脑、MAC电脑、手机等设备; 4、活动过程中,请不要说无关话语,以免影响活动正常进行; 5、活动过程中,如出现听不到或看不到视频等问题,建议退出再重新进入,一般都能解决问题; 6、建议务必在速度较快的网络上参加活动,优先采用有线网络连接; 7、VALSE微信公众号会在每周一推送上一周Webinar报告的总结及视频(经讲者允许后),每周四发布下一周Webinar报告的通知及直播链接。
[slides] |