报告嘉宾2:何晖光(中国科学院自动化研究所) 报告时间: 2017年05月24日(星期三)上午11:00(北京时间) 报告题目:基于多视图深度生成式模型的视觉信息编解码研究 主持人: 禹之鼎 (Carnegie Mellon University) 报告摘要: 视觉信息编解码以视觉认知理论为基础, 通过采集人眼接受不同 图像刺激时大脑响应的时空数据来建立并训练数学模型,可以预测人眼看到新的图像时的大脑响应(编码),或者根据采集到的大脑响应来识别、重构人眼所看到的图像(解码)。以往该领域的研究大都集中于单向建立数学模型(编码和解码分别建模),而缺乏双向建模的探索(编解码同时建模)。受到新兴的多视图表示学习、变分自编码模型等建模思想的启发,我们建立了基于自编码的多视图深度生成式模型,巧妙地解决了双向建模问题。对于图像视图我们采用深度神经网络进行生成,而对于大脑信号采用线性的生成模型更加鲁棒。该方法在公开数据集上获得了目前最好的重建效果。该工作被MIT Technology Review头条报道。 参考文献: 1. Changde Du, Changying Du, Huiguang He*, Sharing deep generative representation for perceived image reconstruction from human brain activity, https://arxiv.org/abs/1704.07575 2. https://www.technologyreview.com/s/604332/mind-reading-algorithms-reconstruct-what-youre-seeing-using-brain-scan-data/ 报告人简介: 何晖光,中国科学院自动化研究所研究员,博士生导师, 中国科学院大学岗位教授,中科院青年创新促进会优秀会员。中国科学院脑科学与智能技术卓越中心年轻骨干。IEEE高级会员,中国图象图形学会视觉大数据专委会常务委员,CCF计算机视觉专委会委员。分别于1994年(本科),1997年(硕士)毕业于大连海事大学,1997-1999在大连海事大学科研院从事教学与科研工作;2002年在中国科学院自动化研究获博士学位,同年留所工作。2003-2004期间在美国罗切斯特大学放射系做博士后研究,2008年1-3月,在加拿大滑铁卢大学做高级研究学者,2014.10-2015.4在美国北卡大学教堂山分校做访问教授。何晖光博士先后主持了5项国家自然科学基金(包括1项国家自然基金重点项目)、2项863项目的研究,获得国家科技进步二等奖两项(分别排名第二、第三),北京市科技进步奖两项,2004年获中科院首届优秀博士论文奖,2007年被评为北京市科技新星,2009年获得中科院“卢嘉锡青年人才奖”,2012年入选中科院青年创新促进会(2016年被评为优秀会员)。其研究领域为脑科学、人工智能,医学影像处理,脑-机接口等, 其研究结果在NeuroImage, Human Brain Mapping, AJNR,MICCAI等相关领域的国内外核心期刊以及国际主流会议上发表文章一百余篇。 特别鸣谢本次Webinar主要组织者: VOOC责任委员:高陈强(重庆邮电大学),何晖光(中国科学院自动化研究所) VODB协调理事:禹之鼎(Carnegie Mellon University),程明明(南开大学) |
小黑屋|手机版|Archiver|Vision And Learning SEminar
GMT+8, 2024-11-23 04:43 , Processed in 0.012559 second(s), 15 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.