VALSE

查看: 8014|回复: 1

SemanticPaint: 实时3D重构与在线识别

[复制链接]

5

主题

7

帖子

104

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
104
发表于 2015-8-7 17:39:34 | 显示全部楼层 |阅读模式

  • SemanticPaint: Interactive 3D Labeling and Lear ning at your Finger tips. Julien Valentin, Vibhav Vineet, Ming-Ming Cheng, David Kim, Jamie Shotton, Pushmeet Kohli, Matthias Nießner, Antonio Criminisi, Shahram Izadi, Philip Torr, ACM TOG, 2015. [pdf] [project page] [bib] [C++&CUDA]

BBC报道

BBC报道


       在解决视觉信息识别问题的过程中,通常有2个问题让我们非常头疼:i) 高质量标注数据的采集非常困难,ii) 二维图像中的物体尺度、遮挡等不确定性和干扰给识别带来很大困难。为了解决这一问题,牛津大学和微软剑桥研究院合作开发了SemanticPaint系统,实现了实时3D场景重建与交互式语义标注。通过该系统,用户仅需要穿戴一个深度摄像头和虚拟现实眼镜,就可以实时地3D重构所在场景,并通过物理的触摸及语音命令对场景中的物体进行语义标注。这些存在于3D数据中的语义标注为在线学习技术提供了强有力的支持(通过不同的视角渲染即可得到传统意义上一组图像语义分割标注,而且3D数据中还蕴含着更重要的大小,角度等丰富信息)。通过这些标注信息在线学习的模型可以被用于对所在场景进行实时识别。同时,用户可以实时获得识别反馈,并更正识别错误。


       以上过程是不是特别像大人教小孩子呢?我们不是通过给小孩子一堆照片来教他们认识不同的东西,而是在实际生活的场景中告诉他们那个是狗,那个是桌子。孩子们听到我们教的,同时从颜色,大小,相互关系等不同视角观察被学习的物体。孩子们可能会犯错并在大人发现之后被纠正。你可以想象仅从一堆图像和标签就能让自己的孩子学习和认识这个世界是一件多么困难的事情吗?我们在设计视觉识别系统时,是不是也该考虑到这种身临其境,和不断学习的模式呢?

发帖人:程明明


回复

使用道具 举报

4

主题

5

帖子

281

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
281
发表于 2015-8-7 19:18:40 | 显示全部楼层
很有意思的工作,基于深度摄像机和虚拟现实眼镜,实现实时的3D场景重建,并利用用户交互对场景中的物体进行语义标注。是一个很好地结合CG,CV,VR,HCI的工作,推荐阅读!
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|Vision And Learning SEminar

GMT+8, 2024-11-23 18:19 , Processed in 0.025626 second(s), 27 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表