设为首页收藏本站

VALSE

查看: 2236|回复: 0

【VALSE前沿技术选介16-04期】

[复制链接]

123

主题

123

帖子

1677

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
1677
发表于 2016-3-8 13:25:42 | 显示全部楼层 |阅读模式
http://mp.weixin.qq.com/s?__biz=MzA3Mjk0OTgyMg==&mid=402108383&idx=1&sn=bfc6b13db050a1e4bc4fe79e59ecd7e8#rd


【VALSE前沿技术选介16-04期】


Google Research的Inception模型和Microsoft Research的Residual Net模型两大图像识别杀器结合效果如何?在这篇2月23日公布在arxiv上的文章“Inception-v4, Inception-ResNet and theImpact of Residual Connections on Learning”给出了实验上的结论。
在该论文中,姑且将ResNet的核心模块称为residual connections,实验结果表明,residualconnections可以提高Inception网络的准确率,并且不会提高计算量。这似乎是理所当然的。采用3个带有residual connection的Inception模型和1个Inception v4模型,ImageNet上的top 5错误率已经可以刷到3.08%啦。也就是说,错误率2.x%的时代已经指日可待了。
关于深度卷积神经网络的发展以及在各种视觉任务上的优异表现就不用赘述了。在讨论related work中,本文认为residual connection并不是训练very deepnetwork的必要条件,但可以显著的加快训练的速度。同时,本文回顾了Inception模型的发展历程,原始的Inception模型,也就是GoogLeNet被称为Inception-v1,加入batch normalization之后被称为Inception-v2,加入factorization的idea之后,改进为Inception-v3。
Google Research从DistBelief过渡到TensorFlow之后,不用再顾虑分布式训练时要做模型的分割。Inception-v4模型设计的可以更简洁,计算量也更小。具体的模型如下图:
QQ截图20160308131938.png
其中的Inception-A模块是这样的:
QQ截图20160308132145.png
接下来将介绍重头戏,Inception-ResNet,其中的一个典型模块是这样的:
QQ截图20160308132257.png
其中的+就是residual connection了。通过20个类似的模块组合,Inception-ResNet构建如下:
QQ截图20160308132351.png
基于Inception-v3和Inception-v4,文中分别得到了Inception-ResNet-v1和Inception-ResNet-v2两个模型。另外,文中还提到当卷积核超过1000个的大网络训练时,将残差(residuals)缩小有助于训练的稳定性。这个做法同原始ResNet论文中的two-phase training的效果类似。
果然如winsty所讲,现在论文的公式越来越少了,网络框图开始越来越多了。本文行文并不足够规范,更像一个report。接下就是报各种很牛的实验结果了。
QQ截图20160308132433.png
总结来讲,Google Research团队在这篇report中介绍了新的Inception-v4网络,并结合最新的residual connection技术,将ImageNet上图像分类的结果刷到了3.08%了。
[1] ChristianSzegedy,Sergey Ioffe,Vincent Vanhoucke. Inception-v4, Inception-ResNet and theImpact of Residual Connections on Learning. arXiv:1602.07261[cs.CV]





回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Vision And Learning SEminar    

GMT+8, 2020-10-25 15:25 , Processed in 0.054913 second(s), 28 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表