设为首页收藏本站

VALSE

查看: 166|回复: 0

AI100_机器学习日报 2017-11-03 TensorFlow卷积网络/预训练模型集合

[复制链接]

821

主题

829

帖子

7万

积分

版主

Rank: 7Rank: 7Rank: 7

积分
74894
QQ
发表于 2017-11-7 15:07:55 | 显示全部楼层 |阅读模式
AI100_机器学习日报 2017-11-03
@好东西传送门 出品,由@AI100运营, 过往目录http://ai100.com.cn


订阅:关注微信公众号 AI100(ID:rgznai100,扫二维码),回复“机器学习日报”,加你进日报群

邮件版包括15条,本期的Web版有完整内容17条

用日报搜索找到以前分享的内容: http://ml.memect.com/search/
今日焦点 (5)
爱可可-爱生活   网页链接 2017-11-03 06:12
深度学习 Lee Github 代码
【TensorFlow卷积网络/预训练模型集合】’TensorNets - High level network definitions with pre-trained weights in TensorFlow' by Taehoon Lee GitHub: https://github.com/taehoonlee/tensornets




[img=20,20][/img] wx:邓侃   网页链接 2017-11-03 20:17
公告板 会议活动 深度学习 视觉 算法 应用 知识工程 自然语言处理 Geoffrey Hinton 邓侃邓侃 行业动态 会议 机器人 迁移学习 强化学习 神经网络 医疗 语言学 知识库
「【一文读懂Hinton最新Capsules论文】CNN 未来向何处去」【AI WORLD 2017世界人工智能大会倒计时 5 天】即将于2017年11月8日在北京国家会议中心举办的AI World 2017世界人工智能大会 。本文作者邓侃同时也是 AI WORLD 2017 世界人工智能大会智能医疗论坛的讲者,届时他将以《多模态智能疾病诊断系统的四大技术难点》为题做出精彩分享。大会官网:http://www.aiworld2017.com   新智元专栏  作者:邓侃 【新智元导读】Hinton 上周发表的一篇论文 Dynamic Routing Between Capsules 提出用 Capsule 这个概念代替反向传播,引起广泛关注,大数医达创始人,CMU计算机学院暨机器人研究所博士邓侃用浅显的语言梳理解读了论文。邓侃认为,capsule 作为视觉数学表征,很可能是为了把视觉,听觉、阅读的原本相互独立的数学向量,统一起来,完成多模态机器学习的终极目标。 邓侃也是 AI WORLD 2017 世界人工智能大会智能医疗论坛的讲者,届时他将以《多模态智能疾病诊断系统的四大技术难点》为题做出精彩分享。 做领袖不容易,要不断地指明方向。所谓正确的方向,不仅前途要辉煌,而且道路要尽可能顺畅。 Geoffrey Hinton 是深度学习领域的领袖。2011 年,正当 CNN 模型爆发性地取得一个又一个靓丽成就时,老爷子却开始冷静地剖析 CNN 模型存在的致命弱点,指出前进的方向。 老爷子上周刚刚发表了一篇论文,题为 Dynamic Routing Between Capsules。一看这题目就预料得到,这篇论文一定会引起广泛关注。因为这题目里,涉及到两个概念,Capsule 和 Dynamic Routing。而这两个概念,正是老爷子主张的 CNN 前进的方向。 老爷子的论文,读起来略感晦涩,其实道理并不难懂。笔者尝试用浅显的语言,把论文梳理一下,或许有助于理解。 深度学习,其实就是一系列的张量变换。 从图像、视频、音频、文字等等原始数据中,通过一系列张量变换,筛选出特征数据,以便完成识别、分解、翻译等等任务。 譬如原始数据是 28 x 28 的黑白图像,每个黑白像素可以用 8 个 bits 来表达,那么这张黑白图像就可以用 28 * 28 * 8 的张量来表达,张量中每个元素的取值是布尔值,0 或者 1。 又譬如想识别在这些黑白图像中,是否包含从 0 到 9 的手写体数字,那么深度学习的传统做法是,输出一个 10 维向量,( x_{0}, x_{1}, ... x_{9} ),其中每个元素 x_{i} 的取值范围是 [0, 1.0],表示出现相应数字的概率。 例如,输出的向量是 ( 0.2, 0.1, 0.7, 0.9, 0.2, ..., 0.1 ),那么意味着,图像中出现数字 2 的概率是 70%,出现数字 3 的概率是 90% 等等。 Capsule 的创新,在于改变了输出,不是输出一个向量,而是输出 10 个向量。每个向量分别表达某个数字的若干个属性。 老爷子的论文中,输出的是十个 16 维向量,( x_{i, j} ) 其中 i = 0 ... 15, j = 0, ... 9。也就是说,老爷子认为每个手写体数字包含 16 个属性,包含几个圆圈,几个弯勾,几个折角,几根横竖,弯勾折角的大小,笔划的粗细,整个字体的倾斜度,等等。 Capsule 的想法,不难理解。但是仔细想想,存在以下几个问题。 传统的图像识别的解决方案,是把识别问题转化为分类问题。这个方法已经足以解决识别问题。实体的视觉数学表征 capsule 的意义是什么? 如何证明 16 维的 capsule 向量,能够作为手写体数字的视觉数学表征?为什么不是 32 维或者更多? Capsule 向量中的元素 x_{i},与实体的属性之间的关联,是机器自动学习出来的。但是是否可以被人为预先强制指定? 低级 capsule 与高级 capsule 之间的关联关系,是机器自动学习出来的,还是可以被人为预先强制指定? 老爷子试图用 capsule 向量,囊括实体的所有重要属性。如果某个实体的所有属性,都在图像中出现,那么可以确认,这个图像一定包含这个实体。所以他把这个向量,称为实体胶囊 capsule。 一个手写体数字,不管字体是否端正,笔划是粗还是细,圆圈和弯勾是大还是小,都用同一个胶囊 capsule 来表征。 一个轮胎,不管拍摄的角度如何,不管是正圆还是椭圆,不管轮毂是什么式样,也都可以用同一个胶囊 capsule 来表征。 说得抽象一点,capsule 就是实体的视觉的数学表征。 想起了词向量,word vector,词向量是文字词汇的数学表征。 能否把 capsule 和 word vector 统一起来,不管实体的表达是图像还是文字,都可以用同一个数学向量来表征? 论文中没有明说,但是老爷子多半心怀这个想法。 说得更直白一点,capsule 作为视觉数学表征,很可能是为了把视觉,听觉、阅读的原本相互独立的数学向量,统一起来,完成多模态机器学习的终极目标。 假设 capsule 包含了某个实体的所有重要视觉属性,那么理论上来说,应该可以从 capsule 还原包含该实体的图像。 为了证明这个猜测,论文使用了一个神经网络,把 capsule 向量作为输入,重构手写体数字图像并输出。 实验结果证明,capsule 确实能够重构出正确的手写体数字图像。 而且更让人惊奇的是,这些 capsules 中的某些属性,也就是 ( x_{i, j} ), i = 0...15,j = 0...9,其中的几个 x{i},具有明确的物理意义,譬如手写体字体大小宽窄倾斜度,以及字体中弯勾圆弧等局部特征的大小位置等等。 为什么每个手写体数字只包含 16 个属性,而不是 32 个或者更多属性? 16 个属性,已经足以正确地重构手写体数字图像。32 个或者更多属性,无非是表达方式更细腻而已,这个问题不太重要。 Capsule 向量的元素 x_{i},与实体的属性之间的关联,是人为确定的,还是机器自动对应的? 根据论文的描述,关联关系是机器自动对应的,所以在 capsule 向量 ( x_{i} ), i = 0...15 中,某些 x_{i} 的物理意义比较明确,其它 x_{i} 的物理意义却可能难以解释。 假如人为强制指定 capsule 中各个 x_{i}  的物理意义,换句话说,人为强制指定 capsule 向量元素 x_{i} 与实体属性之间的关联关系,是否会有助于提高识别精度,降低训练数据的数量? 回答这个问题之前,需要先了解的 capsule 向量中 ( x_{i} ) 的取值,是怎么来的。 前文说到,深度学习其实就是一系列的张量变换。通过一系列张量变换,从图像、视频、音频、文字等等原始数据中,筛选出特征数据,以便完成识别、分解、翻译等等任务。 论文使用了两层卷积神经网络,对原始黑白照片,也就是 28 * 28 * 8 的原始张量,用两层卷积,完成一系列张量变换,转变成新的张量 ( x_{attr, lon, lat, channel} ) ,attr  = 0 ... 7, lon = 0 ... 5, lat = 0 ... 5, channel = 0 ... 31。 这个新张量中的 ( x_{attr} ) 是初级 capsule,表达原始图像中值得注意的特征。其中 attr 代表初级 capsule 的属性,维度为 8。 新张量中的 ( x_{lon, lat} )  表示 capsule ( x_{attr} ) 在原始图像中的方位。经过张量变换后,28 * 28 的原始图像,被缩略为 6 * 6 个方位。( x_{channel} ) 是频道,类似于多机位拍摄同一个场景,全面表达 capsule 在原始图像中的视觉特点,总共有 32 个频道。 在新张量中,总共有 lon * lat * channel = 6 * 6 * 32 = 1152 个初级 capsule ( x_{attr} ) 。换句话说,经过一系列张量变换,从原始图像中,筛选出了 1152 个值得注意的图像特征。 高级 capsule 是前文说的十个手写体数字的 16 维属性向量,即 ( x_{attr, class} ), attr = 0 ... 15, class = 0 ... 9。 想识别原始图像中,是否包含手写体数字 3,也就是 class = 2,只需要把 1152 个初级 capsules,逐一与高级 capsule 向量 x_{*, 2}  做比对。 如何做比对呢?先做一次线性变换,把 8 维的初级 capsule,变换成 16 维的初级 capsule。然后计算 16 维的初级 capsule 与 16 维的高级 capsule 之间的余弦距离,也就是两个向量之间的点乘。 从每个高级 capsule 出发,在低级 capsules 中寻找它存在的证据,这个过程,就是 Dynamic Routing。 如果某一个高级 capsule 中每一个属性,都能在 1152 个初级 capsules 中,找到 “对应的” 一个或多个 capsules,那么就证实了高级 capsule 中的这个属性,确实在图像中存在。 如果某一个高级 capsule 中的全部 16 个属性,都能在 1152 个初级 capsules 中,找到存在的证据,那么就认定这个高级 capsule 在原始图像中存在。 如果有多个高级 capsules,都能在 1152 个初级 capsules 中,找到各自存在的证据,那么就认定在原始图像中存在多个高级 capsules。 回到前文的问题,假如人为强制指定 capsule 中各个 x_{i}  的物理意义,换句话说,人为强制指定 capsule 向量元素 x_{i} 与实体属性之间的关联关系,是否会有助于提高识别精度,降低训练数据的数量? 假如人为强制指定 capsule 中某个 x_{i} 用于表达图像中是否存在圆圈,那么需要改变训练数据。 现在的训练数据,由输入和输出一对数据构成。输入数据是原始照片,输出数据是标签,说明原始照片中含有哪些数字。 如果要人为指定手写体数字的 capsule 中的元素 x_{i},那么需要改变训练数据。譬如输入是原始照片,输出的标签,是说明这张照片中是否有圆圈。 改变训练数据有什么意义?一个可能的意义是 transfer learning。 一张轮胎的照片中,也包含圆圈。用现在的方法,轮胎的照片无助于手写体数字的识别,但是用  transfer learning,可以用轮胎的照片,来训练机器识别圆圈,然后把识别圆圈的算法模块,融合到手写体数字的识别系统中。 至于用这种方法,是否能够提高识别精度,降低训练数据的数量,需要做实验来验证。 在原始图像中,识别手写体数字,这个实验比较简单。 假如设计一个难度更高的实验,在原始图像中,识别自行车。自行车由两个轮胎,两个脚踏板,一个龙头和骨架等等构件组成。 要完成这个实验,需要先识别原始图像中,是否存在轮胎、脚踏板、龙头和骨架等等构件。然后识别这些构件之间的位置关系。 老爷子提议,用 Parse Tree 来分解整个识别任务,从原始图像,到图像特征,到不同构件,到自行车的识别。 Parse Tree 的生成,当然可以完全靠机器,从大量训练数据中自动学习。而且是一气呵成地完成各个环节,从原始图像,到图像特征,到不同构件,到最终的自行车识别。 但是如果融合先验知识,人为预先指定 Parse Tree 的结构,或许有助于把识别自行车的问题,拆解为若干子问题,分别识别轮胎、脚踏板、龙头和骨架等等构件,然后再把子模块整合成为自行车的识别系统。 当然,把大问题拆解为若干子问题,需要针对各个子问题,准备各自的训练数据。 这样做是否有利于提高识别精度,降低训练数据的数量,也需要做实验来验证。 11月8日,新智元AI World 2017世界人工智能大会,邓侃博士将在 AI Industry 会场发表演讲《多模态智能疾病诊断系统的四大技术难点》,该系统把 CNN、RNN、Attention、GAN、RL、MCTR、Knowledge Graph 等多种前沿技术融为一体,构建医学智能诊断新体系。 邓侃  大数医达创始人CMU计算机学院暨机器人研究所博士 邓侃,上海交通大学本科及硕士,美国卡内基梅隆大学(CMU)计算机学院暨机器人研究所博士,专攻人工智能及数据挖掘。历任美国甲骨文公司(Oracle)主任系统架构师,美国泰为手机导航公司(Telenav)北京分公司总经理,百度高级总监并主管网页搜索和知识图谱。2015年,邓侃创建北京大数医达科技有限公司,旨在将深度强化学习技术应用于医疗健康领域。《多模态智能疾病诊断系统》演讲重点介绍该系统以下 4 个方面的技术难点:把多模态数据,都转换成以医疗知识图谱为轴心的语义向量,在同一个参照系下进行相互比较和交叉操作。在知识图谱为轴心的语义向量空间中,融合多模态数据,并使用生成对抗模型提供可行又可靠的质量评估方案。用卷积神经网络技术,从病情描述中提炼病情特征,用聚焦机制,从医学知识图谱中补充相应病理逻辑,优化疾病的诊断与验证。用深度强化学习和蒙特卡洛搜索树技术,给医生推荐最佳后续化验和检查项目,补充病情描述,用最小的代价,找到诊断金指标,提高诊断精度。 11月8日,欢迎来新智元世界人工智能大会,深入了解AI 技术进展和产业情况,马上抢票! 【AI WORLD 2017世界人工智能大会倒计时 6 天】点击图片查看嘉宾与日程。抢票链接:http://www.huodongxing.com/event/2405852054900?td=4231978320026AI WORLD 2017 世界人工智能大会购票二维码:  via: http://mp.weixin.qq.com/s?__biz= ... e=0#wechat_redirect




爱可可-爱生活   网页链接 2017-11-03 15:27
会议活动 自然语言处理 EMNLP 会议 赵洁玉
《EMNLP2017最佳论文,减少机器学习模型的数据偏见问题》by 赵洁玉 via:@将门创投 http://t.cn/Rlbh21v




IT技术头条   网页链接 2017-11-03 14:20
经验总结 算法 资源 博客 决策树 书籍
【机器学习之决策树(ID3 、C4.5算法)】声明:本篇博文是学习《机器学习实战》一书的方式路程,系原创,若转载请标明来源。 1 决策树的基础概念 决策树分为分类树和回归树两种,分类树对离散变量做决策树 ,回归树对连续变量做决策树。决策树... 详戳→ http://t.cn/Rl4YYVa 作者→ (追寻的鹿) ​




ArnetMiner   网页链接 2017-11-02 22:44
深度学习 自然语言处理
【分享】《Deep Learning Research Review: Natural Language Processing》机器学习研究综述:自然语言处理 http://t.cn/RM6frJH 来源:Github 作者:Adit Deshpande ​




最新动态
[img=20,20][/img] wx:   网页链接 2017-11-03 20:17
会议活动 算法 应用 自然语言处理 GPU 代码 广告系统 行业动态 会议 李飞飞 神经网络
「【TensorFlow开源2年官方回顾】下一个重要方向是分布式模型服务」【AI WORLD 2017世界人工智能大会倒计时 5 天】即将于2017年11月8日在北京国家会议中心举办的AI World 2017世界人工智能大会上,新智元携手爱奇艺推出的人工智能领袖专访视频将重磅发布。谷歌云首席科学家、斯坦福人工智能实验室主任李飞飞教授与谷歌云机器学习人工智能研发主管李佳将带来精彩访谈内容,介绍谷歌云的发展计划。此外,来自微软、亚马逊等美国AI巨头的AI主管与科学家也将出席AI World 2017,与中国的同行们共同探讨AI新生态。敬请期待。大会官网:http://www.aiworld2017.com  新智元编译  来源:research.googleblog.com编译:马文 【新智元导读】 TensorFlow Serving 开源的一年半时间里取得了许多进展和性能提升,包括开箱即用的优化服务和可定制性,多模型服务,标准化模型格式,易于使用的推理API等。本文是研究团队撰写的回顾,并提出接下来创新的方向是Granular batching和分布式模型服务。 自从2016年2月 TensorFlow Serving 开源以来,我们做了一些重大改进。现在,让我们再回到这个项目开始的地方,回顾我们的进展过程,并分享我们下一步的方向。 在 TensorFlow Serving 启动之前,谷歌公司内的 TensorFlow 用户也必须从头开始创建自己的服务系统。虽然一开始服务看起来很容易,但一次性服务解决方案很快就会变得更复杂。机器学习(ML)服务系统需要支持模型版本控制(对于具有回滚选项的模型更新)和多个模型(通过A/B测试进行试验),同时确保并发模型在硬件加速器(GPU和TPU)上实现高吞吐量和低延迟。因此,我们开始创建一个独立、通用的 TensorFlow Serving 软件栈。 我们从一开始据决定将其开源,开发工作是从2015年9月开始。几个月后,我们创建了最初的端到端工作系统,并在2016年2月释出第一个开源版本。 在过去一年半的时间里,在我们的用户和公司内外的合作伙伴的帮助下,TensorFlow Serving 得以提供先进的性能、最佳的实践和标准: 开箱即用的优化服务和可定制性:我们现在提供一个预构建的规范服务二进制文件,针对带 AVX 的现代CPU进行了优化,因此开发人员不需要从我们的库中自己组装二进制文件,除非他们有特殊需求。同时,我们添加了一个基于注册表的框架,允许我们的库被用于定制(甚至是非TensorFlow)的服务场景。 多模型服务:从一个模型扩展到多个并行服务的模型,会出现一些性能上的阻碍。我们通过(1)在隔离的线程池中加载多个模型,以避免在其他模型中出现延迟峰值;(2)在服务器启动时,并行加速所有模型的初始加载;(3)多模型批交错以复用硬件加速器(GPU/TPU)。 标准化模型格式:我们将 SavedModel 添加到 TensorFlow 1.0,为社区提供了一种单一标准的模型格式,可以跨训练和服务工作。 易于使用的推理API:我们为常见的推理任务(分类、回归)发布了易于使用的API,这些API适用于广泛的应用程序。为了支持更高级的用例,我们支持一个较低级的基于 tensor 的API(预测)和一个允许多任务建模的新的多重推理API。 我们的所有工作都通过与以下各方的密切合作实现的:(a)谷歌的 ML SRE 团队确保了我们团队的强壮并满足内部SLA; (b)谷歌其他机器学习基础架构团队,包括广告服务和TFX; (c)Google Play等应用程序的团队;(d)我们在加州大学伯克利分校RISE实验室的合作伙伴,他们研究与Clipper服务系统互补的问题; (e)我们的开源用户群和贡献者。 TensorFlow Serving 目前正在为1100多个我们自己的项目,包括谷歌云的ML预测,每秒处理数千万次的推理任务。核心服务代码可以通过开源版本获得:https://github.com/tensorflow/serving/releases 展望未来,我们的工作还远未完成,我们正在探索一些创新的途径。今天,我们很高兴在两个实验领域分享早期进展: Granular batching:我们在专用硬件(GPU和TPU)上实现高吞吐量的关键技术是“批处理”(batching):联合处理多个样本以实现高效。我们正在开发技术和最佳实践来改进批处理:(a)使批处理能够仅针对计算的GPU / TPU部分,以获得最高效率; (b)允许在递归神经网络进行batching,用于处理序列数据,例如文本和事件序列。我们正在尝试使用Batch/Unbatch对任意子图进行batching。 分布式模型服务:我们将模型分片(model sharding)技术作为处理模型的一种方法,这些模型由于太大而无法适应一个服务器节点,或者不能以节省内存的方式共享子模型。我们最近在生产中推出了一个1TB+的模型,并取得了良好的效果,希望很快开源。 再次感谢我们所有的用户和合作伙伴,他们提供了反馈、代码和想法。参加项目:github.com/tensorflow/serving 11月8日,欢迎来新智元世界人工智能大会,深入了解AI 技术进展和产业情况,马上抢票! 【AI WORLD 2017世界人工智能大会倒计时 5 天】点击图片查看嘉宾与日程。抢票链接:http://www.huodongxing.com/event/2405852054900?td=4231978320026AI WORLD 2017 世界人工智能大会购票二维码:  via: http://mp.weixin.qq.com/s?__biz= ... e=0#wechat_redirect




微软亚洲研究院   网页链接 2017-11-03 18:10
会议活动 活动 沈向洋
【懂语言者得天下】10月30日,微软全球执行副总裁沈向洋博士走进清华大学高等研究院杰出学人讲座,从机器学习到机器智能,再到机器意识,沈向洋博士带领大家回顾人类在感知研究方向取得的卓越成果,并从语言理解的三个不同层次“表述、对话、意境”分析未来十年中人工智能可能实现的重大突破。 ...全文: http://m.weibo.cn/1286528122/4170062350423198


微软亚洲研究院 网页链接 转发于2017-11-03 18:11
沈向洋博士表明,在下一个十年,人工智能的突破在自然语言的理解。语言理解分为三个不同的层次:表述、对话、意境。表述在今天看来已经非常成功,对话就涉及到机器智能领域,这相对会比较困难;机器意识是意境的体现,让机器在有意识思维基础上理解和表达诸如隐喻在内的意境的能力。



爱可可-爱生活   网页链接 2017-11-03 17:11
算法 神经网络 主题模型
《为什么在说话人识别技术中,PLDA面对神经网络依然坚挺? - 知乎》 http://t.cn/RlbOFwj




[img=20,20][/img] wx:让创新获得认可   网页链接 2017-11-03 16:30
会议活动 入门 深度学习 视觉 算法 资源 GPU Kaggle 活动 课程 李沐 神经网络
「预告 | 跟李沐一起动手学深度学习第七课:物体检测」 北京时间11月4日(周六)上午11点,将门联合亚马逊AI主任科学家李沐博士:从零开始入门深度学习第七课精彩继续!本周我们将开始讲计算机视觉里的一个重要课题——物体检测,我们将从使用卷积神经网络的开山做R-CNN讲起,一直到最近的算法。 PS. 年底了,小伙伴们也要开始冲刺年底考核了,所以将课程从两个小时改到一个小时,从北京时间11点开始。但是大家不用担心,一定会将深度学习各个方向逐一介绍完 活动信息▼主题:优化算法高级和计算机视觉时间:11月4日(周六)11:00-12:00地点:将门创投斗鱼直播间课程提纲▼本周我们将开始讲计算机视觉里的一个重要课题——物体检测。我们将从使用卷积神经网络的开山做R-CNN讲起,一直到最近的算法。 更多信息请见:https://discuss.gluon.ai/t/topic/2421 参与互动▼除了斗鱼直播之外,我们还会专门建一个微信的交流群,方便大家实时的交流和提问。这个群虽然还会需要大家填写个人信息进行报名,但是在入群的资质审核上会宽松很多。斗鱼直播链接和入群方式>>关注“将门创投”(thejiangmen)微信公众号,在后台回复关键词“李沐”。 你可能还想看:李沐:来一起动手学深度学习吧回顾 | 跟李沐一起动手学深度学习第一课:从上手到多类分类回顾 | 跟李沐一起动手学深度学习第二课:过拟合、多层感知机、GPU和卷积神经网络 回顾 | 跟李沐一起动手学深度学习第三课:深度卷积网络,如何使用Gluon,以及核武器购买指南回顾 | 跟李沐一起动手学深度学习第四课:BatchNorm,更深的卷积神经网络,Hybridize和新的Kaggle练习回顾 | 跟李沐一起动手学深度学习第五课:Gluon高级和优化算法基础回顾 | 跟李沐一起动手学深度学习第六课:优化算法高级和计算机视觉-END- 将门创投让创新获得认可!微信:thejiangmenservice@thejiangmen.com via: http://mp.weixin.qq.com/s?__biz= ... e=0#wechat_redirect




大数据_机器学习   网页链接 2017-11-03 16:23
经验总结 博客
【原创】C#搭建足球赛事资料库与预测平台(3) 基础数据表设计 >>>> 机器学习, 彩票预测, 彩票研究, 彩票分析, 足球彩票, 足球数据库, Sqlite, 本博客所有文章分类的总目录:http://www.c...足球赛事资料库与预测平台的相关细节。还是先从数据库开始,从本文开始将逐步对每个核心实体类和数据...全文: http://m.weibo.cn/5291384903/4170035633192558




爱可可-爱生活   网页链接 2017-11-03 15:57
经验总结 视觉 算法 博客 分类 行业动态
《Research Blog: AutoML for large scale image classification and object detection》 http://t.cn/Rlb41MY 《谷歌升级AutoML,可用于大规模图像分类和物体检测》via:量子位 http://t.cn/Rlb41Mj




大数据_机器学习   网页链接 2017-11-03 14:23
算法 资源 KNN Python 聚类 书籍
机器学习三 -- 用Python实现K-近邻算法 >>>> 中,我们需要导入Python的两个模块:科学计算包NumPy和运算符模块。NumPy函数库是Python开发环境的一个独立模块,大多数Python版本里没有默认...书里的算法是用Python语言实现的,刚好之前我学过一些Python基础知识,所以这本书对于我来说,无疑...全文: http://m.weibo.cn/5291384903/4170005375127293




ChatbotsChina   网页链接 2017-11-03 14:11
深度学习 神经科学
【用深度学习来解析梦境中出现的物体】 这篇文章主要的工作算是机器学习和神经科学的结合工作,需要读者在这两个方向有一定的基础。 http://t.cn/Rl4W3N0




南京轻搜   网页链接 2017-11-03 12:32
视觉
【NVIDIA公布新AI系统:可以凭空创造人物肖像】英伟达最近公布了一项人工智能技术,是一种有关可以创造出不存在的人的图像技术。下次当你点击一个有吸引力的头像图片时,你可能会欣赏到一款智能电脑的虚构创造。http://t.cn/RqQCBk2 http://t.cn/Rl26KFI




算法组   网页链接 2017-11-03 08:31
深度学习
『深度学习中的注意力机制』http://t.cn/RlApkO1





回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|Vision And Learning SEminar    

GMT+8, 2017-11-24 13:16 , Processed in 0.058019 second(s), 26 queries .

Powered by Discuz! X3.2

© 2001-2013 Comsenz Inc.

快速回复 返回顶部 返回列表