VALSE

查看: 6238|回复: 0

机器学习日报 2015-05-23 DMLC;大脑记忆的建模;Unreasonable Effectiveness of RNN;Hinton机器学习演讲

[复制链接]

829

主题

837

帖子

7万

积分

版主

Rank: 7Rank: 7Rank: 7

积分
79326
QQ
发表于 2015-5-24 08:20:46 | 显示全部楼层 |阅读模式
机器学习日报 2015-05-23
内容更丰富,链接可点击的加长版见 http://memect.co/ml-list-2015-05-23
(23条最新动态+焦点, 7条温故知新)

@好东西传送门 出品, 过往目录 见http://ml.memect.com


订阅:给 hao@memect.com 发封空信, 标题: 订阅机器学习日报   或点击

用日报搜索找到以前分享的内容: http://ml.memect.com/search/


陈天奇怪   网页版 2015-05-23 06:22
陈天奇
DMLC对于机器学习开发者意味着什么 http://t.cn/R2Gzj1X 从语言选择,设计理念等开发者的角度来介绍DMLC。也是做了一阵子分布式机器学习之后一些想法的总结 (比之一开始版本更新了接口结构的介绍)。


德川 网页版 转发于2015-05-23 08:43
百度之前的pr稿里写是百度发起,但看起来应该是陈天奇和沐哥俩人最早发起的[挤眼] 他们是上交的师兄弟


视觉机器人   网页版 2015-05-23 18:42
科学家近日发现了大脑形成及失去记忆背后的数学方程。该团队对“记忆集合”的形成过程进行了研究。当人试图唤起某段回忆时,这些特定的记忆碎片就会组合在一起,形成完整的记忆。当人类或动物睡着时,大脑往往会对白天的经历进行回放,从而强化这段经历,或是记住新的经历。http://t.cn/R2GOWa1



视觉机器人 网页版 转发于2015-05-23 23:25  回复 @月影舞狂 “回复@视觉机器人: 谢谢,论文应该...”
感谢分享,spiking neural networks,一看到这paper我就觉得是不是可以和LSTM、RNN、ELM等等结合结合哦


3A狗狗   网页版 2015-05-23 11:13
深度学习 算法 See Rnns 神经网络
from Twitter@ylecun: Totally awesome post by Andrej Karpathy about recurrent neural nets. It's fun to see RNNs being trained on http://t.cn/R24QcL7 [The Unreasonable Effectiveness of Recurrent Neural Networks]



王威廉   网页版 2015-05-23 09:29
深度学习 应用 Geoffrey Hinton 信息检索
Geoff Hinton昨天在英国皇家学会机器学习会议演讲的主要内容:http://t.cn/R2GUz58 至于他提出的“思考向量”,目前还未见有公开的具体论文或技术。


鲁东东胖 网页版 转发于2015-05-23 13:55
thought vector is just the vectorial representation of, well, pretty much anything you need, for instance, a summary of a English sentence for its later translation into French. Nothing new.


爱可可-爱生活   网页版 2015-05-23 06:00
资源 Kaggle Wendy Kan 幻灯片
【幻灯:Kaggle背后的故事】《Stories Behind Kaggle Competitions》Wendy Kan from Kagglehttp://t.cn/R2Gzc62 云:http://t.cn/R2GzfV3





回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

小黑屋|手机版|Archiver|Vision And Learning SEminar

GMT+8, 2024-12-23 02:24 , Processed in 0.017510 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表