Deep learning的一些教程 (转载)

几个不错的深度学习教程,基本都有视频和演讲稿。附两篇综述文章和一副漫画。还有一些以后补充。

Jeff Dean 2013 @ Stanford

http://i.stanford.edu/infoseminar/dean.pdf

一个对DL能干什么的入门级介绍,主要涉及Google在语音识别、图像处理和自然语言处理三个方向上的一些应用。参《Spanner and Deep Learning》(2013-01-19)

Hinton 2009

A tutorial on Deep Learning

Slideshttp://videolectures.net/site/normal_dl/tag=52790/jul09_hinton_deeplearn.pdf

Video http://videolectures.net/jul09_hinton_deeplearn/  (3 hours)

从神经网络的背景来分析DL,为什么要有DL说得很清楚。对DL的基本模型结构也说得很清楚。十分推荐

更多Hinton的教程 http://www.cs.toronto.edu/~hinton/nntut.html

斯坦福的Deep Learning公开课(2012)

Samy Bengio, Tom Dean and Andrew Ng

http://openclassroom.stanford.edu/MainFolder/CoursePage.php?course=DeepLearning

教学语言是Matlab。

参2011年的课程CS294A/CS294W  Deep Learning and Unsupervised Feature Learning

更多的斯坦福工作: Deep Learning in Natural Language Processing

NIPS 2009 tutorial

Deep Learning for Natural Language Processing, 2009 tutorial by Ronan Collobert (senna author)

这个介绍了DL在三个方向上的应用:tagging (parsing), semantic search, concept labeling

Ronan Collobert的Senna是一个c的深度学习实现,只有2000多行代码

ACL 2012 tutorial

Deep Learning for NLP (without Magic)

http://www.socher.org/index.php/DeepLearningTutorial/DeepLearningTutorial

by Richard Socher, Yoshua Bengio and Chris Manning

PDF: http://nlp.stanford.edu/~socherr/SocherBengioManning-DeepLearning-ACL2012-20120707-NoMargin.pdf

Video: http://www.youtube.com/watch?v=IF5tGEgRCTQ&list=PL4617D0E28A5781B0

Kai Yu’s Tutorial

http://vipl.ict.ac.cn/News/academic-report-tutorial-deep-learning-dr-kai-yu

On November 26, 2012

Title: “A Tutorial on Deep Learning”

Abstract:

In the past 30 years, tremendous progress has been made in building effective classification models. Despite the success, we have to realize that, in major AI challenges, the key bottleneck is not the quality of classifiers but that of features. Since 2006, learning high-level features using deep architectures has become a big wave of new learning paradigms. In recent two years, performance breakthrough was reported in both image and speech recognition tasks, indicating deep learning are not something ignorable. In this talk, I will walk through the recent works and key building blocks, e.g., sparse coding, RBMs, auto-encoders, etc. and list the major research topics, including modeling and computational issues. In the end, I will discuss what might be interesting topics for future research.

Bio of Dr. Kai Yu:

余 凯任百度技术副总监,多媒体部负责人,主要负责公司在语音,图像,音频等领域面向互联网和移动应用的技术研发。加盟百度前,余凯博士在美国NEC研究院担 任Media Analytics部门主管(Department Head),领导团队在机器学习、图像识别、多媒体检索、视频监控,以及数据挖掘和人机交互等方面的产品技术研发。此前他曾在西门子公司任Senior Research Scientist。2011年曾在斯坦福大学计算机系客座主讲课程“CS121: 人工智能概论”。他在NIPS, ICML, CVPR, ICCV, ECCV,SIGIR, SIGKDD,TPAMI,TKDE等会议和杂志上发表了70多篇论文,H-index=28,曾担任机器学习国际会议ICML10, ICML11, NIPS11, NIPS12的Area Chair. 2012年他被评为中关村高端领军人才和北京市海聚计划高层次海外人才。

Slides link: http://pan.baidu.com/share/link?shareid=136269&uk=2267174042[1]

Video link: KaiYu_report.mp4 (519.2 MB)

Theano Deep Learning Tutorial

这个是实战, 如何用Python实现深度学习

http://deeplearning.net/tutorial/

Code https://github.com/lisa-lab/DeepLearningTutorials

Survey Papers

很多,不过初学看这两篇应该就够了

Yoshua BengioAaron CourvillePascal Vincent. (2012) Representation Learning: A Review and New Perspectives

Yoshua Bengio (2009). Learning Deep Architectures for AI.

更多

最后来个漫画

Deep Learning虽好,也要牢记它的局限

http://baojie.org/blog/2013/01/27/deep-learning-tutorials/

时间: 2024-12-17 07:03:13

Deep learning的一些教程 (转载)的相关文章

转载 deep learning:八(SparseCoding稀疏编码)

转载 http://blog.sina.com.cn/s/blog_4a1853330102v0mr.html Sparse coding: 本节将简单介绍下sparse coding(稀疏编码),因为sparse coding也是deep learning中一个重要的分支,同样能够提取出数据集很好的特征.本文的内容是参考斯坦福deep learning教程:Sparse Coding,Sparse Coding: Autoencoder Interpretation,对应的中文教程见稀疏编码,

TensorFlow和深度学习新手教程(TensorFlow and deep learning without a PhD)

前言 上月导师在组会上交我们用tensorflow写深度学习和卷积神经网络.并把其PPT的參考学习资料给了我们, 这是codelabs上的教程:<TensorFlow and deep learning,without a PhD> 当然登入须要FQ,我也顺带巩固下,做个翻译.不好之处请包括指正. 当然须要安装python,教程推荐使用python3.假设是Mac,能够參考博主的另外两片博文,Mac下升级python2.7到python3.6, Mac安装tensorflow1.0 好多专业词

Deep Learning 深度学习 学习教程网站集锦

http://blog.sciencenet.cn/blog-517721-852551.html 学习笔记:深度学习是机器学习的突破 2006-2007年,加拿大多伦多大学教授.机器学习领域的泰斗Geoffrey Hinton和他的学生RuslanSalakhutdinov在<科学>以及在Neural computation 和 NIPS上发表了4篇文章,这些文章有两个主要观点: 1)多隐层的人工神经网络具有优异的特征学习能力,学习得到的特征对数据有更本质的刻画,从而有利于可视化或分类: 2

转载 Deep learning:六(regularized logistic回归练习)

前言: 在上一讲Deep learning:五(regularized线性回归练习)中已经介绍了regularization项在线性回归问题中的应用,这节主要是练习regularization项在logistic回归中的应用,并使用牛顿法来求解模型的参数.参考的网页资料为:http://openclassroom.stanford.edu/MainFolder/DocumentPage.php?course=DeepLearning&doc=exercises/ex5/ex5.html.要解决的

TensorFlow和深度学习入门教程(TensorFlow and deep learning without a PhD)

前言 上月导师在组会上交我们用tensorflow写深度学习和卷积神经网络,并把其PPT的参考学习资料给了我们, 这是codelabs上的教程:<TensorFlow and deep learning,without a PhD> 当然登入需要翻墙,我也顺带巩固下,做个翻译,不好之处请包含指正. 当然需要安装python,教程推荐使用python3.如果是Mac,可以参考博主的另外两片博文,Mac下升级python2.7到python3.6, Mac安装tensorflow1.0 好多专业词

[转载]Deep Learning(深度学习)学习笔记整理

转载自:http://blog.csdn.net/zouxy09/article/details/8775360 感谢原作者:[email protected] 八.Deep learning训练过程 8.1.传统神经网络的训练方法为什么不能用在深度神经网络 BP算法作为传统训练多层网络的典型算法,实际上对仅含几层网络,该训练方法就已经很不理想.深度结构(涉及多个非线性处理单元层)非凸目标代价函数中普遍存在的局部最小是训练困难的主要来源. BP算法存在的问题: (1)梯度越来越稀疏:从顶层越往下

【转载】deep learning这件小事……

deep learning这件小事…… (2013-03-30 16:35:17) 转载▼ 标签: deep-learning 机器学习 深度神经网络 监督学习 非监督学习 分类: 机器学习 「深度神经网络」(deep neural network)具体是怎样工作的? 多层的好处是可以用较少的参数表示复杂的函数. 在监督学习中,以前的多层神经网络的问题是容易陷入局部极值点.如果训练样本足够充分覆盖未来的样本,那么学到的多层权重可以很好的用来预测新的测试样本.但是很多任务难以得到足够多的标记样本,

Deep Learning 十_深度学习UFLDL教程:Convolution and Pooling_exercise(斯坦福大学深度学习教程)

前言 理论知识:UFLDL教程和http://www.cnblogs.com/tornadomeet/archive/2013/04/09/3009830.html 实验环境:win7, matlab2015b,16G内存,2T机械硬盘 实验内容:Exercise:Convolution and Pooling.从2000张64*64的RGB图片(它是the STL10 Dataset的一个子集)中提取特征作为训练数据集,训练softmax分类器,然后从3200张64*64的RGB图片(它是th

Deep Learning九之深度学习UFLDL教程:linear decoder_exercise(斯坦福大学深度学习教程)

前言 实验内容:Exercise:Learning color features with Sparse Autoencoders.即:利用线性解码器,从100000张8*8的RGB图像块中提取彩色特征,这些特征会被用于下一节的练习 理论知识:线性解码器和http://www.cnblogs.com/tornadomeet/archive/2013/04/08/3007435.html 实验基础说明: 1.为什么要用线性解码器,而不用前面用过的栈式自编码器等?即:线性解码器的作用? 这一点,Ng