开始学习深度学习和循环神经网络Some starting points for deep learning and RNNs

Bengio, LeCun, Jordan, Hinton, Schmidhuber, Ng, de Freitas and OpenAI have done reddit AMA‘s.  These are nice places to start to get a Zeitgeist of the field.

Hinton and Ng lectures at Coursera, UFLDL, CS224d and CS231n at Stanford, the deep learning course at Udacity, and the summer school at IPAM have excellent tutorials, video lectures and programming exercises that should help you get started.

The online book by Nielsen, notes for CS231n, and blogs by Karpathy, Olah and Britz have clear explanations of MLPs, CNNs and RNNs.  The tutorials at UFLDL and deeplearning.net give equations and code. The encyclopaedic book by Goodfellow et al. is a good place to dive into details.  I have a draft book in progress.

Theano, Torch, Caffe, ConvNet, TensorFlow, MXNet, CNTK, Veles, CGT, Neon, Chainer, Blocks and Fuel, Keras, Lasagne, Mocha.jl, Deeplearning4j, DeepLearnToolbox, Currennt, Project Oxford, Autograd (for Torch), Warp-CTC are some of the many deep learning software libraries and frameworks introduced in the last 10 years.  convnet-benchmarks and deepframeworks compare the performance of many existing packages. I am working on developing an alternative, Knet.jl, written in Julia supporting CNNs and RNNs on GPUs and supporting easy development of original architectures.  More software can be found at deeplearning.net.

Deeplearning.net and homepages of Bengio, Schmidhuber have further information, background and links.

from: http://www.denizyuret.com/2014/11/some-starting-points-for-deep-learning.html

时间: 2024-08-29 20:30:14

开始学习深度学习和循环神经网络Some starting points for deep learning and RNNs的相关文章

学习深度学习网址

1.从零开始学习深度学习的网址,包括全连接神经网络.卷积神经网络.循环神经网络等等: https://www.zybuluo.com/hanbingtao/note/485480 2.python 2学习的网址: https://www.liaoxuefeng.com/wiki/0014316089557264a6b348958f449949df42a6d3a2e542c000 原文地址:https://www.cnblogs.com/zzm1/p/10445176.html

使用腾讯云 GPU 学习深度学习系列之二:Tensorflow 简明原理【转】

转自:https://www.qcloud.com/community/article/598765?fromSource=gwzcw.117333.117333.117333 这是<使用腾讯云 GPU 学习深度学习>系列文章的第二篇,主要介绍了 Tensorflow 的原理,以及如何用最简单的Python代码进行功能实现.本系列文章主要介绍如何使用 腾讯云GPU服务器 进行深度学习运算,前面主要介绍原理部分,后期则以实践为主. 往期内容: 使用腾讯云 GPU 学习深度学习系列之一:传统机器学

深度学习“深度学习”-概念篇

Q:什么是"深度学习" 对于"深度学习"这个术语,一个粗浅的定义是"主要使用深度神经网络为工具的机器学习算法".深度学习首先是一类机器学习的方法,因为它和其他机器学习方法一样允许计算机从样本中.从实例中.从数据中使用统计手段"学习"出规律来,而不用像专家系统和其他符号主义的方法一样人工定义规则.其次,深度学习不同于其他机器学习方法的地方,在于它主要的工具,或者说使用到的数学模型是深度神经网络. 虽说深度学习这个词时近几年才后起

机器学习之深度学习---深度学习之我见

今天下午,闲来无事,遂百度翻看下最近关于模式识别,以及目标检测方面的最新进展,还有收获不少! ------------------------------------author:pkf -----------------------------------------------time:2016-1-20 --------------------------------------------------------------qq:1327706646 1.深度学习的本质 2.深度学习对传

深度学习FPGA实现基础知识5(网友一致认可的----Deep Learning(深度学习)学习笔记整理及完整版下载)

需求说明:深度学习FPGA实现知识储备 来自:http://blog.csdn.net/zouxy09/article/details/8775360/ Deep Learning(深度学习)学习笔记整理系列 [email protected] http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0  2013-04-08   声明: 1)该Deep Learning的学习系列是整理自网上很大牛和机器学习专家所无私奉献的资料的.具体引用的资料请看参考文

系统学习深度学习--GoogLeNetV1,V2,V3 【Incepetion V1-V3】

GoogLeNet Incepetion V1 这是GoogLeNet的最早版本,出现在2014年的<Going deeper with convolutions>.之所以名为"GoogLeNet"而非"GoogleNet",文章说是为了向早期的LeNet致敬. Motivation 深度学习以及神经网络快速发展,人们不再只关注更给力的硬件.更大的数据集.更大的模型,而是更在意新的idea.新的算法以及模型的改进. 一般来说,提升网络性能最直接的办法就是

deep learning...深入学习深度学习 --工具篇

Caffe( http://caffe.berkeleyvision.org/ )是一个清晰而高效的深度学习框架,其作者是博士毕业于UC Berkeley的贾扬清( http://daggerfs.com/ ),他目前在Google工作.Caffe是纯粹的C++/CUDA架构,支持命令行.Python和MATLAB接口:可以在CPU和GPU直接无缝切换:

吴恩达《深度学习》-课后测验-第一门课 (Neural Networks and Deep Learning)-Week 4 - Key concepts on Deep Neural Networks(第四周 测验 – 深层神经网络)

Week 4 Quiz - Key concepts on Deep Neural Networks(第四周 测验 – 深层神经网络) \1. What is the "cache" used for in our implementation of forward propagation and backward propagation?(在实现前向传播和反向传播中使用的"cache"是什么?) [ ]It is used to cache the interme

动手学习深度学习 3-1 Linear-regression

Linear-regression 1. 线性回归 线性回归模型尽量写成矩阵形式进行计算. 为什么矩阵计算比循环快很多? [知乎]因为通常的数学库,矩阵运算都是用BLAS.ATLAS之类的库.这些库中,矩阵运算都是优化过的(也就是说通常不会用两层循环来计算矩阵乘法,具体的计算方法请参考源代码). 当然,还有更厉害的,就是底层调用CPU级别的运算指令.例如intel的MKL就是一个做高速浮点运算的库,比直接编译C语言还要快(10000x10000维的矩阵分解速度可以从10s级加速到0.1s级).W