转:面向视觉识别的卷积神经网络课程 & CNN的近期进展与实用技巧

http://mp.weixin.qq.com/s?__biz=MjM5ODkzMzMwMQ==&mid=2650408190&idx=1&sn=f22adfb13fb14f8a220222355659913f

1. 如何了解NLP的现状: 看最新的博士论文的一些Tips

了解一个领域的现状,看最新的博士论文也许是个捷径。譬如有童鞋问如何了解NLP的state-of-the-art, 其实就斯坦福,伯克利, CMU, JHU等学校的近期博士论文选读一些,领域主流方向的概况就能了解一大半。另外 @王威廉 2013年推荐过一个精简的列表 http://t.cn/RqQcgS6 及下面的讨论扔值得参考 From 算文解字

2. 课程视频+资料:面向视觉识别的卷积神经网络

【课程视频+资料:面向视觉识别的卷积神经网络(Fei-Fei Li & Andrej Karpathy)】"CS231n: Convolutional Neural Networks for Visual Recognition"  http://vision.stanford.edu/teaching/cs231n/index.html

2016新课(slides+video):   http://vision.stanford.edu/teaching/cs231n/syllabus.html

Notes: http://cs231n.github.io/

 : http://pan.baidu.com/s/1pKsTivp  From 爱可可-爱生活

3. CNN的近期进展与实用技巧(上)

中科院计算所刘昕博士刚才上传了在VALSE2016的talk的slides,有关CNN的近期进展与实用技巧文章,介绍了CNN的进展和caffe的常用技巧[适合了解caffe使用的教程],详见链接http://t.cn/RqQzadL From 汤旭_ShanghaiTech

4. AlphaGo相关 & ICLR16两篇 & 深度强化学习的异步梯度下降优化法 & UCL讲师David Silver《强化学习》十讲等

Nature16 AlphaGo并列一作、ICLR16两篇(连续行动空间,优先化经验重用)、ICML16一篇(深度强化学习的异步梯度下降优化法),UCL讲师David Silver《强化学习》十讲。基础:基本概念 马尔科夫决策过程 动态规划 预测 控制。实战:估值函数 策略梯度 学习与规划 开发和利用 博弈。481页http://t.cn/RqQGlGG From eso9

作者主页:http://www0.cs.ucl.ac.uk/staff/d.silver/web/Home.html

5.获得Peter Thiel奖学金的Chris Olah关于理解和可视化神经网络的若干篇博客:Calculus on Computational Graphs: Backpropagation,Understanding LSTM Networks ,Visualizing MNIST: An Exploration of Dimensionality Reduction,Understanding Convolutions

地址:http://colah.github.io/archive.html

6. 为什么应该关注兴趣Feed

发布了头条文章:《为什么应该关注兴趣Feed?》 一方面,Twitter 和 Instagram 都宣布要转向兴趣feed了,可见大势所趋。另外,推荐算法工程师对传统的推荐系统关注很多,对兴趣feed这种形式关注较少,按照 KK 的说法,它更代表一种互联网的必然。 http://t.cn/RqQP0hl From ResysChina

时间: 2024-10-06 20:25:42

转:面向视觉识别的卷积神经网络课程 & CNN的近期进展与实用技巧的相关文章

【Valse首发】CNN的近期进展与实用技巧(上)

作者:程程链接:https://zhuanlan.zhihu.com/p/21432547来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. 深度学习大讲堂致力于推送人工智能,深度学习方面的最新技术,产品以及活动.请关注我们的知乎专栏! 一.DL基础理论 本页PPT给出了本节内容概要,我们从MCP神经元模型开始,首先回顾全连接层.卷积层等基础结构单元,Sigmoid等激活函数,Softmax等损失函数,以及感知机.MLP等经典网络结构.接下来,将介绍网络训练方法,包括

理解NLP中的卷积神经网络(CNN)

此篇文章是Denny Britz关于CNN在NLP中应用的理解,他本人也曾在Google Brain项目中参与多项关于NLP的项目. · 翻译不周到的地方请大家见谅. 阅读完本文大概需要7分钟左右的时间,如果您有收获,请点赞关注 :) 一.理解NLP中的卷积神经网络(CNN) 现在当我们听到神经网络(CNN)的时候,一般都会想到它在计算机视觉上的应用,尤其是CNN使图像分类取得了巨大突破,而且从Facebook的图像自动标注到自动驾驶汽车系统,CNN已经成为了核心. 最近,将CNN应用于NLP也

人脸检测及识别python实现系列(4)——卷积神经网络(CNN)入门

人脸检测及识别python实现系列(4)--卷积神经网络(CNN)入门 上篇博文我们准备好了2000张训练数据,接下来的几节我们将详细讲述如何利用这些数据训练我们的识别模型.前面说过,原博文给出的训练程序使用的是keras库,对我的机器来说就是tensorflow版的keras.训练程序建立了一个包含4个卷积层的神经网络(CNN),程序利用这个网络训练我的人脸识别模型,并将最终训练结果保存到硬盘上.在我们实际动手操练之前我们必须先弄明白一个问题--什么是卷积神经网络(CNN)? CNN(Conv

卷积神经网络(CNN)新手指南 1

http://blog.csdn.net/real_myth/article/details/52273930 卷积神经网络(CNN)新手指南 2016-07-29 18:22 Blake 1条评论 卷积神经网络(Convolutional Neural Network,CNN)新手指南 引言 卷积神经网络:听起来像是生物与数学还有少量计算机科学的奇怪结合,但是这些网络在计算机视觉领域已经造就了一些最有影响力的创新.2012年神经网络开始崭露头角,那一年Alex Krizhevskyj在Imag

从软件工程的角度写机器学习6——深度学习之卷积神经网络(CNN)实现

卷积神经网络(CNN)实现 背景 卷积神经网络广泛用于图像检测,它的实现原理与传统神经网络基本上是一样的,因此将普遍意义的神经网络和卷积神经网络的实现合成一篇. 神经网络实现思路 "扔掉神经元" 尽管所有教程在介绍神经网络时都会把一大堆神经元画出来,并且以输入节点--神经元--输出结点连线,但是,在编程实现时,基于神经元去编程是低效的.典型如这篇经典文章里面的代码: http://blog.csdn.net/zzwu/article/details/575125. 比较合适的方法是将神

大话卷积神经网络(CNN)

这几年深度学习快速发展,在图像识别.语音识别.物体识别等各种场景上取得了巨大的成功,例如AlphaGo击败世界围棋冠军,iPhone X内置了人脸识别解锁功能等等,很多AI产品在世界上引起了很大的轰动.在这场深度学习革命中,卷积神经网络(Convolutional Neural Networks,简称CNN)是推动这一切爆发的主力,在目前人工智能的发展中有着非常重要的地位. [问题来了]那什么是卷积神经网络(CNN)呢? 1.小白一下,什么是神经网络?这里的神经网络,也指人工神经网络(Artif

跟我学算法-图像识别之图像分类(上)(基础神经网络, 卷积神经网络(CNN), AlexNet,NIN, VGG)

1.基础神经网络: 输入向量x,权重向量w, 偏置标量b, 激活函数sigmoid(增加非线性度) 优化手段: 梯度下降优化, BP向后传播(链式规则) 梯度下降优化: 1. 使用得目标函数是交叉熵  c = 1/nΣΣ[yj*lnaj^2 + (1-yj)*ln(1-aj^2)]  yj表示得是样本标签, aj表示的是输出值                            2.批量梯度下降:每次迭代一部分样本,进行参数跟新. 3. 随机梯度下降:每次迭代只选择单个样本 4. 梯度更新的方

卷积神经网络(CNN)在语音识别中的应用

卷积神经网络(CNN)在语音识别中的应用 作者:侯艺馨 前言 总结目前语音识别的发展现状,dnn.rnn/lstm和cnn算是语音识别中几个比较主流的方向.2012年,微软邓力和俞栋老师将前馈神经网络FFDNN(Feed Forward Deep Neural Network)引入到声学模型建模中,将FFDNN的输出层概率用于替换之前GMM-HMM中使用GMM计算的输出概率,引领了DNN-HMM混合系统的风潮.长短时记忆网络(LSTM,LongShort Term Memory)可以说是目前语音

神经网络以及卷积神经网络(CNN)初始

1 人工神经网络 1.1 神经元 神经网络由大量的神经元相互连接而成.每个神经元接受线性组合的输入后,最开始只是简单的线性加权,后来给每个神经元加上了非线性的激活函数,从而进行非线性变换后输出.每两个神经元之间的连接代表加权值,称之为权重(weight).不同的权重和激活函数,则会导致神经网络不同的输出. 举个手写识别的例子,给定一个未知数字,让神经网络识别是什么数字.此时的神经网络的输入由一组被输入图像的像素所激活的输入神经元所定义.在通过非线性激活函数进行非线性变换后,神经元被激活然后被传递