Neural Networks for Machine Learning by Geoffrey Hinton (3)

Neural Networks for Machine Learning by Geoffrey Hinton (3)

训练感知机的方法并不能用以训练隐含层

  • 训练感知机的方式是每次直接修正权重,最终得到满足所有凸锥里的权重。可行解的平均一定还是可行解。
  • 对多层神经网络而言,2个可行解的平均并不一定是可行解。

    They should never have been called multi-layer perceptrons.

为何不解析求解神经网络?

  • 我们希望了解神经网络具体工作方式。
  • 我们需要能够扩展到深层神经网络的方法。

online delta-rule 与 感知机 learning rule 的区别与联系

  • 感知机 learning rule 中,我们通过输入向量直接改变权重向量。

    然而我们只能在出现错误时才能够调整权重。

  • online delta-rule 中,权重的修正量还带有残差和学习率作为系数。

    Δwi=?ε?E?wi=∑nεxni(tn?yn)

错误面(Error Surface)

对于线性神经元、平方误差时,错误面是一个抛物面

- 错误面的纵切面是抛物线。

- 错误面的横切面是椭圆。

在线(Online)学习与批(Batch)学习

  • 在线学习权重在走之字形路线,如图1。

  • 批学习权重路线要平缓得多,如图2。

为何学习过程会这么慢?

在权重空间某2个维度具有一定的相关性时,错误面会被拉长,其横剖面就变成了一个长椭圆,如图3。

与我们希望刚好相反,如图的红色向量在短轴方向有巨大分量,而在长轴方向分量却很小。

为什么对于多层神经网络直接学习权重是不可行的?

  • 如果每次只训练某一个权重,那么唯一的修正信号就是错误。这样每次修正都要把整个网络正向计算一遍。效率太低
  • 如果每次训练调整所有权重,那么有相当大的可能会使最终的输出更糟糕。

反向传播的背后思路

  • 我们并不知道隐含层神经元的值,但是我们知道当调整隐含神经元时错误改变的快慢
  • 每次可以修正所有的隐含层神经元,如图4。

?E?zj=dyjdzj?E?yj=yj(1?yj)?E?yj

?E?yi=∑jdzjdyi?E?zj=∑jwij?E?zj

?E?wij=?zj?wij?E?zj=yi?E?zj

将错误率导数转化为学习过程

  • 优化问题

    如何利用各个输入样本对应的导数来求得一个良好的权重。

  • Online: after each training case.
  • Full batch: after a full sweep through the training data.
  • Mini-batch: after a small sample of training cases.
  • 普适性问题

    如何保证学习到得权重对于网络没见过的样本也能起作用。

  • Weight-decay
  • Weight-sharing
  • Early stopping
  • Model averaging
  • Bayesian fitting of neural nets
  • Dropout
  • Generative pre-training

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-10-13 13:34:14

Neural Networks for Machine Learning by Geoffrey Hinton (3)的相关文章

Neural Networks for Machine Learning by Geoffrey Hinton (1~2)

机器学习能良好解决的问题 识别模式 识别异常 预測 大脑工作模式 人类有个神经元,每一个包括个权重,带宽要远好于工作站. 神经元的不同类型 Linear (线性)神经元  Binary threshold (二值)神经元  watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQv/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" width="300&quo

Neural Networks for Machine Learning by Geoffrey Hinton (4)

一种能够学习家谱关系的简单神经网络 血缘一共同拥有12种关系: son, daughter, nephew, niece, father, mother, uncle, aunt, brother, sister, husband, wife 有1个英国家庭以及1个意大利家庭,每一个家庭有12个人. 各种家庭关系都是可用三元数组表示.即( Agent / Relation / Patient ) 结构: (colin has-father james) (colin has-mother vic

Neural Networks Learning----- Stanford Machine Learning(by Andrew NG)Course Notes

本栏目内容来自Andrew NG老师的公开课:https://class.coursera.org/ml/class/index 一般而言, 人工神经网络与经典计算方法相比并非优越, 只有当常规方法解决不了或效果不佳时人工神经网络方法才能显示出其优越性.尤其对问题的机理不甚了解或不能用数学模型表示的系统,如故障诊断.特征提取和预测等问题,人工神经网络往往是最有利的工具.另一方面, 人工神经网络对处理大量原始数据而不能用规则或公式描述的问题, 表现出极大的灵活性和自适应性. 神经网络模型解决问题的

[C3] Andrew Ng - Neural Networks and Deep Learning

About this Course If you want to break into cutting-edge AI, this course will help you do so. Deep learning engineers are highly sought after, and mastering deep learning will give you numerous new career opportunities. Deep learning is also a new "s

机器学习001 deeplearning.ai 深度学习课程 Neural Networks and Deep Learning 第一周总结

Deep Learning Specialization 吴恩达老师最近在coursera上联合deeplearning.ai 推出了有关深度学习的一系列课程,相对于之前的machine learning课程,这次的课程更加实用,作业语言也有matlab改为了python从而更加贴合目前的趋势.在此将对这个系列课程做一个学习笔记. 而这次的Deep Learning Specialization分为五门课程,分别为:Neural Networks and Deep Learning,Improv

《Neural networks and deep learning》概览

最近阅读了<Neural networks and deep learning>这本书(online book,还没出版),算是读得比较仔细,前面几章涉及的内容比较简单,我着重看了第三章<Improving the way neural networks learn>,涉及深度神经网络优化和训练的各种技术,对第三章做了详细的笔记(同时参考了其他资料,以后读到其他相关的论文资料也会补充或更改),欢迎有阅读这本书的同学一起交流.以下属个人理解,如有错误请指正. What this bo

Neural Networks and Deep Learning

Neural Networks and Deep Learning This is the first course of the deep learning specialization at Coursera which is moderated by moderated by DeepLearning.ai. The course is taught by Andrew Ng. Introduction to deep learning Be able to explain the maj

Neural Networks and Deep Learning学习笔记ch1 - 神经网络

近期開始看一些深度学习的资料.想学习一下深度学习的基础知识.找到了一个比較好的tutorial,Neural Networks and Deep Learning,认真看完了之后觉得收获还是非常多的.从最主要的感知机開始讲起.到后来使用logistic函数作为激活函数的sigmoid neuron,和非常多其它如今深度学习中常使用的trick. 把深度学习的一个发展过程讲得非常清楚,并且还有非常多源代码和实验帮助理解.看完了整个tutorial后打算再又一次梳理一遍,来写点总结.以后再看其它资料

第四节,Neural Networks and Deep Learning 一书小节(上)

最近花了半个多月把Mchiael Nielsen所写的Neural Networks and Deep Learning这本书看了一遍,受益匪浅. 该书英文原版地址地址:http://neuralnetworksanddeeplearning.com/ 回顾一下这本书主要讲的内容 1.使用神经网络识别手写数字 作者从感知器模型引申到S型神经元.然后再到神经网络的结构.并用一个三层神经网络结构来进行手写数字识别, 作者详细介绍了神经网络学习所使用到梯度下降法,由于当训练输入数量过大时,学习过程将变