神经网络,25个术语

从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

http://www.36dsj.com/archives/85406

1,神经元;2,权重;3,偏置:用来改变输入的范围。4,激活函数f(x):将输入信号翻译成输出信号。最常用的激活函数有Sigmoid、ReLU 和softmax。5,神经网络:训练神经网络,更新偏置值,目标是找到未知函数的一个近似值。6,输入层、输出层、隐含层,7,多层神经网络MLP,每一层上的神经元都和下一层上的神经元连接在一起,全互连网络(fully connected networks);8,正向传播(forward propagation)。9,成本函数(损失函数)(cost function):最小化成本函数,即为最优化输出。学习过程就是围绕着 如何最小化成本。10,梯度下降(gradient descent):11,学习速率(learning rate):学习率指每次迭代中 对成本函数的“最小化次数”。12,反向传播(back propagation):一次迭代后,根据产生的结果计算出整个网络的偏差,然后用偏差结合“成本函数的梯度”,对“权重因子进行调整”,使得下次迭代的过程中偏差变小。这样一个结合 成本函数的梯度 来调整 权重因子 的过程就叫做反向传播。13,分批(batches):当训练一个神经网路时,不应一次性发送全部输入信号,而应把输入信号随机分成几个大小相同的数据块发送。将数据分批发送,建立的模型会更具有一般性。14,周期(epochs):一个周期表示对 所有的数据批次 都进行了一次迭代,包括一次正向传播和一次反向传播。往往周期数越高,模型的准确性就越高,但是耗时就越长,同样周期/纪元的次数过高,可能会出现“过拟合”的情况。。15,dropout方法,训练过程中隐藏的某些特定神经元会被忽略掉(drop)。16,分批标准化(batch normalization),为了保证下一层网络得到的数据拥有合适的分布。因此在每一次数据传递前都需要对数据进行一次正则化处理。17,过滤器/滤波器(filters),将一个权重矩阵乘以输入图像的一个部分,产生相应的卷积输出。18,卷积神经网络CNN(convolutional neural network),卷积的过程。19,池化(pooling):最大化池16->4->1,取最大值。20,补白(padding),指给图像的边缘增加额外的空白,从而使得卷积后输出的图像跟输入图像在尺寸上一致,这也被称作相同补白(Same Padding),21数据增强(data augmentation):从已有数据中创造出新的数据,通过增加训练量以期望能够提高预测的准确率。通过“旋转”“照亮”的操作,训练数据的品质得到了提升,这种过程被称作数据增强 。22,递归神经元经由自己处理过的数据,会变成自身下一次的输入,这个过程进行t次。

23,递归神经网络(RNN,recurrent neural network),常被用于处理序列化的数据,即前一项的输出 是用来预测下一项的输入。递归神经网络中存在环的结构,这些神经元上的环状结构使得它们能够存储之前的数据一段时间,从而使得能够预测输出。RNN中隐含层的输出会作为下一次的输入,如此往复经历t次,再将输出的结果传递到下一层网络中。这样,最终输出的结果会更全面,而且之前训练的信息被保持的时间会更久。隐藏层将反向传递错误以更新权重。这被称为backpropagation through time (BPTT).

24,梯度消失问题,当激活函数的梯度非常小时,在反向传播过程中,权重因子会被多次乘以这些小的梯度。因此会越变越小,随着递归的深入趋于“消失”,出现梯度消失问题。这一问题可通过采用ReLu等没有小梯度的激活函数来有效避免。

25,梯度爆炸问题:激活函数的梯度过大,在反向传播过程中,部分节点的大梯度使得他们的权重变得非常大,从而削弱了其他节点对于结果的影响。这个问题可以通过截断(即设置一个梯度允许的最大值)的方式来有效避免。

时间: 2024-08-27 08:06:43

神经网络,25个术语的相关文章

CNN(卷积神经网络)

作者:机器之心链接:https://www.zhihu.com/question/52668301/answer/131573702来源:知乎著作权归作者所有.商业转载请联系作者获得授权,非商业转载请注明出处. Part 1:图像识别任务 卷积神经网络,听起来像是计算机科学.生物学和数学的诡异组合,但它们已经成为计算机视觉领域中最具影响力的革新的一部分.神经网络在 2012 年崭露头角,Alex Krizhevsky 凭借它们赢得了那一年的 ImageNet 挑战赛(大体上相当于计算机视觉的年度

机器学习大总结(1)

智能: 智能这个词可以用很多方法去定义.这里我们把它定义为能够根据某些情况做出正确的决定.做出好的决策需要知识,并且这种知识必须是一种可操作的,例如解释传感器数据并且使用它去做决策. 人工智能: 感谢那些人类曾经写过的程序,允许这些程序去做一些我们认为有用的事情.在这种情况下,计算机已经获得了某种程度的智能.在21世纪的开始的时候了,仍然有很多任务,人和动物可以很简单做到,而计算机却无法企及.许多这些任务落到人工智能的标签下,包括许多感知器和控制任务.为什么我们不可能写程序去干这些事情?我相信这

深度强化学习泡沫及路在何方?

一.深度强化学习的泡沫 2015年,DeepMind的Volodymyr Mnih等研究员在<自然>杂志上发表论文Human-level control through deep reinforcement learning[1],该论文提出了一个结合深度学习(DL)技术和强化学习(RL)思想的模型Deep Q-Network(DQN),在Atari游戏平台上展示出超越人类水平的表现.自此以后,结合DL与RL的深度强化学习(Deep Reinforcement Learning, DRL)迅速

25个大数据术语

大数据1.算法."算法"如何与大数据相关?即使算法是一个通用术语,但大数据分析使其在当代更受青睐和流行. 2.分析.年末你可能会收到一份来自信用卡公司寄来的包含了全年所有交易记录的年终报表.如果你有兴趣进一步分析自己在食物.衣服.娱乐等方面具体花费占比呢?那你便是在做"分析"了.你正从一堆原始数据中来吸取经验,以帮助自己为来年的消费做出决策.如果你正在针对整个城市人群对Twitter或Facebook的帖子做同样的练习呢?那我们便是在讨论大数据分析了.大数据分析的实

今天开始学Pattern Recognition and Machine Learning (PRML),章节5.2-5.3,Neural Networks神经网络训练(BP算法)

转载请注明出处:Bin的专栏,http://blog.csdn.net/xbinworld 这一篇是整个第五章的精华了,会重点介绍一下Neural Networks的训练方法--反向传播算法(backpropagation,BP),这个算法提出到现在近30年时间都没什么变化,可谓极其经典.也是deep learning的基石之一.还是老样子,下文基本是阅读笔记(句子翻译+自己理解),把书里的内容梳理一遍,也不为什么目的,记下来以后自己可以翻阅用. 5.2 Network Training 我们可

递归神经网络的不可思议的有效性 [ 译 / 转 ]

递归神经网络(Recurrent Neural Networks,RNNs)就像一种神奇的魔法.我至今仍对于我第一次训练递归网络记忆犹新.那个网络是被用于生成图像说明(Image Captioning)的.仅仅进行了几十分钟的训练,我的第一个模型(这个模型中相当一部分超参数都是我随意选取的)就开始能给图片生成看起来非常不错的描述,而这些描述基本上能称得上是有意义的.有时结果的质量和模型复杂度之间的关联性完全超出你的预期,而我的第一次实验就是一个例子.为什么当时这些训练结果看起来如此惊人?是因为大

(转载)Convolutional Neural Networks卷积神经网络

Convolutional Neural Networks卷积神经网络 Contents 一:前导 Back Propagation反向传播算法 网络结构 学习算法 二:Convolutional Neural Networks卷积神经网络 三:LeCun的LeNet-5 四:CNNs的训练过程 五:总结 本文是我在20140822的周报,其中部分参照了以下博文或论文,如果在文中有一些没说明白的地方,可以查阅他们.对Yann LeCun前辈,和celerychen2009.zouxy09表示感谢

详细解读神经网络十大误解,再也不会弄错它的工作原理

来源:http://www.cstor.cn/textdetail_10544.html_biz=MjM5OTA1MDUyMA==&mid=407358558&idx=2&sn=b21877f23bf4063fa311185009c1f0b7&scene=0#wechat_redirect1462674382044 神经网络是机器学习算法中最流行和最强大的一类.但在作者看来,因为人们对神经网络工作原理存在误解,导致网络设计也很糟糕.所以这篇文章就对其中一些误解进行了讨论.

手把手入门神经网络:从初等数学的角度初探神经网络

转一篇关于神经网络的小品文 https://mp.weixin.qq.com/s?__biz=MzA4MTA5MjE5Mw==&mid=401758390&idx=1&sn=a870201b307b6531abfe9c571461876e&scene=1&srcid=0122t2d7CyeurEFwtlp2ya3k&pass_ticket=5vlHG30VriwzFjNjxIzDT9YjTp2c0tOsRclaa6RliQEmlEGduKOiY9XcBWb0