激活函数sigmoid、tanh

激活函数的作用主要是引入非线性因素,解决线性模型表达能力不足的缺陷

  sigmoid函数可以从图像中看出,当x向两端走的时候,y值越来越接近1和-1,这种现象称为饱和,饱和意味着当x=100和x=1000的映射结果是一样的,这种转化相当于将1000大于100的信息丢失了很多,所以一般需要归一化数据。

softplus函数相比于relu函数更加平滑,会保存部分小于零的函数,但是计算量也更大了。

relu函数在信号响应上有很多优势,但是仅仅在正向传播中,由于其对负值全部舍去很容易使模型输出全零而无法训练。例如:随机初始化的w中存在负值,其对应的正值输入特征也就被全部屏蔽了,同理对应的负值输入反而被激活了。因此,一些relu变种被开发。

原文地址:https://www.cnblogs.com/wzdLY/p/9710478.html

时间: 2024-10-07 05:08:35

激活函数sigmoid、tanh的相关文章

Deeping Learning

深度学习 The First The second MLP CNN RNN/LSTM 入门 MLP,CNN,RNN/LSTM 深入 ###Crop *Crop *Add noise *Reverse ###各种模型结构 *LeNet *AlexNet *VGG *GoogleNet(Inception v1-v4,Xception) *ResNet *Network-in-network *SqueezeNet *E-Net *R-CNN系列 *Stack RNN/LSTM/GRU *Seq2S

什么是sigmoid激活函数?

上面我们讲了引入激活函数的意义,激活函数有多种,下面我们拿一种激活函数sigmoid来做示例,其他的类似.sigmoid函数表达式如下: 它的函数曲线图是: 看到上面的函数曲线图,可以看出是一个sigmoid函数的特点就是当输入值从负无穷变到正无穷时,输出值在0和1之间,............. 文章转载自原文:https://blog.csdn.net/qq_44594249/article/details/100561953 原文地址:https://www.cnblogs.com/ren

激活函数

1.Why 激活函数的作用: 用来加入非线性因素的,因为线性模型的表达能力不够. 如下一个单层感知机: 如果用多个感知机组合,能够获得更强的分类能力,: 然而组合起来的形式还是一个线性方程: 因此,提出了激活函数,在每层叠加完后,加一个激活函数,就变为非线性函数... 2. what  常用激活函数:(选取时保证可微) 1)tanh(双切正切函数) tanh在特征相差明显时的效果会很好,在循环过程中会不断扩大特征效果. 与 sigmoid 的区别是,tanh 是 0 均值的,因此实际应用中 ta

[转]神经网络-激活函数

神经网络之激活函数(Activation Function) 本博客仅为作者记录笔记之用,不免有很多细节不对之处. 还望各位看官能够见谅,欢迎批评指正. 更多相关博客请猛戳:http://blog.csdn.net/cyh_24 如需转载,请附上本文链接:http://blog.csdn.net/cyh_24/article/details/50593400 日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid.ReLU等等.不过好像忘了问自己一(n)件事: 为什么需要激

神经网络中激活函数总结

http://blog.csdn.net/whiup/article/details/52276110 1. sigmoid激活函数 sigmoid将一个实数输入映射到[0,1]范围内,如下图(左)所示.使用sigmoid作为激活函数存在以下几个问题: 梯度饱和.当函数激活值接近于0或者1时,函数的梯度接近于0.在反向传播计算梯度过程中:δ(l)=(W(l))Tδ(l+1)?f′(z(L)),每层残差接近于0,计算出的梯度也不可避免地接近于0.这样在参数微调过程中,会引起参数弥散问题,传到前几层

激活函数()(转)

神经网络之激活函数(Activation Function) 转载::http://blog.csdn.net/cyh_24 :http://blog.csdn.net/cyh_24/article/details/50593400 日常 coding 中,我们会很自然的使用一些激活函数,比如:sigmoid.ReLU等等.不过好像忘了问自己一(n)件事: 为什么需要激活函数? 激活函数都有哪些?都长什么样?有哪些优缺点? 怎么选用激活函数? 本文正是基于这些问题展开的,欢迎批评指正! (此图并

神经网络中各种激活函数比较

ReLU 激活函数: ReLu使得网络可以自行引入稀疏性,在没做预训练情况下,以ReLu为激活的网络性能优于其它激活函数. 数学表达式: $y = max(0,x)$ Sigmoid 激活函数: sigmoid 激活函数在神经网络学习方面,可以将重点特征推向中央区,将非重点特征推向两侧区. 数学表达式: $y = (1 + exp(-x))^{-1}$ Tanh 激活函数: Tanh 激活函数使得输出与输入的关系能保持非线性单调上升和下降关系,比sigmoid 函数延迟了饱和期,对神经网路的容错

常用激活函数比较

本文结构: 什么是激活函数 为什么要用 都有什么 sigmoid.ReLU.softmax的比较 如何选择 1. 什么是激活函数 如下图,在神经元中,输入的inputs通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function. 2. 为什么用 如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合. 如果使用的话,激活函数给神经元引入了非线性因素,使得神经网络可以任意逼近任何非线性函数,这样神经网络就可以应用到众

干货 | 深入理解深度学习中的激活函数

理解深度学习中的激活函数 在这个文章中,我们将会了解几种不同的激活函数,同时也会了解到哪个激活函数优于其他的激活函数,以及各个激活函数的优缺点. 1. 什么是激活函数? 生物神经网络是人工神经网络的起源.然而,人工神经网络(ANNs)的工作机制与大脑的工作机制并不是十分的相似.不过在我们了解为什么把激活函数应用在人工神经网络中之前,了解一下激活函数与生物神经网络的关联依然是十分有用的. 一个典型神经元的物理结构由细胞体.向其他神经元发送信息的轴突以及从其他神经元接受信号或信息的树突组成. ? 图