bp神经网络传递函数的激活函数和传递函数有什么区别?

【推荐】人工神经网络中的激活函数的作用具体是什么?为什么ReLu要好过于tanh和sigmoid函数?_机器学习研究会_传送门
【推荐】人工神经网络中的激活函数的作用具体是什么?为什么ReLu要好过于tanh和sigmoid函数?
机器学习研究会
点击上方“机器学习研究会”可以订阅哦摘要 知乎第一个问题:为什么引入非线性激励函数?如果不用激励函数(其实相当于激励函数是f(x) = x),在这种情况下你每一层输出都是上层输入的线性函数,很容易验证,无论你神经网络有多少层,输出都是输入的线性组合,与没有隐藏层效果相当,这种情况就是最原始的感知机(Perceptron)了。正因为上面的原因,我们决定引入非线性函数作为激励函数,这样深层神经网络就有意义了(不再是输入的线性组合,可以逼近任意函数)。最早的想法是sigmoid函数或者tanh函数,输出有界,很容易充当下一层输入(以及一些人的生物解释balabala)。第二个问题:为什么引入Relu呢?第一,采用sigmoid等函数,算激活函数时(指数运算),计算量大,反向传播求误差梯度时,求导涉及除法,计算量相对大,而采用Relu激活函数,整个过程的计算量节省很多。第二,对于深层网络,sigmoid函数反向传播时,很容易就会出现梯度消失的情况(在sigmoid接近饱和区时,变换太缓慢,导数趋于0,这种情况会造成信息丢失,参见 @Haofeng Li 答案的第三点),从而无法完成深层网络的训练。第三,Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生(以及一些人的生物解释balabala)。原文链接:https://www.zhihu.com/question/“完整内容”请点击【阅读原文】↓↓↓
觉得不错,分享给更多人看到
机器学习研究会 微信二维码
分享这篇文章
7月6日 23:13
机器学习研究会 最新头条文章
机器学习研究会 热门头条文章神经网络激活函数求导公式总结_百度文库
两大类热门资源免费畅读
续费一年阅读会员,立省24元!
神经网络激活函数求导公式总结
阅读已结束,下载本文需要
想免费下载更多文档?
定制HR最喜欢的简历
你可能喜欢深度学习中的主要激活函数有哪些?
我的图书馆
深度学习中的主要激活函数有哪些?
本文从激活函数的背景知识开始介绍,重点讲解了不同类型的非线性激活函数:Sigmoid、Tanh、ReLU、LReLU、PReLU、Swish,并详细介绍了这些函数的优缺点。1. 什么是激活函数?生物神经网络启发了人工神经网络的发展。但是,ANN 并非大脑运作的近似表示。不过在我们了解为什么在人工神经网络中使用激活函数之前,先了解生物神经网络与激活函数的相关性是很有用处的。典型神经元的物理结构包括细胞体(cell body)、向其他神经元发送信号的轴突(axon)和接收其他神经元发送的信号或信息的树突(dendrites)。生物神经网络上图中,红色圆圈代表两个神经元交流的区域。神经元通过树突接收来自其他神经元的信号。树突的权重叫作突触权值(synaptic weight),将和接收的信号相乘。来自树突的信号在细胞体内不断累积,如果信号强度超过特定阈值,则神经元向轴突传递信息。如未超过,则信号被该神经元「杀死」,无法进一步传播。激活函数决定是否传递信号。在这种情况下,只需要带有一个参数(阈值)的简单阶梯函数。现在,当我们学习了一些新的东西(或未学习到什么)时,一些神经元的阈值和突触权值会发生改变。这使得神经元之间产生新的连接,大脑学会新的东西。让我们再次理解这一概念,不过这次要使用人工神经元。上图中(x_1, ..., x_n)是信号向量,它和权重(w_1, ..., w_n)相乘。然后再累加(即求和 + 偏置项 b)。最后,激活函数 f 应用于累加的总和。注意:权重(w_1, ..., w_n)和偏置项 b 对输入信号进行线性变换。而激活函数对该信号进行非线性变换,这使得我们可以任意学习输入和输出之间的复杂变换。过去已经出现了很多种函数,但是寻找使神经网络更好更快学习的激活函数仍然是活跃的研究方向。2. 神经网络如何学习?我们有必要对神经网络如何学习有一个基本了解。假设网络的期望输出是 y(标注值),但网络实际输出的是 y'(预测值)。预测输出和期望输出之间的差距(y - y')可以转化成一种度量,即损失函数(J)。神经网络犯大量错误时,损失很高;神经网络犯错较少时,损失较低。训练目标就是找到使训练集上的损失函数最小化的权重矩阵和偏置向量。在下图中,损失函数的形状像一个碗。在训练过程的任一点上,损失函数关于梯度的偏导数是那个位置的梯度。沿偏导数预测的方向移动,就可以到达谷底,使损失函数最小化。使用函数的偏导数迭代地寻找局部极小值的方法叫作梯度下降。人工神经网络中的权重使用反向传播的方法进行更新。损失函数关于梯度的偏导数也用于更新权重。从某种意义上来说,神经网络中的误差根据求导的链式法则执行反向传播。这通过迭代的方式来实施,经过多次迭代后,损失函数达到极小值,其导数变为 0。我们计划在其他文章中介绍反向传播。这里主要指出的就是训练过程中出现的求导步骤。3. 激活函数的类型线性激活函数:这是一种简单的线性函数,公式为:f(x) = x。基本上,输入到输出过程中不经过修改。线性激活函数非线性激活函数:用于分离非线性可分的数据,是最常用的激活函数。非线性方程控制输入到输出的映射。非线性激活函数有 Sigmoid、Tanh、ReLU、LReLU、PReLU、Swish 等。下文中将详细介绍这些激活函数。非线性激活函数4. 为什么人工神经网络需要非线性激活函数?神经网络用于实现复杂的函数,非线性激活函数可以使神经网络随意逼近复杂函数。没有激活函数带来的非线性,多层神经网络和单层无异。现在我们来看一个简单的例子,帮助我们了解为什么没有非线性,神经网络甚至无法逼近异或门(XOR gate)、同或门(XNOR gate)等简单函数。下图是一个异或门函数。叉和圈代表了数据集的两个类别。当 x_1、x_2 两个特征一样时,类别标签是红叉;不一样,就是蓝圈。两个红叉对于输入值 (0,0) 和 (1,1) 都有输出值 0,两个蓝圈对于输入值 (0,1) 和 (1,0) 都有输出值 1。异或门函数的图示从上图中,我们可以看到数据点非线性可分。也就是说,我们无法画出一条直线使蓝圈和红叉分开来。因此,我们需要一个非线性决策边界(non-linear decision boundary)来分离它们。激活函数对于将神经网络的输出压缩进特定边界内也非常关键。神经元的输出值可以非常大。该输出在未经修改的情况下馈送至下一层神经元时,可以被转换成更大的值,这样过程就需要极大算力。激活函数的一个任务就是将神经元的输出映射到有界的区域(如,0 到 1 之间)。了解这些背景知识之后,我们就可以了解不同类型的激活函数了。5. 不同类型的非线性激活函数5.1 SigmoidSigmoid又叫作 Logistic 激活函数,它将实数值压缩进 0 到 1 的区间内,还可以在预测概率的输出层中使用。该函数将大的负数转换成 0,将大的正数转换成 1。数学公式为:下图展示了 Sigmoid 函数及其导数:Sigmoid 激活函数Sigmoid 导数Sigmoid 函数的三个主要缺陷:1. 梯度消失:注意:Sigmoid 函数趋近 0 和 1 的时候变化率会变得平坦,也就是说,Sigmoid 的梯度趋近于 0。神经网络使用 Sigmoid 激活函数进行反向传播时,输出接近 0 或 1 的神经元其梯度趋近于 0。这些神经元叫作饱和神经元。因此,这些神经元的权重不会更新。此外,与此类神经元相连的神经元的权重也更新得很慢。该问题叫作梯度消失。因此,想象一下,如果一个大型神经网络包含 Sigmoid 神经元,而其中很多个都处于饱和状态,那么该网络无法执行反向传播。2. 不以零为中心:Sigmoid 输出不以零为中心的。3. 计算成本高昂:exp() 函数与其他非线性激活函数相比,计算成本高昂。下一个要讨论的非线性激活函数解决了 Sigmoid 函数中值域期望不为 0 的问题。5.2 TanhTanh 激活函数Tanh 导数Tanh 激活函数又叫作双曲正切激活函数(hyperbolic tangent activation function)。与 Sigmoid 函数类似,Tanh 函数也使用真值,但 Tanh 函数将其压缩至-1 到 1 的区间内。与 Sigmoid 不同,Tanh 函数的输出以零为中心,因为区间在-1 到 1 之间。你可以将 Tanh 函数想象成两个 Sigmoid 函数放在一起。在实践中,Tanh 函数的使用优先性高于 Sigmoid 函数。负数输入被当作负值,零输入值的映射接近零,正数输入被当作正值。唯一的缺点是:1. Tanh 函数也会有梯度消失的问题,因此在饱和时也会「杀死」梯度。为了解决梯度消失问题,我们来讨论另一个非线性激活函数——修正线性单元(rectified linear unit,ReLU),该函数明显优于前面两个函数,是现在使用最广泛的函数。5.3 修正线性单元(ReLU)ReLU 激活函数ReLU 导数从上图可以看到,ReLU 是从底部开始半修正的一种函数。数学公式为:当输入 x&0 时,输出为 0,当 x& 0 时,输出为 x。该激活函数使网络更快速地收敛。它不会饱和,即它可以对抗梯度消失问题,至少在正区域(x& 0 时)可以这样,因此神经元至少在一半区域中不会把所有零进行反向传播。由于使用了简单的阈值化(thresholding),ReLU 计算效率很高。但是 ReLU 神经元也存在一些缺点:1. 不以零为中心:和 Sigmoid 激活函数类似,ReLU 函数的输出不以零为中心。2. 前向传导(forward pass)过程中,如果 x & 0,则神经元保持非激活状态,且在后向传导(backward pass)中「杀死」梯度。这样权重无法得到更新,网络无法学习。当 x = 0 时,该点的梯度未定义,但是这个问题在实现中得到了解决,通过采用左侧或右侧的梯度的方式。为了解决 ReLU 激活函数中的梯度消失问题,当 x & 0 时,我们使用 Leaky ReLU——该函数试图修复 dead ReLU 问题。下面我们就来详细了解 Leaky ReLU。5.4 Leaky ReLULeaky ReLU 激活函数该函数试图缓解 dead ReLU 问题。数学公式为:Leaky ReLU 的概念是:当 x & 0 时,它得到 0.1 的正梯度。该函数一定程度上缓解了 dead ReLU 问题,但是使用该函数的结果并不连贯。尽管它具备 ReLU 激活函数的所有特征,如计算高效、快速收敛、在正区域内不会饱和。Leaky ReLU 可以得到更多扩展。不让 x 乘常数项,而是让 x 乘超参数,这看起来比 Leaky ReLU 效果要好。该扩展就是 Parametric ReLU。5.5 Parametric ReLUPReLU 函数的数学公式为:其中是超参数。这里引入了一个随机的超参数,它可以被学习,因为你可以对它进行反向传播。这使神经元能够选择负区域最好的梯度,有了这种能力,它们可以变成 ReLU 或 Leaky ReLU。总之,最好使用 ReLU,但是你可以使用 Leaky ReLU 或 Parametric ReLU 实验一下,看看它们是否更适合你的问题。5.6 SwishSwish 激活函数该函数又叫作自门控激活函数,它近期由谷歌的研究者发布,数学公式为:根据论文(https://arxiv.org/abs/v1),Swish 激活函数的性能优于 ReLU 函数。根据上图,我们可以观察到在 x 轴的负区域曲线的形状与 ReLU 激活函数不同,因此,Swish 激活函数的输出可能下降,即使在输入值增大的情况下。大多数激活函数是单调的,即输入值增大的情况下,输出值不可能下降。而 Swish 函数为 0 时具备单侧有界(one-sided boundedness)的特性,它是平滑、非单调的。更改一行代码再来查看它的性能,似乎也挺有意思。
TA的最新馆藏
喜欢该文的人也喜欢& & 不一致。
& & 设想一个最简单粗暴的激活函数,设定一个阈值,超过阈值就输出1,否则输出0.
& & 好吧,这么简单粗暴的激活函数其实有一个专门的名字,叫阶跃函数。这名字是不是很形象?
& & 阶跃函数
& & 从图像上就可以看出,显然这个函数的表达能力是极差的。两条水平线,意味着神经网络的训练,也就是权重的调整,会长时间处于停滞的状态,也就是说一定时期内,无论怎么调权重,输出都是0,直到达到了阈值,然后输出一下子变1了,然后卡在那里不动了。
& & 所以,为了增强激活函数的表达力,我们需要一个随着权重调整输出会变动的激活函数。那我们就得到了线性函数。
& & 线性函数
& & 线性函数比阶跃函数好多了,至少权重调整会导致输出变动了。但线性函数的表达力还是很差:
& & 线性函数的导数是常数。而现在神经网络的训练都流行使用梯度下降。碰到线性函数这样的常数梯度,马上就歇菜了。
& & 线性函数的组合仍然是线性函数!现在都流行深度学习,所谓的深度学习,简单来说就是用具有很多层的网络来学习(注意,这是一个不精确的定义,姑且先这么理解)。那既然线性函数的组合仍然是线性函数,那不管网络有多深,最后都等效于单层网络,该网络的激活函数是原网络很多层的激活函数的线性组合。也就是说,碰到线性函数,深度学习歇菜了。
& & 我的天!现在最流行的梯度下降、深度学习都用不上,你说这线性激活函数还有什么前途可言!
& & 那怎么办呢?很简单,我们把线性函数搞成非线性的不就行了!非线性的话,导数就不会是常数了,这样梯度下降可以用了。然后,网络层也可以堆得很深了。问题一下子就解决了。
& & 怎么弄成非线性呢?
& & 把线性函数折一下就可以。
相关文章推荐

我要回帖

更多关于 bp神经网络传递函数 的文章

 

随机推荐