神经网络是一个函数激活函数tansig函数,和sigmod函数的区别?求告知!

版权声明:本文为博主原创文章未经博主允许不得转载。 /qq_/article/details/

Relu是一个非常优秀的激活哈数相比较于传统的Sigmoid函数,有三个作用:
然后可以得到sigmoid的导数
结论就是sigmoid的导数只有在0附近的时候有比较好的激活性在正负饱和区的梯度都接近于0,所以这会造成梯度弥散而relu函数在大于0的部分梯度为常数,所以不会产生梯度弥散现象第二,relu函数在负半区的导数为0 所以一旦神经元激活值进入负半区,那么梯度就会为0也就是说这个神经元不会经历训练,即所谓的稀疏性第三,relu函数的导数计算更快程序实现就是一个if-else语句,而sigmoid函数要进行浮点四则运算综上,relu是一个非常优秀的激活函數鄙人的最爱

本博客搬自我在知乎上的回答

}

授予每个自然月内发布4篇或4篇以仩原创或翻译IT博文的用户不积跬步无以至千里,不积小流无以成江海程序人生的精彩需要坚持不懈地积累!

}

神经网络中引入激活函数sigmoid作用是邏辑回归(logistic regression)引入非线性化。数学中的标准sigmoid输出范围是(0,1)sigmoid的数学定义:


}

我要回帖

更多关于 神经网络是一个函数 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信