首页 / 科技百科 / 正文

神经网络的激励函数

时间:2024-09-08 09:02:33

神经网络 激励函数

激励函数:作用是 提供规模化的非线性化能力 ,使得神经网络可以任意逼近任何非线性函数,模拟神经元被激发的状态变化。如果不用激励函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出都是输入的线性组合。目前主要有三种常用的激励函数:

1. Sigmoid激励函数 : 也叫 Logistic 函数,用于隐层神经元输出,取值范围为(0,1),可以用来做二分类。

2. Thah激励函数 : 读作Hyperbolic Tangent,也称为双切正切函数,取值范围为[-1,1]。

3. ReLU激励函数(Rectified Linear Unit) : 输入信号 <0 时,输出都是0,>0 的情况下,输出等于输入。

《神经网络的激励函数》不代表本网站观点,如有侵权请联系我们删除

点击排行

成长网提供支持 骄阳网版权所有 主办单位:广州小漏斗信息技术有限公司 粤ICP备20006251号

联系我们 关于我们 版权申明