常见激活函数特点

落日映苍穹つ 2022-12-11 12:19 210阅读 0赞

sigmoid:输入值很大时对应的函数值接近1或0,处于函数的饱和区,导致梯度几乎为0,造成梯度消失问题

Relu:解决梯度消失问题,但是会出现dying relu现象,即训练过程中,有些神经元实际上已经”死亡“而不再输出任何数值

Leaky Relu:f = max(αx, x),解决dying relu问题,α的取值较大时比较小时的效果更好。它有一个衍生函数,parametric Leaky Relu,在该函数中α是需要去学习的

ELU:避免dying神经元,并且处处连续,从而加速SGD,但是计算比较复杂

激活函数的选择顺序:ELU>Leaky Relu及其变体>Relu>tanh>sigmoid

转自微信公众号,忘记哪篇文章了,如有原作看到,欢迎联系。

发表评论

表情:
评论列表 (有 0 条评论,210人围观)

还没有评论,来说两句吧...

相关阅读

    相关 常见激活函数特点

    sigmoid:输入值很大时对应的函数值接近1或0,处于函数的饱和区,导致梯度几乎为0,造成梯度消失问题 Relu:解决梯度消失问题,但是会出现dying relu现象,即训

    相关 激活函数

    深度学习中的激活函数导引 [我爱机器学习(52ml.net)][52ml.net] 2016年8月29日 [0][] > 作者:程程 > 链接:https://zh

    相关 常见神经网络激活函数讲解

    一.什么是激活函数 激活函数,并不是去激活什么,而是指如何把“激活的[神经元][Link 1]的特征”通过函数把特征保留并映射出来(保留特征,去除一些数据中是的冗余),这