第三,Relu会使一部分神经元的输出为0,这样就造成了网络的稀疏性,并且减少了参数的相互依存关系,缓解了过拟合问题的发生。
各种激活函数曲线:
caffe ReLU / Rectified-Linear and Leaky-ReLU 及参数设置
ReLU是目前使用最多的激活函数,主要因为其收敛更快,并且能保持同样效果。
标准的ReLU函数为max(x, 0),当x>0时,输出x; 当x<=0时,输出0
f(x)=max(x,0)
层类型:ReLU
可选参数:
negative_slope:默认为0. 对标准的ReLU函数进行变化,如果设置了这个值,那么数据为负数时,就不再设置为0,而是用原始数据乘以negative_slope
layer {
name: "relu1"
type: "ReLU"
bottom: "pool1"
top: "pool1"
}
RELU层支持in-place计算,这意味着bottom的输出和输入相同以避免内存的消耗。
参考:
Begin Again https://www.zhihu.com/question/29021768/answer/43488153
Physcalの大魔導書 http://www.cnblogs.com/neopenx/p/4453161.html
denny402 http://www.cnblogs.com/denny402/p/5072507.html
因篇幅问题不能全部显示,请点此查看更多更全内容