线性修正单元(ReLU), 又称线性整流函数, 是一种人工神经网络中常用的 激活函数 (activation function),通常指代以斜坡函数及其变种为代表的非线性函数。
没有数据了, 换个别的吧!
参考链接
微信扫码咨询专知VIP会员