线性修正单元(ReLU), 又称线性整流函数, 是一种人工神经网络中常用的 激活函数 (activation function),通常指代以斜坡函数及其变种为代表的非线性函数。
推荐|自然语言处理的6大核心技术点!
全球人工智能
5+阅读 · 2017年11月14日
参考链接
微信扫码咨询专知VIP会员