rnn/lstm能达到的效果,是否都可以cnn模型达到?

现在有一种说法,rnn/lstm能达到的效果,基本都可以用cnn模型达到,精度相仿,速度更快,这种说法是否正确,有什么局限,在自然语言和图像任务都适用…
关注者
25
被浏览
5,935
登录后你可以
不限量看优质回答私信答主深度交流精彩内容一键收藏

transformer需要很多数据去喂吧,我自己的实验里面(多标签文本分类,数据量1.8w左右,avg doc len 500+),transformer表现比较拉跨,CNN不错,BiLSTM目前比CNN差几个点(可能没有调好),self_attention + BiLSTM目前全场最高。