作者:Zhanghao Wu等
机器之心编译
参与:小舟、魔王
Transformer 的高性能依赖于极高的算力,这让移动端 NLP 严重受限。在不久之前的 ICLR 2020 论文中,MIT 与上海交大的研究人员提出了一种高效的移动端 NLP 架构 Lite Transformer,向在边缘设备上部署移动级 NLP 应用迈进了一大步。
论文地址:https://arxiv.org/abs/2004.11886v1
GitHub 地址:https://github.com/mit-han-lab/lite-transformer