近年来,研究人员通过文本上下文信息分析获得更好的词向量。ELMo是其中的翘楚,在多个任务、多个数据集上都有显著的提升。所以,它是目前最好用的词向量,the-state-of-the-art的方法。这篇文章发表在2018年的NAACL上,outstanding paper award。下面就简单介绍一下这个“神秘”的词向量模型。
使用上下文信息优化CTR预估中的特征嵌入
机器学习与推荐算法
0+阅读 · 2021年8月20日
主流Embedding技术解析
DataFunTalk
1+阅读 · 2020年12月1日
用万字长文聊一聊 Embedding 技术
图与推荐
0+阅读 · 2020年11月25日
图解 BERT 预训练模型!
AINLP
1+阅读 · 2020年11月9日
【NLP专栏】图解 BERT 预训练模型!
深度学习自然语言处理
0+阅读 · 2020年11月3日
从word2vec开始,说下GPT庞大的家族系谱
机器之心
1+阅读 · 2020年10月4日
按照时间线帮你梳理10种预训练模型
AINLP
1+阅读 · 2020年9月25日
按照时间线帮你梳理10种预训练模型
深度学习自然语言处理
1+阅读 · 2020年9月19日
一文盘点预训练神经语言模型
PaperWeekly
0+阅读 · 2020年8月1日
ACL 2020 | 基于多级排序学习的层次化实体标注
PaperWeekly
0+阅读 · 2020年6月12日
【Papernotes】BERT
AINLP
0+阅读 · 2020年6月11日
60分钟详解Bert原理及京东商城的应用实践
专知
0+阅读 · 2020年5月28日
微信扫码咨询专知VIP会员