Measuring sentence similarity is a key research area nowadays as it allows machines to better understand human languages. In this paper, we proposed a Cross-Attention Siamese Network (CATsNet) to carry out the task of learning the semantic meanings of Chinese sentences and comparing the similarity between two sentences. This novel model is capable of catching non-local features. Additionally, we also tried to apply the long short-term memory (LSTM) network in the model to improve its performance. The experiments were conducted on the LCQMC dataset and the results showed that our model could achieve a higher accuracy than previous work.


翻译:衡量判决相似性是当今的一个关键研究领域,因为它使机器能够更好地理解人类语言。在本文中,我们提议建立一个跨注意力暹罗网络(CATsNet),以完成学习中文判决的语义含义和比较两句相似性的任务。这个新颖模式能够捕捉非本地特征。此外,我们还试图在模型中应用长期短期内存(LSTM)网络来改进其性能。实验是在LCQMC数据集上进行的,结果显示我们的模型可以比以前的工作更精确。

0
下载
关闭预览

相关内容

【中科院自动化所刘成林研究员】跨模态零样本文字识别
专知会员服务
33+阅读 · 2021年4月6日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
可解释的CNN
CreateAMind
17+阅读 · 2017年10月5日
自然语言处理 (三) 之 word embedding
DeepLearning中文论坛
19+阅读 · 2015年8月3日
Arxiv
7+阅读 · 2019年10月6日
Recurrent Fusion Network for Image Captioning
Arxiv
3+阅读 · 2018年7月31日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
6+阅读 · 2018年4月3日
Arxiv
3+阅读 · 2018年3月2日
VIP会员
Top
微信扫码咨询专知VIP会员