题目: Background Knowledge Injection forInterpretable Sequence Classification

摘要: 序列分类是一项有监督的学习任务,它建立模型来预测未知符号序列的类标签。尽管准确性是最重要的,但在某些情况下,可解释性是必须的。不幸的是,我们回溯了人类独立的可解释性度量,这样的权衡通常很难实现。我们介绍了一种新的序列学习算法,它结合了(i)线性分类器,已知线性分类器在预测能力和可解释性之间取得了很好的平衡,以及(ii)背景知识嵌入。我们将经典的子序列特征空间扩展为由嵌入字或图的背景知识生成的符号组,并利用这个新的特征空间学习线性分类器。提出了一种新的基于符号嵌入的符号特征集可解释性评价方法。从可穿戴设备和氨基酸序列分类中识别人类活动的实验表明,我们的分类方法保留了预测能力,同时提供了更多的可解释模型。

作者简介: Severin Gsponer,都柏林大学学院数据分析洞察中心博士生。

Luca Costabello,都柏林大学学院埃森哲实验室,研究科学家。等

成为VIP会员查看完整内容
14

相关内容

用已知某种或某些特性的样本作为训练集,以建立一个数学模型(如模式识别中的判别模型,人工神经网络法中的权重模型等),再用已建立的模型来预测未知样本,此种方法称为有监督学习。是最常见的机器学习方法。
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
202+阅读 · 2020年2月24日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
171+阅读 · 2020年2月13日
17篇必看[知识图谱Knowledge Graphs] 论文@AAAI2020
赛尔笔记 | Attention!注意力机制可解释吗?
哈工大SCIR
23+阅读 · 2019年9月27日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
前景目标检测的无监督学习
计算机视觉战队
9+阅读 · 2018年10月14日
论文浅尝 | Leveraging Knowledge Bases in LSTMs
开放知识图谱
6+阅读 · 2017年12月8日
Arxiv
20+阅读 · 2019年9月7日
Arxiv
22+阅读 · 2018年2月14日
Arxiv
6+阅读 · 2018年1月29日
VIP会员
相关VIP内容
《可解释的机器学习-interpretable-ml》238页pdf
专知会员服务
202+阅读 · 2020年2月24日
17篇知识图谱Knowledge Graphs论文 @AAAI2020
专知会员服务
171+阅读 · 2020年2月13日
微信扫码咨询专知VIP会员