Recent papers have introduced a novel approach to explain why a Predictive Process Monitoring (PPM) model for outcome-oriented predictions provides wrong predictions. Moreover, they have shown how to exploit the explanations, obtained using state-of-the art post-hoc explainers, to identify the most common features that induce a predictor to make mistakes in a semi-automated way, and, in turn, to reduce the impact of those features and increase the accuracy of the predictive model. This work starts from the assumption that frequent control flow patterns in event logs may represent important features that characterize, and therefore explain, a certain prediction. Therefore, in this paper, we (i) employ a novel encoding able to leverage DECLARE constraints in Predictive Process Monitoring and compare the effectiveness of this encoding with Predictive Process Monitoring state-of-the art encodings, in particular for the task of outcome-oriented predictions; (ii) introduce a completely automated pipeline for the identification of the most common features inducing a predictor to make mistakes; and (iii) show the effectiveness of the proposed pipeline in increasing the accuracy of the predictive model by validating it on different real-life datasets.


翻译:解释、适应和重新训练:如何通过不同的解释方式提高PPM分类器的准确性 翻译后的摘要: 最近的研究已经引入了一种新方法,能够解释为什么面向结果的预测模型(PPM)提供了错误的预测,并展示了如何利用最先进的后续解释器获得解释,以半自动的方式识别最常见的特征,从而降低这些特征的影响,提高预测模型的准确性。本文假定事件日志中的常见控制流模式可能代表了表征某个预测的重要特征,并因此进行以下工作:(i)使用一种新的编码能够利用DECLARE约束在PPM中进行编码,并比较这种编码与最先进的PPM编码的有效性,特别是针对面向结果的预测任务;(ii)引入完全自动化的流水线,用于识别最常见的诱导预测器出错的特征;(iii)通过在不同的真实数据集上进行验证,展示所提出的流水线提高预测模型准确性的有效性。

0
下载
关闭预览

相关内容

【AAAI2022】多任务推荐中的跨任务知识提炼
专知会员服务
24+阅读 · 2022年2月22日
专知会员服务
42+阅读 · 2021年4月23日
论文浅尝 | Explainable Link Prediction in Knowledge Hypergraphs
开放知识图谱
1+阅读 · 2022年11月11日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
13+阅读 · 2021年3月29日
VIP会员
相关VIP内容
【AAAI2022】多任务推荐中的跨任务知识提炼
专知会员服务
24+阅读 · 2022年2月22日
专知会员服务
42+阅读 · 2021年4月23日
相关资讯
论文浅尝 | Explainable Link Prediction in Knowledge Hypergraphs
开放知识图谱
1+阅读 · 2022年11月11日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
笔记 | Deep active learning for named entity recognition
黑龙江大学自然语言处理实验室
24+阅读 · 2018年5月27日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
【推荐】深度学习目标检测概览
机器学习研究会
10+阅读 · 2017年9月1日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员