Background: Causal relations in natural language (NL) requirements convey strong, semantic information. Automatically extracting such causal information enables multiple use cases, such as test case generation, but it also requires to reliably detect causal relations in the first place. Currently, this is still a cumbersome task as causality in NL requirements is still barely understood and, thus, barely detectable. Objective: In our empirically informed research, we aim at better understanding the notion of causality and supporting the automatic extraction of causal relations in NL requirements. Method: In a first case study, we investigate 14.983 sentences from 53 requirements documents to understand the extent and form in which causality occurs. Second, we present and evaluate a tool-supported approach, called CiRA, for causality detection. We conclude with a second case study where we demonstrate the applicability of our tool and investigate the impact of causality on NL requirements. Results: The first case study shows that causality constitutes around 28% of all NL requirements sentences. We then demonstrate that our detection tool achieves a macro-F1 score of 82% on real-world data and that it outperforms related approaches with an average gain of 11.06% in macro-Recall and 11.43% in macro-Precision. Finally, our second case study corroborates the positive correlations of causality with features of NL requirements. Conclusion: The results strengthen our confidence in the eligibility of causal relations for downstream reuse, while our tool and publicly available data constitute a first step in the ongoing endeavors of utilizing causality in RE and beyond.


翻译:背景:自然语言(NL)中的因果关系要求传达强烈的语义信息。自动提取此类因果信息使得多种使用案例,例如测试案例生成,但也需要可靠地发现因果关系。目前,这仍然是一个繁琐的任务,因为自然语言要求中的因果关系仍然几乎无法理解,因此也难以察觉。 目标:在我们根据经验进行的研究中,我们的目标是更好地理解因果关系的概念,支持自然语言要求中因果关系的自动提取。方法:在第一次案例研究中,我们从53个要求文件中调查了14.983个判决,以了解因果关系发生的程度和形式。第二,我们提出并评价一种工具支持的方法,称为CIRA,以发现因果关系。我们最后进行第二个案例研究时,我们展示了我们工具的适用性,并调查因果关系对自然语言要求的影响。结果:根据我们的经验,我们的第一个案例研究表明,因果关系大约占到NL要求中所有要求的28 %。然后,我们证明我们的检测工具在现实世界数据中达到了82%的RE1分,在实际数据和因果关系中,它超越了以工具支持当前第11号为正值的正值。

0
下载
关闭预览

相关内容

最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
88+阅读 · 2020年12月2日
【陈天奇】TVM:端到端自动深度学习编译器,244页ppt
专知会员服务
86+阅读 · 2020年5月11日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
已删除
将门创投
6+阅读 · 2019年6月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
4+阅读 · 2019年4月3日
Arxiv
3+阅读 · 2018年4月3日
Arxiv
7+阅读 · 2018年3月19日
Arxiv
6+阅读 · 2018年1月29日
VIP会员
相关VIP内容
最新《联邦学习Federated Learning》报告,Federated Learning
专知会员服务
88+阅读 · 2020年12月2日
【陈天奇】TVM:端到端自动深度学习编译器,244页ppt
专知会员服务
86+阅读 · 2020年5月11日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
152+阅读 · 2019年10月12日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
已删除
将门创投
6+阅读 · 2019年6月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Arxiv
4+阅读 · 2019年4月3日
Arxiv
3+阅读 · 2018年4月3日
Arxiv
7+阅读 · 2018年3月19日
Arxiv
6+阅读 · 2018年1月29日
Top
微信扫码咨询专知VIP会员