In this paper, we describe our shared task submissions for Subtask 2 in CASE-2022, Event Causality Identification with Casual News Corpus. The challenge focused on the automatic detection of all cause-effect-signal spans present in the sentence from news-media. We detect cause-effect-signal spans in a sentence using T5 -- a pre-trained autoregressive language model. We iteratively identify all cause-effect-signal span triplets, always conditioning the prediction of the next triplet on the previously predicted ones. To predict the triplet itself, we consider different causal relationships such as cause$\rightarrow$effect$\rightarrow$signal. Each triplet component is generated via a language model conditioned on the sentence, the previous parts of the current triplet, and previously predicted triplets. Despite training on an extremely small dataset of 160 samples, our approach achieved competitive performance, being placed second in the competition. Furthermore, we show that assuming either cause$\rightarrow$effect or effect$\rightarrow$cause order achieves similar results. Our code and model predictions will be released online.
翻译:在本文中,我们描述了我们在CASE-2022,事件原因识别与临时新闻Corpus的CASE-2022中为Subtask 2提交的共同任务文件。 挑战集中于自动检测来自新闻媒体的句子中的所有因果关系。 我们用T5 -- -- 一个经过预先训练的自动反向语言模型 -- -- 在T5的句子中检测出因果关系。 我们反复辨别了所有因果关系-信号跨三重, 总是将下一个三重预测设定在先前预测的三重。 为了预测三重事件本身, 我们考虑了不同的因果关系, 如导致一美元/ 直径效应$\rightarrowIffective $\rightrowleignal。 每个三重部件都是通过以该句为条件的语言模型生成的, 目前的三重元中的前几个部分, 以及先前预测的三重符号。 尽管在160个样本的极小数据集上进行了培训, 我们的方法达到了竞争性的性表现, 在竞争中排在第二位。 此外,我们证明假设一个原因为一元或效果$\ rightrrowomall $\ rightarrowomroll $, 因为秩序将产生类似的结果。 我们的代码和模型预测将在网上发布一个类似的结果。 我们的代码和模型预测将在网上发布。 我们的代码和模型预测将在网上发布。