In this paper, a new perspective is suggested for unsupervised Ontology Matching (OM) or Ontology Alignment (OA) by treating it as a translation task. Ontologies are represented as graphs, and the translation is performed from a node in the source ontology graph to a path in the target ontology graph. The proposed framework, Truveta Mapper (TM), leverages a multi-task sequence-to-sequence transformer model to perform alignment across multiple ontologies in a zero-shot, unified and end-to-end manner. Multi-tasking enables the model to implicitly learn the relationship between different ontologies via transfer-learning without requiring any explicit cross-ontology manually labeled data. This also enables the formulated framework to outperform existing solutions for both runtime latency and alignment quality. The model is pre-trained and fine-tuned only on publicly available text corpus and inner-ontologies data. The proposed solution outperforms state-of-the-art approaches, Edit-Similarity, LogMap, AML, BERTMap, and the recently presented new OM frameworks in Ontology Alignment Evaluation Initiative (OAEI22), offers log-linear complexity in contrast to quadratic in the existing end-to-end methods, and overall makes the OM task efficient and more straightforward without much post-processing involving mapping extension or mapping repair.


翻译:在本文中,通过将本部匹配(OM)或本部对齐(OA)作为翻译任务处理,为不受监督的本部匹配(OM)或本部匹配(OA)提出了一个新视角。本文件将本部匹配(OM)或本部对齐(OA)作为翻译任务处理。本单元以图表的形式表示本部匹配(OA),本单元将本部的本部图图图图图中的一个节点转化为目标本部图图图图中的一个路径。拟议的框架(Truveta Mappper(TM))将多任务序列序列到序列序列变后变式变式模型,以便以零发、统一和端到端到端的方式对多个本部的本部进行对齐。多任务变式使模型能够通过转移学习隐含地学习不同本科之间的关系,而无需任何明确的跨科手动标签数据。这也使得所拟订的框架能够超越运行时惯性拉伸缩和校准质量的现有解决方案。本模型只对公开提供的文本和内式数据进行预先培训和微调。拟议解决办法超越了最新设计的新方法、编辑-智能后比较方法、图表、地图地图地图地图地图图、地图图、地图地图图、地图地图图、地图地图图、地图图、内部图和系统化结构化结构化结构化、内部结构化结构化结构化、内部结构化、内部结构化、内部结构、内部结构化、内部结构、内部结构化、内部结构、内部结构、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化结构化、内部结构化、内部结构化、内部结构化结构化结构化、内部结构化、内部结构化结构化结构化结构化、内部结构化结构化结构化结构化、内部结构化、内部结构化、内部结构化、内部结构化、内部结构化结构化结构化结构化、内部结构化结构化结构化结构化、内部结构化、内部结构化结构化、内部结构化结构化结构化、内部结构化结构化方法、内部结构化方法。

0
下载
关闭预览

相关内容

【AAAI2021】知识增强的视觉-语言预训练技术 ERNIE-ViL
专知会员服务
26+阅读 · 2021年1月29日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
40+阅读 · 2019年10月9日
征稿 | International Joint Conference on Knowledge Graphs (IJCKG)
开放知识图谱
2+阅读 · 2022年5月20日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年3月13日
Arxiv
17+阅读 · 2021年2月15日
Arxiv
19+阅读 · 2018年5月17日
Arxiv
10+阅读 · 2017年7月4日
VIP会员
相关资讯
征稿 | International Joint Conference on Knowledge Graphs (IJCKG)
开放知识图谱
2+阅读 · 2022年5月20日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ACL2020放榜!】事件抽取、关系抽取、NER、Few-Shot 相关论文整理
深度学习自然语言处理
18+阅读 · 2020年5月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
Zero-Shot Learning相关资源大列表
专知
52+阅读 · 2019年1月1日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
相关基金
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员