In a recent study we have shown, that a large number of claims about model transformation languages have not yet been substantiated and are made without much context to be able to critically asses their merit or built meaningful empirical studies around them. The objective of our work was to elicit the reasoning, influences and background knowledge of researchers and practitioners that lead them to assuming benefits or drawbacks of model transformation languages compared to general purpose languages for the task of developing model transformations. For this we put our focus on the following 6 properties that have strong relevance for wider adoption: Ease of writing, Comprehensibility, Tool Support, Practical Expressiveness, Productivity, Reuse and Maintainability. We conducted a large-scale interview study involving 56 participants from research and industry. Interviewees were presented with claims about model transformation languages and were asked to provide reasons as to why they believe or dispute these claims. Our interviews show, that the general purpose expressiveness of GPLs, the domain specific capabilities of MTLs and the tooling of MTLs all have strong influences on how people view properties of model transformation languages. Their specific influences differ depending on different concrete characteristics, such as, for example, Bidirectionality or Debugging Tooling. Moreover, the choice of MTL, the use case for which a transformation should be developed as well as the skills of involved stakeholders have an indirect effect on MTL properties by changing the contextual circumstances under examination. We conclude that there is a broad body of experience of interviews that suggests positive and negative influences for properties of MTLs. However, our qualitative data suggests that much needs to be done in order to convey the viability of model transformation languages.


翻译:在最近的一项研究中,我们表明,大量关于模式转换语言的主张尚未得到证实,而且没有多少背景来评估其优点或围绕这些用语进行有意义的实证研究。我们的工作目标是,征求研究人员和从业人员的推理、影响和背景知识,使他们能承担模式转变语言的好处或缺点,而与开发模式转变任务的通用语言相比,这些理论转变语言与一般目的语言的利弊。为此,我们把重点放在以下6种与广泛采用密切相关的特性上:写作简便、可理解性、工具支持、实际表达性、生产率、再使用性和可维持性。我们进行了大规模访谈研究,有56名来自研究和工业界的参与者参与。受访者得到了关于模式转变语言的主张、影响和背景知识,并被要求说明为什么他们相信或反驳这些主张。我们的访谈表明,GPL的总体目标、MTL的域特定能力以及MTL的工具都对人们如何看待模式转变语言的特性有强烈影响。他们的具体影响取决于不同的具体特性,例如,Birdalal-Laking violal creal be view the viewal view the view the view view view viewal view viollth violld.

0
下载
关闭预览

相关内容

100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
164+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
3+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
【ICIG2021】Latest News & Announcements of the Industry Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年7月29日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
19+阅读 · 2021年6月15日
Arxiv
103+阅读 · 2021年6月8日
Arxiv
20+阅读 · 2020年6月8日
VIP会员
相关资讯
ACM MM 2022 Call for Papers
CCF多媒体专委会
5+阅读 · 2022年3月29日
AIART 2022 Call for Papers
CCF多媒体专委会
1+阅读 · 2022年2月13日
【ICIG2021】Latest News & Announcements of the Tutorial
中国图象图形学学会CSIG
3+阅读 · 2021年12月20日
【ICIG2021】Latest News & Announcements of the Plenary Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年11月1日
【ICIG2021】Latest News & Announcements of the Industry Talk2
中国图象图形学学会CSIG
0+阅读 · 2021年7月29日
【ICIG2021】Latest News & Announcements of the Industry Talk1
中国图象图形学学会CSIG
0+阅读 · 2021年7月28日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员