While the increased integration of AI technologies into interactive systems enables them to solve an increasing number of tasks, the black-box problem of AI models continues to spread throughout the interactive system as a whole. Explainable AI (XAI) techniques can make AI models more accessible by employing post-hoc methods or transitioning to inherently interpretable models. While this makes individual AI models clearer, the overarching system architecture remains opaque. This challenge not only pertains to standard XAI techniques but also to human examination and conversational XAI approaches that need access to model internals to interpret them correctly and completely. To this end, we propose conceptually representing such interactive systems as sequences of structural building blocks. These include the AI models themselves, as well as control mechanisms grounded in literature. The structural building blocks can then be explained through complementary explanatory building blocks, such as established XAI techniques like LIME and SHAP. The flow and APIs of the structural building blocks form an unambiguous overview of the underlying system, serving as a communication basis for both human and automated agents, thus aligning human and machine interpretability of the embedded AI models. In this paper, we present our flow-based approach and a selection of building blocks as MATCH: a framework for engineering Multi-Agent Transparent and Controllable Human-centered systems. This research contributes to the field of (conversational) XAI by facilitating the integration of interpretability into existing interactive systems.


翻译:随着人工智能技术日益融入交互式系统,使其能够处理越来越多的任务,人工智能模型的黑箱问题也随之在整个交互系统中蔓延。可解释人工智能(XAI)技术通过采用事后解释方法或转向本质可解释模型,能够提升人工智能模型的可访问性。尽管这使得单个AI模型更为清晰,但整体系统架构仍然不透明。这一挑战不仅涉及标准的XAI技术,也包括需要访问模型内部以进行正确完整解释的人工检查与对话式XAI方法。为此,我们提出将此类交互系统概念化表示为结构性构建模块的序列。这些模块包括AI模型本身,以及基于文献的控制机制。结构性构建模块可通过互补的解释性构建模块(如LIME和SHAP等成熟XAI技术)进行解释。结构性构建模块的流程与API接口形成了底层系统的明确概览,为人类与自动化智能体提供了沟通基础,从而协调人类与机器对嵌入式AI模型的可解释性认知。本文提出基于流程的方法及精选构建模块,即MATCH框架:一种用于构建多智能体透明可控人本系统的工程框架。本研究通过促进可解释性融入现有交互系统,为(对话式)可解释人工智能领域作出贡献。

0
下载
关闭预览

相关内容

国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
495+阅读 · 2023年3月31日
Arxiv
25+阅读 · 2023年3月17日
VIP会员
相关论文
Arxiv
174+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
495+阅读 · 2023年3月31日
Arxiv
25+阅读 · 2023年3月17日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员