2021年,CHI将首次来到日本,在东京西南方的横滨市举行。ACM (Association for Computing Machinery)CHI(计算系统人类因素会议)是人机交互领域最重要的国际会议。CHI(读作“kai”)是世界各地研究者和实践者齐聚一堂,探讨交互技术最新进展的地方。CHI被普遍推崇为人机交互领域最具声望的殿堂,每年吸引数千名国际参会者。
人工智能(AI)技术越来越多地用于在医疗保健、金融和就业等关键领域做出决策和执行自主任务。为了改进、竞争、建立适当的信任和更好地与人工智能系统交互,需要了解人工智能,这激发了学术界和公众对可解释人工智能(XAI)的极大兴趣。一方面,快速增长的XAI技术集合允许在AI系统中合并不同的解释风格。另一方面,通过人工智能解释来提供令人满意的用户体验需要以用户为中心的方法和跨学科研究来连接用户需求和技术支持。简而言之,XAI是一个对HCI研究有着日益增长的需求和令人兴奋的机会的领域。
本教程面向有志于开发和设计人工智能系统解释功能的研究人员和实践者,以及那些希望了解XAI文献中的趋势和核心主题的人。该课程将介绍一些可用的工具包,这些工具包有助于轻松地创建ML模型的解释,包括AIX 360[1],这是一个全面的工具包,提供有关该主题的技术和教育资源,如XAI概念介绍、python代码库和教程。
我们也将借鉴我们自己的设计和研究XAI系统的经验[3-8],以及从工业设计从业者[2]学习,讨论机会和挑战,把最先进的XAI技术融入AI系统,创造好的XAI用户体验,包括我们通过研究开发的“问题驱动的XAI设计流程”[9]。
https://hcixaitutorial.github.io/
参考文献:
[1] Arya, V., Bellamy, R. K., Chen, P. Y., Dhurandhar, A., Hind, M., Hoffman, S. C., … & Mourad, S. (2019). One explanation does not fit all: A toolkit and taxonomy of ai explainability techniques.
[2] Liao, Q. V., Gruen, D., & Miller, S. (2020). Questioning the AI: Informing Design Practices for Explainable AI User Experiences. CHI 2020
[3] Dodge, J., Liao, Q. V., Zhang, Y., Bellamy, R. K., & Dugan, C (2019). Explaining models: an empirical study of how explanations impact fairness judgmen. IUI 2019
[4] Zhang, Y., Liao, Q. V., & Bellamy, R. K. (2019). ffect of confidence and explanation on accuracy and trust calibration in ai-assisted decision making. . FAT* 2020
[5] Ghai, B., Liao, Q. V., Zhang, Y., Bellamy, R., & Mueller, K. (2021). Explainable Active Learning (XAL) Toward AI Explanations as Interfaces for Machine Teachers. CSCW 2021
[7] Narkar, S., Zhang, Y., Liao, Q. V., Wang, D., & Weisz, J. D. Model LineUpper: Supporting Interactive Model Comparison at Multiple Levels for AutoML. IUI 2021
[8] Ehsan, U., Liao, Q. V., Muller, M., Riedl, M. O., & Weisz, J. D. (2021). Expanding Explainability: Towards Social Transparency in AI systems. CHI 2021
[9] Liao, Q. V., Pribić, M., Han, J., Miller, S., & Sow, D. (2021). Question-Driven Design Process for Explainable AI User Experiences. Working Paper