Artificial intelligence (AI)-driven augmented reality (AR) systems are becoming increasingly integrated into daily life, and with this growth comes a greater need for explainability in real-time user interactions. Traditional explainable AI (XAI) methods, which often rely on feature-based or example-based explanations, struggle to deliver dynamic, context-specific, personalized, and human-centric insights for everyday AR users. These methods typically address separate explainability dimensions (e.g., when, what, how) with different explanation techniques, resulting in unrealistic and fragmented experiences for seamless AR interactions. To address this challenge, we propose PILAR, a novel framework that leverages a pre-trained large language model (LLM) to generate context-aware, personalized explanations, offering a more intuitive and trustworthy experience in real-time AI-powered AR systems. Unlike traditional methods, which rely on multiple techniques for different aspects of explanation, PILAR employs a unified LLM-based approach that dynamically adapts explanations to the user's needs, fostering greater trust and engagement. We implement the PILAR concept in a real-world AR application (e.g., personalized recipe recommendations), an open-source prototype that integrates real-time object detection, recipe recommendation, and LLM-based personalized explanations of the recommended recipes based on users' dietary preferences. We evaluate the effectiveness of PILAR through a user study with 16 participants performing AR-based recipe recommendation tasks, comparing an LLM-based explanation interface to a traditional template-based one. Results show that the LLM-based interface significantly enhances user performance and experience, with participants completing tasks 40% faster and reporting greater satisfaction, ease of use, and perceived transparency.


翻译:人工智能驱动的增强现实系统正日益融入日常生活,随着这种增长,实时用户交互中的可解释性需求也日益凸显。传统的可解释人工智能方法通常依赖基于特征或基于实例的解释,难以为日常AR用户提供动态、情境特定、个性化且以人为本的洞察。这些方法通常采用不同的解释技术处理分离的可解释性维度,导致AR无缝交互体验呈现不自然且碎片化的状态。为应对这一挑战,我们提出PILAR——一种创新框架,该框架利用预训练大语言模型生成情境感知的个性化解释,为实时AI驱动的AR系统提供更直观可信的体验。与传统方法依赖多种技术处理不同解释维度不同,PILAR采用统一的基于LLM的方法,动态适应用户需求生成解释,从而促进更高的信任度与参与感。我们在实际AR应用中实现了PILAR概念,开发了开源原型系统,该系统整合了实时目标检测、食谱推荐以及基于LLM的个性化食谱解释功能,能根据用户饮食偏好生成定制化说明。我们通过包含16名参与者的用户研究评估PILAR有效性,参与者执行基于AR的食谱推荐任务,对比基于LLM的解释界面与传统模板界面。结果表明:基于LLM的界面显著提升了用户性能与体验,参与者任务完成速度加快40%,并报告了更高的满意度、易用性及感知透明度。

0
下载
关闭预览

相关内容

ChatAug: 利用ChatGPT进行文本数据增强
专知会员服务
81+阅读 · 2023年3月4日
LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
11+阅读 · 2013年12月31日
Top
微信扫码咨询专知VIP会员