Image generation models are usually personalized in practical uses in order to better meet the individual users' heterogeneous needs, but most personalized models lack explainability about how they are being personalized. Such explainability can be provided via visual features in generated images, but is difficult for human users to understand. Explainability in natural language is a better choice, but the existing approaches to explainability in natural language are limited to be coarse-grained. They are unable to precisely identify the multiple aspects of personalization, as well as the varying levels of personalization in each aspect. To address such limitation, in this paper we present a new technique, namely \textbf{FineXL}, towards \textbf{Fine}-grained e\textbf{X}plainability in natural \textbf{L}anguage for personalized image generation models. FineXL can provide natural language descriptions about each distinct aspect of personalization, along with quantitative scores indicating the level of each aspect of personalization. Experiment results show that FineXL can improve the accuracy of explainability by 56\%, when different personalization scenarios are applied to multiple types of image generation models.


翻译:图像生成模型在实际应用中通常需进行个性化处理,以更好地满足不同用户的异构需求,但多数个性化模型缺乏关于其如何实现个性化的可解释性说明。此类可解释性可通过生成图像中的视觉特征提供,但难以被人类用户理解。自然语言可解释性是更优选择,但现有自然语言可解释性方法仅限于粗粒度层面,无法精确识别个性化的多个维度及各维度中不同程度的个性化表现。为突破此局限,本文提出一种新技术——\textbf{FineXL},旨在为个性化图像生成模型实现\textbf{细}粒度自然语言可\textbf{可解释性}。FineXL能够针对个性化的每个独立维度提供自然语言描述,并辅以量化分数表征各维度的个性化程度。实验结果表明,当将不同个性化场景应用于多种类型的图像生成模型时,FineXL可将可解释性准确率提升56%。

0
下载
关闭预览

相关内容

LibRec 每周算法:LDA主题模型
LibRec智能推荐
29+阅读 · 2017年12月4日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
495+阅读 · 2023年3月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员