With the growing deployment of Vision-Language Models (VLMs), pre-trained on large image-text and video-text datasets, it is critical to equip users with the tools to discern when to trust these systems. However, examining how user trust in VLMs builds and evolves remains an open problem. This problem is exacerbated by the increasing reliance on AI models as judges for experimental validation, to bypass the cost and implications of running participatory design studies directly with users. Following a user-centred approach, this paper presents preliminary results from a workshop with prospective VLM users. Insights from this pilot workshop inform future studies aimed at contextualising trust metrics and strategies for participants' engagement to fit the case of user-VLM interaction.


翻译:随着基于大规模图像-文本和视频-文本数据集预训练的视觉语言模型(VLMs)的日益广泛应用,为用户提供判断何时信任这些系统的工具至关重要。然而,探究用户对VLMs的信任如何建立与演变仍是一个悬而未决的问题。由于越来越多地依赖AI模型作为实验验证的评判者,以规避直接与用户进行参与式设计研究的成本与影响,该问题进一步加剧。本文遵循以用户为中心的方法,报告了一项针对潜在VLM用户的工作坊的初步结果。该试点工作坊的见解为未来研究提供了方向,旨在将信任度量指标与参与者参与策略情境化,以适应用户-VLM交互的具体场景。

0
下载
关闭预览

相关内容

专知会员服务
41+阅读 · 2021年6月19日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员