Data can be visually represented using visual channels like position, length or luminance. An existing ranking of these visual channels is based on how accurately participants could report the ratio between two depicted values. There is an assumption that this ranking should hold for different tasks and for different numbers of marks. However, there is little existing work testing assumption, especially given that visually computing ratios is relatively unimportant in real-world visualizations, compared to seeing, remembering, and comparing trends and motifs, across displays that almost universally depict more than two values. We asked participants to immediately reproduce a set of values from memory. With a Bayesian multilevel modeling approach, we observed how the relevant rank positions of visual channels shift across different numbers of marks (2, 4 or 8) and for bias, precision, and error measures. The ranking did not hold, even for reproductions of only 2 marks, and the new ranking was highly inconsistent for reproductions of different numbers of marks. Other factors besides channel choice far more influence on performance, such as the number of values in the series (e.g. more marks led to larger errors), or the value of each mark (e.g. small values are systematically overestimated). Recall was worse for displays with 8 marks than 4, consistent with established limits on visual memory. These results show that we must move beyond two-value ratio judgments as a baseline for ranking the quality of a visual channel, including testing new tasks (detection of trends or motifs), timescales (immediate computation, or later comparison), and the number of values (from a handful, to thousands).


翻译:可以通过位置、 长度或亮度等视觉频道来显示数据。 这些视觉频道的现有排名基于参与者如何精确地报告两个描述的值之间的比例。 假设这种排名应该用于不同的任务和不同的标记数量。 但是, 现有的工作测试假设很少, 特别是考虑到在现实世界的视觉化中,视觉计算比率相对不重要, 与视觉、 记忆和比较不同, 显示的显示几乎普遍地描述两个以上的值。 我们要求参与者立即从记忆中复制一套数值。 通过一种巴伊西亚多级别模型方法, 我们观察视觉频道的相关级别位置如何在不同数量( 2、 4 或 8) 之间移动, 以及偏差、 偏差、 精确和误差衡量。 现有的工作测试假设, 即使在复制2 马克时, 新的排序也非常不一致。 其它因素除了频道选择对业绩的影响要大得多, 例如系列中的数值( 例如, 更多的标记导致更大的误差), 我们观察了不同的视觉频道的相关级别位置位置位置位置位置位置, 或者每个标记的数值值值值比 更差( ), 直观的排序, 直观的顺序的排序,, 直观的比 直观的比 直观的比 的 直观 直观 的 的 的 的 直观的 直观 的 的 的 的 直观的 直观的 直观的 直观 直观 的 的 的 的 的 的 的 的 直观 直观 的 的 的 的 的 的 直观 的 直观 的 的 直观 的 的 直观 直观 的 的 的 的 的 的 的 的 直观 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 的 直观 直观 直观 直观 的 直观 的 的 的 的 直 直 的 的 的 的 的 的 直 直 直 直 直 直 等 直 直 直 直 直 直 直 直

0
下载
关闭预览

相关内容

专知会员服务
50+阅读 · 2021年8月8日
【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
【Manning新书】现代Java实战,592页pdf
专知会员服务
99+阅读 · 2020年5月22日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
0+阅读 · 2021年9月24日
Arxiv
0+阅读 · 2021年9月22日
Neural Architecture Search without Training
Arxiv
10+阅读 · 2021年6月11日
Arxiv
4+阅读 · 2020年3月27日
Revealing the Dark Secrets of BERT
Arxiv
4+阅读 · 2019年9月11日
VIP会员
相关VIP内容
专知会员服务
50+阅读 · 2021年8月8日
【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
商业数据分析,39页ppt
专知会员服务
160+阅读 · 2020年6月2日
【Manning新书】现代Java实战,592页pdf
专知会员服务
99+阅读 · 2020年5月22日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
人工智能 | 国际会议信息10条
Call4Papers
5+阅读 · 2018年12月18日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员