Smartphones are a crucial aspect of routine life in the modern world, and viewing information graphics such as charts becomes common practice for many unassuming tasks. However, for the vision impaired, accessing graphical material presents many difficulties. Android smartphones usually come preinstalled with Google Talkback as a default screen-reader, which attempts to cater for the visually impaired by providing supplementary auditory information when interfacing with supported applications. Still, the crux of this situation is that screen-readers rely on developers correctly implementing the required accessibility guidelines for UI elements, such as charts. Unfortunately, according to the empirical study, more than 88% of the charts found in real-world Android applications are inaccessible to a vision-impaired user, contributing to the wider accessibility issues faced by vision impaired users of smartphones. These accessibility issues can be attributed to a knowledge gap in considering possible disabilities for users, and time costs for developers. To overcome these challenges, this study proposes CAM (Chart Accessibility Module), which aims to reduce time and bridge the knowledge gap required to implement chart accessibility. CAM has two steps, generating chart summary using raw data and feeding it to the screen-reader using the Android Accessibility API for MPAndroidChart library. The user study results show that CAM significantly reduces difficulty and time taken to implement accessibility for application developers.


翻译:智能手机是现代世界日常生活的一个重要方面,而浏览图表等信息图形(如图表)则成为许多不假定的任务的常见做法。然而,对于视力受损者来说,访问图形材料会带来许多困难。对于视觉受损者来说,使用图形材料的难度超过88%。机器人智能手机通常作为默认屏幕阅读器与Google Rightback一起预先安装,作为默认屏幕阅读器,试图通过在与辅助应用程序接口时提供补充听觉信息满足视力受损者的需求。然而,这种情形的关键在于屏幕阅读者依赖开发者正确执行UI要素(如图表)所需的无障碍准则。不幸的是,根据实证研究,在现实世界和机器人应用中发现的图表中有超过88%无法进入,这为视力受损者作为默认的屏幕阅读器用户所面临的更广泛的无障碍问题作出了贡献。这些无障碍问题可归因于在考虑用户可能的残疾和开发者的时间成本方面存在着知识差距。为了克服这些挑战,本研究报告建议CAM(Cart 无障碍模块)旨在缩短时间和弥合实施图表无障碍所需的知识差距。不幸的是,CAM有两个步骤,即使用原始数据访问障碍,制作图表的图表的图表用户访问者将使用AMADRLLLLL 测试的难度缩小其应用过程。

0
下载
关闭预览

相关内容

【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
专知会员服务
123+阅读 · 2020年9月8日
专知会员服务
17+阅读 · 2020年9月6日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
LibRec 精选:连通知识图谱与推荐系统
LibRec智能推荐
3+阅读 · 2018年8月9日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
13+阅读 · 2021年3月3日
VIP会员
相关VIP内容
【如何做研究】How to research ,22页ppt
专知会员服务
108+阅读 · 2021年4月17日
专知会员服务
123+阅读 · 2020年9月8日
专知会员服务
17+阅读 · 2020年9月6日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
151+阅读 · 2019年10月12日
开源书:PyTorch深度学习起步
专知会员服务
50+阅读 · 2019年10月11日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
LibRec 精选:推荐系统的论文与源码
LibRec智能推荐
14+阅读 · 2018年11月29日
LibRec 精选:连通知识图谱与推荐系统
LibRec智能推荐
3+阅读 · 2018年8月9日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
推荐|Andrew Ng计算机视觉教程总结
全球人工智能
3+阅读 · 2017年11月23日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Top
微信扫码咨询专知VIP会员