This paper presents Finger Based Technique (FBT) prototypes, a novel interaction system for blind users, which is especially designed and developed for non-visual touch screen devices and their applications. The FBT prototypes were developed with virtual keys to be identified based on finger holding positions. Two different models namely the single digit FBT and double digit FBT were propounded. FBT technique were applied using two different phone dialer applications: a single digit virtual key for the single digit FBT model and a double digit virtual key with audio feedback enabling touch as input gesture for the later one. An evaluation with 7 blind participants showed that single digit FBT was significantly faster and more accurate than double digit FBT. In addition to that, single digit FBT was found to be much faster than iPhone VoiceOver entry speeds in performing similar tasks. Furthermore, our research also suggests 11 accessible regions for quick access or navigation in flat touch screen based smart phones for blind users. These accessible regions will serve as a usability design framework and facilitate the developers to place the widget for the blind user for dynamic interaction with the touch screen devices. As far as is known to the authors, this is a novel suggestion.


翻译:本文展示了基于手指的技术原型(FBT),这是针对盲人用户的一种新型互动系统,专门为非视觉触摸屏幕设备及其应用专门设计和开发的。FBT原型是用基于手指持有位置的虚拟钥匙开发的。两种不同的模型,即单位数字FBT和双位FBT。FBT技术应用了两种不同的电话拨号应用程序:单位数字FBT型号的单位虚拟密钥和带有音频反馈的双位虚拟密钥,能够作为后一位输入手势。由7名盲人参加的一项评价表明,单位数字FBT比双位数字FBT快得多,而且比双位数字FBT要精确得多。此外,在从事类似任务时,发现单位数字FBT比 iPhone VoiceOver 进入速度要快得多。此外,我们的研究还提出了11个无障碍区域,供盲人用户在基于平端触摸屏的智能手机上快速访问或导航。这些可使用的区域将作为一个可用性设计框架,便利于开发者与开发者放置与触摸摸屏设备进行动态互动互动的部件。最新建议是已知的。

0
下载
关闭预览

相关内容

IFIP TC13 Conference on Human-Computer Interaction是人机交互领域的研究者和实践者展示其工作的重要平台。多年来,这些会议吸引了来自几个国家和文化的研究人员。官网链接:http://interact2019.org/
【阿里巴巴】 AI编译器,AI Compiler @ Alibaba,21页ppt
专知会员服务
44+阅读 · 2019年12月22日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
Arxiv
35+阅读 · 2019年11月7日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
Arxiv
5+阅读 · 2018年10月4日
QuAC : Question Answering in Context
Arxiv
4+阅读 · 2018年8月21日
Arxiv
11+阅读 · 2018年1月11日
Arxiv
3+阅读 · 2012年11月20日
VIP会员
相关VIP内容
相关资讯
计算机 | 入门级EI会议ICVRIS 2019诚邀稿件
Call4Papers
10+阅读 · 2019年6月24日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
计算机类 | 期刊专刊截稿信息9条
Call4Papers
4+阅读 · 2018年1月26日
人工智能 | 国际会议/SCI期刊约稿信息9条
Call4Papers
3+阅读 · 2018年1月12日
【推荐】用Python/OpenCV实现增强现实
机器学习研究会
15+阅读 · 2017年11月16日
【推荐】YOLO实时目标检测(6fps)
机器学习研究会
20+阅读 · 2017年11月5日
【推荐】深度学习目标检测全面综述
机器学习研究会
21+阅读 · 2017年9月13日
【今日新增】IEEE Trans.专刊截稿信息8条
Call4Papers
7+阅读 · 2017年6月29日
相关论文
Arxiv
35+阅读 · 2019年11月7日
Self-Driving Cars: A Survey
Arxiv
41+阅读 · 2019年1月14日
Arxiv
5+阅读 · 2018年10月4日
QuAC : Question Answering in Context
Arxiv
4+阅读 · 2018年8月21日
Arxiv
11+阅读 · 2018年1月11日
Arxiv
3+阅读 · 2012年11月20日
Top
微信扫码咨询专知VIP会员