Interaction with sensor-augmented earphones, referred to as earables or hearables, represents a major area of earable research. Proximate to the head and reachable by hand, earables support diverse interactions and can detect multiple inputs simultaneously. Yet this diversity has fragmented research, complicating the tracking of developments. To address this, we introduce EarXplore, a curated, interactive online database on earable interaction research. Designed through a question-centered approach that guided the development of 33 criteria applied to annotate 118 studies and the structure of the platform, EarXplore comprises four integrated views: a Tabular View for structured exploration, a Graphical View for visual overviews, a Similarity View for conceptual links, and a Timeline View for scholarly trends. We demonstrate how the platform supports tailored exploration and filtering, and we leverage its capabilities to discuss gaps and opportunities. With community update mechanisms, EarXplore evolves with the field, serving as a living resource to accelerate future research


翻译:与传感器增强型耳机(称为耳戴式设备或可听戴设备)的交互是耳戴式研究的一个重要领域。由于靠近头部且便于手部操作,耳戴式设备支持多样化的交互方式,并能同时检测多种输入。然而,这种多样性使得研究趋于分散,增加了追踪进展的难度。为此,我们推出了EarXplore,一个经过精心策划、支持交互的在线耳戴式交互研究数据库。该平台采用以问题为中心的设计方法,基于此方法制定了33项标注标准(应用于118项研究的标注)并确定了平台结构。EarXplore包含四个集成视图:用于结构化探索的表格视图、用于可视化概览的图形视图、用于呈现概念关联的相似性视图以及用于展示学术趋势的时间线视图。我们展示了该平台如何支持定制化探索与筛选,并利用其功能讨论了当前研究的空白与机遇。通过社区更新机制,EarXplore将伴随该领域共同演进,作为一个持续更新的动态资源以加速未来研究。

0
下载
关闭预览

相关内容

【CVPR2022】EDTER:基于Transformer的边缘检测(CVPR2022)
专知会员服务
33+阅读 · 2022年3月18日
DeepMind:用PopArt进行多任务深度强化学习
论智
29+阅读 · 2018年9月14日
读论文Discriminative Deep Metric Learning for Face and KV
统计学习与视觉计算组
12+阅读 · 2018年4月6日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员