Optimal feedback control (OFC) is a theory from the motor control literature that explains how humans move their body to achieve a certain goal, e.g., pointing with the finger. OFC is based on the assumption that humans aim to control their body optimally, within the constraints imposed by body, environment, and task. In this paper, we explain how this theory can be applied to understanding Human-Computer Interaction. We propose that in this case, the dynamics of the human body and computer can be interpreted as a single dynamical system. The state of this system is controlled by the user via muscle control signals, and estimated from observations. Between-trial variability arises from signal-dependent control noise and observation noise. We compare four different models from optimal control theory and evaluate to what degree these models can replicate movements in the case of mouse pointing. We introduce a procedure to identify parameters that best explain observed user behavior, and show how these parameters can be used to gain insights regarding user characteristics and preferences. We conclude that OFC presents a powerful framework for HCI to understand and simulate motion of the human body and of the interface on a moment by moment basis.


翻译:最佳反馈控制( OFC) 是来自运动控制文献的理论, 解释人类如何移动身体以达到某一目标, 例如用手指指向。 OFC 所依据的假设是, 人类的目标是在身体、环境和任务的限制范围内, 优化控制自己的身体。 在本文中, 我们解释如何应用这一理论来理解人- 计算机的相互作用。 我们提议, 在这种情况下, 人体和计算机的动态可以被解释为一个单一的动态系统。 这个系统的状况由用户通过肌肉控制信号和观察估计来控制。 以信号为主的控制噪音和观测噪音产生了不同的情况。 我们从最佳控制理论中比较了四种不同的模型, 并评估在鼠标指的情况下这些模型能够复制运动的程度。 我们引入了一种程序, 以确定最能解释观察到的用户行为的参数, 并展示这些参数如何用于了解用户特性和偏好。 我们的结论是, 人类控制中心的状态是一个强大的框架, 用来理解和模拟人体和界面的动态。

0
下载
关闭预览

相关内容

专知会员服务
88+阅读 · 2021年6月29日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
专知会员服务
109+阅读 · 2020年3月12日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
LibRec 精选:如何评估交互式推荐系统?
LibRec智能推荐
8+阅读 · 2019年5月5日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Arxiv
0+阅读 · 2021年11月23日
Arxiv
65+阅读 · 2021年6月18日
Arxiv
6+阅读 · 2018年3月28日
VIP会员
相关VIP内容
专知会员服务
88+阅读 · 2021年6月29日
Linux导论,Introduction to Linux,96页ppt
专知会员服务
78+阅读 · 2020年7月26日
专知会员服务
109+阅读 · 2020年3月12日
《DeepGCNs: Making GCNs Go as Deep as CNNs》
专知会员服务
30+阅读 · 2019年10月17日
强化学习最新教程,17页pdf
专知会员服务
174+阅读 · 2019年10月11日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
相关资讯
LibRec 精选:如何评估交互式推荐系统?
LibRec智能推荐
8+阅读 · 2019年5月5日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
RL 真经
CreateAMind
5+阅读 · 2018年12月28日
vae 相关论文 表示学习 1
CreateAMind
12+阅读 · 2018年9月6日
计算机类 | 国际会议信息7条
Call4Papers
3+阅读 · 2017年11月17日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
Top
微信扫码咨询专知VIP会员