The task of optimizing machines to support human decision-making is often conflated with that of optimizing machines for accuracy even though they are materially different. Whereas it is typical for learning systems to prescribe actions through prediction, here we propose an approach in which the role of machines is to reframe problems in order to directly support human decisions. Inspired by the success of representation learning in promoting machine performance, we frame the problem as one of learning representations that are conducive to good human performance. This "Man Composed with Machine" framework incorporates a human decision-making model directly into the representation learning paradigm with optimization achieved through a novel human-in-the-loop training procedure. We empirically demonstrate on various tasks and representational forms that the framework is capable of learning representations that better coincide with human decision-making processes and can lead to good decisions.


翻译:支持人类决策的优化机器的任务往往与优化机器的准确性的任务混为一谈,尽管它们与物质上不同。虽然学习系统通常通过预测来规定行动,但这里我们建议一种方法,即机器的作用是重新界定问题,以便直接支持人类决策。受促进机器性能的代表性学习的成功启发,我们把问题定义为有利于人类良好业绩的学习表现。这个“与机器相结合”框架将人类决策模式直接纳入代表性学习模式,通过新的人类流动培训程序实现优化。我们在各种任务和代表形式上的经验证明,框架能够学习更符合人类决策进程并导致良好决定的表述。

0
下载
关闭预览

相关内容

零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
96+阅读 · 2020年5月31日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
专知会员服务
54+阅读 · 2019年12月22日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
0+阅读 · 2020年11月20日
Continual Unsupervised Representation Learning
Arxiv
7+阅读 · 2019年10月31日
Arxiv
5+阅读 · 2018年6月4日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Top
微信扫码咨询专知VIP会员