Predictive risk scores estimating probabilities for a binary outcome on the basis of observed covariates are frequently developed with the intent of avoiding that outcome by intervening on covariates in response to estimated risks. Since risk scores are usually developed in complex systems, interventions often take the form of expert actors responding to estimated risks as they best see fit. In this case, interventions may be complex and their effects difficult to observe or infer, meaning that explicit specification of interventions in response to risk scores is impractical. The capacity to design the aggregate model-intervention scheme in a way which optimises objectives is hence limited. We propose an algorithm by which a model-intervention scheme can be developed by `stacking' possibly unknown intervention effects. By repeatedly observing and updating the intervention and model, this scheme leads to convergence or almost-convergence of eventual outcome risk to an equivocal value for any initial value of covariates, given reasonable assumptions. Roughly, our approach involves deploying a series of risk scores to expert actors, with instructions to act on them in succession. Our algorithm uses only observations of pre-intervention covariates and the eventual outcome as input. It is not necessary to know the action of the intervention, other than a general assumption that it is `well-intentioned'. This algorithm can also be used to safely update risk scores in the presence of unknown interventions, an important contemporary problem in machine learning. We demonstrate convergence of expectation of outcome in a range of settings, and give sufficient conditions for convergence in distribution of covariate values. Finally, we demonstrate a potential practical implementation by simulation to optimise population-level outcome frequency.


翻译:由于风险分数通常是在复杂的系统中开发的,因此干预往往采取专家行为者对估计风险的反应形式;在这种情况下,干预可能很复杂,其影响可能难以观察或推断,这意味着明确规定针对风险分数的干预措施是不切实际的; 设计总体模型干预计划的能力,其方式是限制目标的实用性; 我们提议一种算法,通过“吸收”可能未知的干预效应来制定模型干预计划,从而避免这一结果; 由于反复观察和更新干预和模型,这一方法往往导致最终结果风险的趋同或几乎一致,根据合理的假设,最终结果风险的值可能变得微乎其微,因此难以观察或推断。 粗略地说,我们的方法是向专家行为者部署一系列风险分数,并指示他们采取行动,从而限制目标; 我们的算法只使用“吸收”可能未知的频率来制定模型干预计划; 通过反复观察“吸收”可能的干预效果; 通过反复观察并更新干预和最终结果,我们最终的预期结果在判断中,最终是无法理解的。

0
下载
关闭预览

相关内容

Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Imitation by Predicting Observations
Arxiv
4+阅读 · 2021年7月8日
Arxiv
12+阅读 · 2020年12月10日
Arxiv
19+阅读 · 2018年10月25日
VIP会员
相关VIP内容
Linux导论,Introduction to Linux,96页ppt
专知会员服务
77+阅读 · 2020年7月26日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
103+阅读 · 2019年10月9日
相关资讯
灾难性遗忘问题新视角:迁移-干扰平衡
CreateAMind
17+阅读 · 2019年7月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员