【推荐】Counterfactual Machine Learning

2017 年 8 月 30 日 机器学习研究会


点击上方 “机器学习研究会”可以订阅
摘要
 

转自:洪亮劼

在这次KDD 2017上,有一个趋势就是越来越多的学者开始关注Causal Inference和Machine Learning的结合。其实有这样的趋势也是很自然的。工业界大家最早用Supervised Learning的方法来训练和评估模型。后来发现了线上系统和线下训练评估环境的差距。然后大家开始研究如何对产生的这种偏差定性、定量研究。Causal Inference为这种思潮提供了不少现成的工具。KDD 2017年的时间检验奖(Test of Time)得主Thorsten Joachims自己不仅在研究领域开启结合Causal Inference和Machine Learning这一新的方向,而且他还在康奈尔大学于这个春天开设了一门有关的课程叫Counterfactual Machine Learning。整个课程非常值得大家学习。可以说,Thorsten把目前的趋势总结成为了Bias in Human Feedback、Online Learning with Interactive Control、Batch Learning from Controlled Interventions以及Batch Learning from Observational Feedback,这应该算是有开创性的分类方法。相信会有更多的研究会在这几个方向跟进。


Course Description

How many clicks will a new ad-placement system get? Will a different news-ranking algorithm increase the dwell times of the users? What ranking function will minimize abandonment in my search engine? Answering such evaluation and learning questions is at the core of improving many of the online systems we use every day. This seminar addresses the problem of using past human-interaction data (e.g. click logs) to learn to improve the performance of the system. This requires integrating causal inference models into the design of the learning algorithm, since we need to make predictions about the system's performance after an intervention (e.g. fielding a new ranking function).


链接:

http://www.cs.cornell.edu/courses/cs7792/2016fa/


原文链接:

https://m.weibo.cn/3193816967/4146423228075680

“完整内容”请点击【阅读原文】
↓↓↓
登录查看更多
2

相关内容

机器学习(Machine Learning)是一个研究计算学习方法的国际论坛。该杂志发表文章,报告广泛的学习方法应用于各种学习问题的实质性结果。该杂志的特色论文描述研究的问题和方法,应用研究和研究方法的问题。有关学习问题或方法的论文通过实证研究、理论分析或与心理现象的比较提供了坚实的支持。应用论文展示了如何应用学习方法来解决重要的应用问题。研究方法论文改进了机器学习的研究方法。所有的论文都以其他研究人员可以验证或复制的方式描述了支持证据。论文还详细说明了学习的组成部分,并讨论了关于知识表示和性能任务的假设。 官网地址:http://dblp.uni-trier.de/db/journals/ml/
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
165+阅读 · 2020年3月18日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
104+阅读 · 2019年10月9日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Arxiv
24+阅读 · 2019年11月24日
Arxiv
18+阅读 · 2019年1月16日
Arxiv
3+阅读 · 2018年10月11日
Learning to Focus when Ranking Answers
Arxiv
5+阅读 · 2018年8月8日
Mobile big data analysis with machine learning
Arxiv
6+阅读 · 2018年8月2日
Arxiv
151+阅读 · 2017年8月1日
VIP会员
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
LibRec 精选:推荐的可解释性[综述]
LibRec智能推荐
10+阅读 · 2018年5月4日
机器学习线性代数速查
机器学习研究会
19+阅读 · 2018年2月25日
Andrew NG的新书《Machine Learning Yearning》
我爱机器学习
11+阅读 · 2016年12月7日
Top
微信扫码咨询专知VIP会员