This paper focuses on the expected difference in borrower's repayment when there is a change in the lender's credit decisions. Classical estimators overlook the confounding effects and hence the estimation error can be magnificent. As such, we propose another approach to construct the estimators such that the error can be greatly reduced. The proposed estimators are shown to be unbiased, consistent, and robust through a combination of theoretical analysis and numerical testing. Moreover, we compare the power of estimating the causal quantities between the classical estimators and the proposed estimators. The comparison is tested across a wide range of models, including linear regression models, tree-based models, and neural network-based models, under different simulated datasets that exhibit different levels of causality, different degrees of nonlinearity, and different distributional properties. Most importantly, we apply our approaches to a large observational dataset provided by a global technology firm that operates in both the e-commerce and the lending business. We find that the relative reduction of estimation error is strikingly substantial if the causal effects are accounted for correctly.


翻译:本文侧重于当放款人信用决定发生变化时借款人还款的预期差异。 古典估计师忽略了混乱效应, 因此估计错误可能非常大。 因此, 我们提出另一种方法来构建估计错误, 以便大大缩小错误。 拟议的估计师通过理论分析和数字测试的结合, 证明是公正、 一致和有力的。 此外, 我们比较了古典估计师和拟议的估计师之间估计因果数量的能力。 比较是在一系列广泛的模型中进行的, 包括线性回归模型、 树基模型和神经网络模型, 在不同模拟数据集下进行测试, 这些模型显示出不同程度的因果关系、 不同程度的非线性以及不同的分布特性。 最重要的是, 我们采用我们的方法, 是一个在电子商务和贷款业务中运作的全球技术公司提供的大型观察数据集。 我们发现, 如果将因果关系考虑在内, 则会明显减少估计错误。

14
下载
关闭预览

相关内容

专知会员服务
52+阅读 · 2020年9月7日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
72+阅读 · 2020年4月24日
因果图,Causal Graphs,52页ppt
专知会员服务
241+阅读 · 2020年4月19日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
35+阅读 · 2020年2月27日
【2020新书】图机器学习,Graph-Powered Machine Learning
专知会员服务
338+阅读 · 2020年1月27日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
100+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Sign-regularized Multi-task Learning
Arxiv
0+阅读 · 2021年2月22日
Towards Causal Representation Learning
Arxiv
2+阅读 · 2021年2月22日
Arxiv
1+阅读 · 2021年2月22日
Arxiv
0+阅读 · 2021年2月20日
Arxiv
0+阅读 · 2021年2月18日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Arxiv
6+阅读 · 2019年12月30日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Learning to Importance Sample in Primary Sample Space
VIP会员
相关VIP内容
专知会员服务
52+阅读 · 2020年9月7日
【Google】监督对比学习,Supervised Contrastive Learning
专知会员服务
72+阅读 · 2020年4月24日
因果图,Causal Graphs,52页ppt
专知会员服务
241+阅读 · 2020年4月19日
【干货书】真实机器学习,264页pdf,Real-World Machine Learning
【Uber AI新论文】持续元学习,Learning to Continually Learn
专知会员服务
35+阅读 · 2020年2月27日
【2020新书】图机器学习,Graph-Powered Machine Learning
专知会员服务
338+阅读 · 2020年1月27日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
100+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
相关论文
Sign-regularized Multi-task Learning
Arxiv
0+阅读 · 2021年2月22日
Towards Causal Representation Learning
Arxiv
2+阅读 · 2021年2月22日
Arxiv
1+阅读 · 2021年2月22日
Arxiv
0+阅读 · 2021年2月20日
Arxiv
0+阅读 · 2021年2月18日
Learning to See Through Obstructions
Arxiv
7+阅读 · 2020年4月2日
Arxiv
6+阅读 · 2019年12月30日
Few-shot Learning: A Survey
Arxiv
362+阅读 · 2019年4月10日
Learning to Importance Sample in Primary Sample Space
Top
微信扫码咨询专知VIP会员