成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
梯度提升决策树
关注
5
GBDT(Gradient Boosting Decision Tree) 又叫 MART(Multiple Additive Regression Tree),是一种迭代的决策树算法,该算法由多棵决策树组成,所有树的结论累加起来做最终答案。它在被提出之初就和SVM一起被认为是泛化能力较强的算法。
综合
百科
VIP
热门
动态
论文
精华
FederBoost: Private Federated Learning for GBDT
Arxiv
0+阅读 · 2月27日
DOFEN: Deep Oblivious Forest ENsemble
Arxiv
0+阅读 · 2024年12月24日
DOFEN: Deep Oblivious Forest ENsemble
Arxiv
1+阅读 · 2024年12月21日
Backdoor attacks on DNN and GBDT -- A Case Study from the insurance domain
Arxiv
1+阅读 · 2024年12月11日
Gradient Boosting Decision Trees on Medical Diagnosis over Tabular Data
Arxiv
0+阅读 · 2024年10月11日
NRGBoost: Energy-Based Generative Boosted Trees
Arxiv
0+阅读 · 2024年10月4日
S-BDT: Distributed Differentially Private Boosted Decision Trees
Arxiv
0+阅读 · 2024年8月16日
Improving GBDT Performance on Imbalanced Datasets: An Empirical Study of Class-Balanced Loss Functions
Arxiv
0+阅读 · 2024年7月19日
When Do Neural Nets Outperform Boosted Trees on Tabular Data?
Arxiv
0+阅读 · 2024年7月15日
Corporate Financial Distress Prediction: Based on Multi-source Data and Feature Selection
Arxiv
0+阅读 · 2024年4月19日
Era Splitting -- Invariant Learning for Decision Trees
Arxiv
0+阅读 · 2024年3月14日
Implementing local-explainability in Gradient Boosting Trees: Feature Contribution
Arxiv
0+阅读 · 2024年2月14日
Explainable artificial intelligence model for identifying Market Value in Professional Soccer Players
Arxiv
0+阅读 · 2023年11月23日
SecureCut: Federated Gradient Boosting Decision Trees with Efficient Machine Unlearning
Arxiv
0+阅读 · 2023年11月22日
When Do Neural Nets Outperform Boosted Trees on Tabular Data?
Arxiv
0+阅读 · 2023年10月30日
参考链接
父主题
Boosting
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top