An ensemble of decision trees is known as Random Forest. As suggested by Breiman, the strength of unstable learners and the diversity among them are the ensemble models' core strength. In this paper, we propose two approaches known as oblique and rotation double random forests. In the first approach, we propose a rotation based double random forest. In rotation based double random forests, transformation or rotation of the feature space is generated at each node. At each node different random feature subspace is chosen for evaluation, hence the transformation at each node is different. Different transformations result in better diversity among the base learners and hence, better generalization performance. With the double random forest as base learner, the data at each node is transformed via two different transformations namely, principal component analysis and linear discriminant analysis. In the second approach, we propose oblique double random forest. Decision trees in random forest and double random forest are univariate, and this results in the generation of axis parallel split which fails to capture the geometric structure of the data. Also, the standard random forest may not grow sufficiently large decision trees resulting in suboptimal performance. To capture the geometric properties and to grow the decision trees of sufficient depth, we propose oblique double random forest. The oblique double random forest models are multivariate decision trees. At each non-leaf node, multisurface proximal support vector machine generates the optimal plane for better generalization performance. Also, different regularization techniques (Tikhonov regularisation and axis-parallel split regularisation) are employed for tackling the small sample size problems in the decision trees of oblique double random forest.


翻译:一组决定树被称为随机森林。 如 Breiman 所言, 不稳定学习者的强度和多样性是组合模型的核心力量。 在本文中, 我们提出两种方法, 称为斜度和旋转双随机森林。 在第一个方法中, 我们提议一个基于旋转的双随机森林。 在以旋转为基础的双随机森林中, 在每个节点上, 生成特性空间的转换或旋转。 每个节点选择不同的随机特性子空间进行评价, 因此每个节点的变化是不同的。 不同的转变导致基础学习者之间更加多样化, 因而更加概括化的性能。 在双随机的森林中, 每个节点的数据被转换为双向的双向森林。 在常规学习者中, 两个节点的数据被转换为双向的双向 。 标准随机的森林, 在常规学习者中, 双向的双向树, 以双向的森林决定性能 。 双向的双向的森林和双向的树 。 双向的树 代表着 双向的森林决定性性能 。 双向的 。 双向的树 和双向的树 代表着, 双向的森林决定性决定性 。

0
下载
关闭预览

相关内容

随机森林 指的是利用多棵树对样本进行训练并预测的一种分类器。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
专知会员服务
35+阅读 · 2021年6月16日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【2020新书】傅里叶变换的离散代数,296页pdf
专知会员服务
113+阅读 · 2020年11月2日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
算法|随机森林(Random Forest)
全球人工智能
3+阅读 · 2018年1月8日
文字描述生成视频的开源项目
CreateAMind
5+阅读 · 2017年12月31日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
Arxiv
0+阅读 · 2022年1月9日
Arxiv
0+阅读 · 2022年1月3日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
6+阅读 · 2018年11月29日
Arxiv
5+阅读 · 2018年1月17日
VIP会员
相关VIP内容
专知会员服务
35+阅读 · 2021年6月16日
最新《自监督表示学习》报告,70页ppt
专知会员服务
85+阅读 · 2020年12月22日
【2020新书】傅里叶变换的离散代数,296页pdf
专知会员服务
113+阅读 · 2020年11月2日
迁移学习简明教程,11页ppt
专知会员服务
107+阅读 · 2020年8月4日
一份简单《图神经网络》教程,28页ppt
专知会员服务
123+阅读 · 2020年8月2日
【清华大学】图随机神经网络,Graph Random Neural Networks
专知会员服务
154+阅读 · 2020年5月26日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
鲁棒机器学习相关文献集
专知
8+阅读 · 2019年8月18日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
算法|随机森林(Random Forest)
全球人工智能
3+阅读 · 2018年1月8日
文字描述生成视频的开源项目
CreateAMind
5+阅读 · 2017年12月31日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
【推荐】决策树/随机森林深入解析
机器学习研究会
5+阅读 · 2017年9月21日
【推荐】SVM实例教程
机器学习研究会
17+阅读 · 2017年8月26日
相关论文
Arxiv
0+阅读 · 2022年1月9日
Arxiv
0+阅读 · 2022年1月3日
Arxiv
4+阅读 · 2020年10月18日
Arxiv
6+阅读 · 2018年11月29日
Arxiv
5+阅读 · 2018年1月17日
Top
微信扫码咨询专知VIP会员