许多重要的数据集包含缺失一个或多个特征值的样本。在存在缺失数据的情况下,保持机器学习模型的可解释性是一项挑战。对缺失值进行单次或多次填补会使得模型从特征到标签的映射变得更加复杂。另一方面,基于表示缺失的指示变量进行推理会引入大量的额外项,从而牺牲了稀疏性。我们通过M-GAM解决了这些问题,M-GAM是一种稀疏的广义加性模型方法,它结合了缺失指示变量及其交互项,同时通过ℓ0正则化保持了稀疏性。我们展示了M-GAM在准确度上与现有方法相当或更优,同时相对于填补方法或简单地将指示变量纳入模型,显著提高了稀疏性。

成为VIP会员查看完整内容
13

相关内容

【ACMMM2024】用于多媒体推荐的模态平衡学习"
专知会员服务
11+阅读 · 8月14日
【ICML2024】双曲几何潜在扩散模型用于图生成
专知会员服务
41+阅读 · 5月8日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【CVPR2023】正则化二阶影响的持续学习
专知会员服务
18+阅读 · 2023年4月22日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
39+阅读 · 2022年11月5日
【ICML2022】闭式同构变换的时间序列对齐
专知会员服务
11+阅读 · 2022年6月20日
专知会员服务
21+阅读 · 2021年7月31日
专知会员服务
29+阅读 · 2021年5月20日
【ICML2021】因果匹配领域泛化
专知
12+阅读 · 2021年8月12日
【CVPR2021】跨模态检索的概率嵌入
专知
17+阅读 · 2021年3月2日
详解常见的损失函数
七月在线实验室
20+阅读 · 2018年7月12日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
VIP会员
相关VIP内容
【ACMMM2024】用于多媒体推荐的模态平衡学习"
专知会员服务
11+阅读 · 8月14日
【ICML2024】双曲几何潜在扩散模型用于图生成
专知会员服务
41+阅读 · 5月8日
【ICCV2023】保留模态结构改进多模态学习
专知会员服务
28+阅读 · 2023年8月28日
【CVPR2023】正则化二阶影响的持续学习
专知会员服务
18+阅读 · 2023年4月22日
【NeurIPS 2022】扩散模型的深度平衡方法
专知会员服务
39+阅读 · 2022年11月5日
【ICML2022】闭式同构变换的时间序列对齐
专知会员服务
11+阅读 · 2022年6月20日
专知会员服务
21+阅读 · 2021年7月31日
专知会员服务
29+阅读 · 2021年5月20日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员