We present TabMixNN, a flexible PyTorch-based deep learning framework that synthesizes classical mixed-effects modeling with modern neural network architectures for tabular data analysis. TabMixNN addresses the growing need for methods that can handle hierarchical data structures while supporting diverse outcome types including regression, classification, and multitask learning. The framework implements a modular three-stage architecture: (1) a mixed-effects encoder with variational random effects and flexible covariance structures, (2) backbone architectures including Generalized Structural Equation Models (GSEM) and spatial-temporal manifold networks, and (3) outcome-specific prediction heads supporting multiple outcome families. Key innovations include an R-style formula interface for accessibility, support for directed acyclic graph (DAG) constraints for causal structure learning, Stochastic Partial Differential Equation (SPDE) kernels for spatial modeling, and comprehensive interpretability tools including SHAP values and variance decomposition. We demonstrate the framework's flexibility through applications to longitudinal data analysis, genomic prediction, and spatial-temporal modeling. TabMixNN provides a unified interface for researchers to leverage deep learning while maintaining the interpretability and theoretical grounding of classical mixed-effects models.


翻译:本文提出TabMixNN,一个基于PyTorch的灵活深度学习框架,该框架将经典混合效应建模与现代神经网络架构相结合,用于表格数据分析。TabMixNN旨在满足日益增长的对能够处理层次数据结构、同时支持回归、分类及多任务学习等多种结果类型方法的需求。该框架采用模块化三阶段架构:(1) 包含变分随机效应与灵活协方差结构的混合效应编码器;(2) 以广义结构方程模型(GSEM)和时空流形网络为核心的骨干架构;(3) 支持多类结果族的结果特定预测头。其核心创新包括:为提升易用性设计的R风格公式接口、支持因果结构学习的有向无环图(DAG)约束、用于空间建模的随机偏微分方程(SPDE)核,以及包含SHAP值与方差分解的综合可解释性工具。我们通过纵向数据分析、基因组预测和时空建模等应用案例展示了该框架的灵活性。TabMixNN为研究人员提供了一个统一接口,使其能够在保持经典混合效应模型可解释性与理论根基的同时,充分利用深度学习的优势。

0
下载
关闭预览

相关内容

语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
14+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员