Machine learning models used in financial decision systems operate in nonstationary economic environments, yet adversarial robustness is typically evaluated under static assumptions. This work introduces Conditional Adversarial Fragility, a regime dependent phenomenon in which adversarial vulnerability is systematically amplified during periods of macroeconomic stress. We propose a regime aware evaluation framework for time indexed tabular financial classification tasks that conditions robustness assessment on external indicators of economic stress. Using volatility based regime segmentation as a proxy for macroeconomic conditions, we evaluate model behavior across calm and stress periods while holding model architecture, attack methodology, and evaluation protocols constant. Baseline predictive performance remains comparable across regimes, indicating that economic stress alone does not induce inherent performance degradation. Under adversarial perturbations, however, models operating during stress regimes exhibit substantially greater degradation across predictive accuracy, operational decision thresholds, and risk sensitive outcomes. We further demonstrate that this amplification propagates to increased false negative rates, elevating the risk of missed high risk cases during adverse conditions. To complement numerical robustness metrics, we introduce an interpretive governance layer based on semantic auditing of model explanations using large language models. Together, these results demonstrate that adversarial robustness in financial machine learning is a regime dependent property and motivate stress aware approaches to model risk assessment in high stakes financial deployments.


翻译:金融决策系统中使用的机器学习模型运行于非平稳的经济环境中,然而对抗鲁棒性通常在静态假设下进行评估。本研究提出了条件对抗脆弱性,这是一种依赖于经济体制的现象,即在宏观经济压力期间,对抗脆弱性会被系统性放大。我们针对时间索引的表格型金融分类任务,提出了一种体制感知的评估框架,该框架将鲁棒性评估条件建立在外部经济压力指标之上。以基于波动率的体制分割作为宏观经济条件的代理变量,我们在保持模型架构、攻击方法和评估协议不变的前提下,评估模型在平静期和压力期的行为。基准预测性能在各体制间保持可比性,表明仅经济压力本身不会导致固有的性能下降。然而,在对抗扰动下,于压力体制下运行的模型在预测准确性、操作决策阈值和风险敏感结果方面均表现出显著更大的性能退化。我们进一步证明,这种放大效应会传导至更高的假阴性率,从而在不利条件下增加了漏检高风险案例的风险。为补充数值鲁棒性指标,我们引入了一个基于大语言模型对模型解释进行语义审计的解释性治理层。这些结果共同表明,金融机器学习中的对抗鲁棒性是一种体制依赖的属性,并推动了在高风险金融部署中采用压力感知的模型风险评估方法。

0
下载
关闭预览

相关内容

【ICML2023】SEGA:结构熵引导的图对比学习锚视图
专知会员服务
23+阅读 · 2023年5月10日
【NeurIPS2022】分布式自适应元强化学习
专知会员服务
24+阅读 · 2022年10月8日
专知会员服务
38+阅读 · 2021年9月15日
专知会员服务
16+阅读 · 2021年7月7日
论文浅尝 | Interaction Embeddings for Prediction and Explanation
开放知识图谱
11+阅读 · 2019年2月1日
论文浅尝 | Know-Evolve: Deep Temporal Reasoning for Dynamic KG
开放知识图谱
36+阅读 · 2018年3月30日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Arxiv
0+阅读 · 12月19日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员