成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
利普希茨连续
关注
1
在数学分析中,以Rudolf Lipschitz命名的Lipschitz连续性是函数一致连续性的有力形式。 直观上,Lipschitz连续函数的变化速度受到限制:存在一个实数,使得对于该函数的图上的每对点,连接它们的直线的斜率的绝对值不大于 这个实数; 最小的边界称为函数的Lipschitz常数(或均匀连续性的模数)。 例如,限制一阶导数的每个函数都是Lipschitz连续的。
综合
百科
VIP
热门
动态
论文
精华
Personalized Federated Learning via ADMM with Moreau Envelope
Arxiv
0+阅读 · 2024年8月22日
Adaptive proximal gradient methods are universal without approximation
Arxiv
0+阅读 · 2024年7月5日
Data-Driven Lipschitz Continuity: A Cost-Effective Approach to Improve Adversarial Robustness
Arxiv
0+阅读 · 2024年6月28日
Ferrari: Federated Feature Unlearning via Optimizing Feature Sensitivity
Arxiv
0+阅读 · 2024年5月29日
No Algorithmic Collusion in Two-Player Blindfolded Game with Thompson Sampling
Arxiv
0+阅读 · 2024年5月23日
Model-based Reinforcement Learning for Parameterized Action Spaces
Arxiv
0+阅读 · 2024年4月5日
Performance Improvement Bounds for Lipschitz Configurable Markov Decision Processes
Arxiv
0+阅读 · 2024年2月21日
Personalized Federated Learning via ADMM with Moreau Envelope
Arxiv
0+阅读 · 2023年11月12日
Fail-Safe Adversarial Generative Imitation Learning
Arxiv
0+阅读 · 2023年7月28日
Verifying Global Neural Network Specifications using Hyperproperties
Arxiv
0+阅读 · 2023年6月21日
Revisiting Subgradient Method: Complexity and Convergence Beyond Lipschitz Continuity
Arxiv
0+阅读 · 2023年5月23日
Neural Abstractions
Arxiv
0+阅读 · 2023年1月27日
When Does Differentially Private Learning Not Suffer in High Dimensions?
Arxiv
0+阅读 · 2022年10月26日
Temporal semi-discretizations of a backward semilinear stochastic evolution equation
Arxiv
0+阅读 · 2022年8月27日
When Does Differentially Private Learning Not Suffer in High Dimensions?
Arxiv
0+阅读 · 2022年8月15日
参考链接
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top