许多重要的应用领域生成异构本地数据集的分布式集合。这些本地数据集通过一种内在的网络结构相互关联,这种网络结构源于本地数据集之间特定领域的相似性概念。网络联邦学习的目的是为每个本地数据集学习一个量身定制的本地模型。我们使用广义总变分(GTV)最小化的概念作为正则化器来制定网络联邦学习。这个公式统一并在很大程度上扩展了联邦多任务学习的近期方法。我们在局部模型及其网络结构上推导出精确的条件,使我们的算法学习到接近最优的局部模型。我们的分析揭示了局部模型的(信息-)几何与其网络的(集群-)几何之间有趣的相互作用。

Alexander Jung于2012年在维也纳技术大学获得博士学位。在维也纳理工大学和苏黎世理工大学完成博士后工作后,他于2015年加入阿尔托大学,担任机器学习助理教授,领导“大数据机器学习”小组,研究网络结构数据中的可解释机器学习。Alex的第一篇论文获得了2011年IEEE ICASSP最佳学生论文奖。他获得了AWS机器学习研究奖,并于2018年成为阿尔托大学的“年度计算机科学教师”。目前,他担任IEEE信号处理快报的副主编和IEEE芬兰Jt的主席。信号处理、电路和系统。他撰写了将于2022年由施普林格出版社出版的教科书《机器学习:基础》。

成为VIP会员查看完整内容
35

相关内容

联邦学习(Federated Learning)是一种新兴的人工智能基础技术,在 2016 年由谷歌最先提出,原本用于解决安卓手机终端用户在本地更新模型的问题,其设计目标是在保障大数据交换时的信息安全、保护终端数据和个人数据隐私、保证合法合规的前提下,在多参与方或多计算结点之间开展高效率的机器学习。其中,联邦学习可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习有望成为下一代人工智能协同算法和协作网络的基础。
专知会员服务
65+阅读 · 2021年8月1日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
Zak最新《神经信息传递》,附Slides与视频
专知
0+阅读 · 2022年2月15日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年3月31日
Arxiv
0+阅读 · 2022年7月17日
Arxiv
0+阅读 · 2022年7月15日
Arxiv
13+阅读 · 2021年5月3日
VIP会员
相关VIP内容
专知会员服务
65+阅读 · 2021年8月1日
最新《生成式对抗网络》简介,25页ppt
专知会员服务
173+阅读 · 2020年6月28日
【阿尔托大学】图神经网络,Graph Neural Networks,附60页ppt
专知会员服务
181+阅读 · 2020年4月26日
相关基金
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
3+阅读 · 2011年3月31日
微信扫码咨询专知VIP会员