We design a low complexity distributed compression scheme for computing arbitrary functions of sources with discrete alphabets. We use a helper-based method that extends the definition of the G{\'a}cs-K{\"o}rner-Witsenhausen (GKW) common information to functional common information. The helper relaxes the combinatorial structure of GKW by partitioning the joint source distribution into nests imposed by the function, which ensures hierarchical cooperation between the sources for effectively distributed computing. By contrasting our approach's performance with existing efficient techniques, we demonstrate the rate savings in recovering function and source data. Permutation invariant functions are prevalent in learning and combinatorial optimization fields and most recently applied to graph neural networks. We consider the efficient compression for computing permutation invariant functions in a network with two sources and one decoder. We use a bipartite graph representation, where two disjoint sets of vertices (parts) denote the individual source graphs and the edge weights capture the joint source distribution. We compress bipartite graphs by creating connected components determined by the function's distribution, accounting for the edge symmetries, and eliminating the low probability edges. We separately encode those edges and send them as refinements. Our approach can substitute high complexity joint decoding techniques and inform neural networks to reduce the computing time and reduce complexity.


翻译:我们设计了一个低复杂分布式压缩计划,用于计算使用离散字母的源的任意函数。 我们使用一种基于帮助者法的方法,将G ~'a}cs- Ks- Ks or}}rner- Witsenhausen (GKW) 通用信息的定义扩展为功能性共同信息。 帮助者将联合源分布分隔成该函数所强加的巢状,确保源之间有效分布计算之间的等级合作。 通过将我们的方法与现有高效技术进行比较,我们展示了恢复功能和源数据的节约率。 在学习和组合优化字段中,差异性变异函数普遍存在于学习和组合优化字段中,最近还应用于图形神经网络。 我们考虑在两个来源和一个解码的网络中计算变量变异函数的高效压缩。 我们使用双方图解析, 其中两组的垂直(部分) 表示单个源图和边缘重量不相匹配, 捕捉到联合源的分布。 我们通过创建相连接的精度优化图, 减少这些相连接的内径的内缘结构, 来消除这些高比的计算方法。

0
下载
关闭预览

相关内容

《计算机信息》杂志发表高质量的论文,扩大了运筹学和计算的范围,寻求有关理论、方法、实验、系统和应用方面的原创研究论文、新颖的调查和教程论文,以及描述新的和有用的软件工具的论文。官网链接:https://pubsonline.informs.org/journal/ijoc
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
【推荐系统/计算广告/机器学习/CTR预估资料汇总】
专知会员服务
87+阅读 · 2019年10月21日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
计算机 | ICDE 2020等国际会议信息8条
Call4Papers
3+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
计算机类 | LICS 2019等国际会议信息7条
Call4Papers
3+阅读 · 2018年12月17日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
An Attentive Survey of Attention Models
Arxiv
44+阅读 · 2020年12月15日
Arxiv
35+阅读 · 2019年11月7日
Arxiv
4+阅读 · 2019年1月14日
VIP会员
相关资讯
计算机 | 国际会议信息5条
Call4Papers
3+阅读 · 2019年7月3日
计算机 | ICDE 2020等国际会议信息8条
Call4Papers
3+阅读 · 2019年5月24日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
IEEE | DSC 2019诚邀稿件 (EI检索)
Call4Papers
10+阅读 · 2019年2月25日
人工智能 | SCI期刊专刊信息3条
Call4Papers
5+阅读 · 2019年1月10日
大数据 | 顶级SCI期刊专刊/国际会议信息7条
Call4Papers
10+阅读 · 2018年12月29日
计算机类 | LICS 2019等国际会议信息7条
Call4Papers
3+阅读 · 2018年12月17日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
计算机视觉近一年进展综述
机器学习研究会
9+阅读 · 2017年11月25日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员