In this paper, we present an optimal metric function on average, which leads to a significantly low decoding computation while maintaining the superiority of the polarization-adjusted convolutional (PAC) codes' error-correction performance. With our proposed metric function, the PAC codes' decoding computation is comparable to the conventional convolutional codes (CC) sequential decoding. Moreover, simulation results show an improvement in the low-rate PAC codes' error-correction performance when using our proposed metric function. We prove that choosing the polarized cutoff rate as the metric function's bias value reduces the probability of the sequential decoder advancing in the wrong path exponentially with respect to the wrong path depth. We also prove that the upper bound of the PAC codes' computation has a Pareto distribution; our simulation results also verify this. Furthermore, we present a scaling-bias procedure and a method of choosing threshold spacing for the search-limited sequential decoding that substantially improves the decoder's average computation. Our results show that for some codes with a length of 128, the search-limited PAC codes can achieve an error-correction performance close to the error-correction performance of the polar codes under successive cancellation list decoding with a list size of 64 and CRC length of 11 with a considerably lower computation.


翻译:在本文中,我们呈现了一种平均的最佳度量函数,它导致极分化截断率的计算显著低,同时保持了极分调整共变代码(PAC)错误校正功能的优劣性。由于我们拟议的衡量功能,PAC代码的解码计算与传统的共变代码(CC)相继解码功能相当。此外,模拟结果显示,使用我们提议的衡量函数时,低比率PAC代码的错误校正性能有改进。我们证明,选择极分化截断率作为衡量函数的偏差值,会减少在错误路径深度方面沿着错误路径前进的相继解码的概率。我们还证明,PAC代码的上限解码计算具有Pareto分布;我们的模拟结果也证实了这一点。此外,我们提出了一个缩放偏差程序,并选择了搜索有限分解码的临界间距,大大改进了解码的平均计算。我们的结果显示,对于某些有128长度的代码,检索有限的PAC代码在错误路径深度上加速前进的偏差率列表下,可以实现差差差差差差分数列表。

0
下载
关闭预览

相关内容

PAC学习理论不关心假设选择算法,他关心的是能否从假设空间H中学习一个好的假设h。此理论不关心怎样在假设空间中寻找好的假设,只关心能不能找得到。现在我们在来看一下什么叫“好假设”?只要满足两个条件(PAC辨识条件)即可
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
经济学中的数据科学,Data Science in Economics,附22页pdf
专知会员服务
35+阅读 · 2020年4月1日
Yoshua Bengio,使算法知道“为什么”
专知会员服务
7+阅读 · 2019年10月10日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Arxiv
0+阅读 · 2021年2月12日
Arxiv
0+阅读 · 2021年2月11日
VIP会员
相关资讯
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
(TensorFlow)实时语义分割比较研究
机器学习研究会
9+阅读 · 2018年3月12日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员