It is well known that additive codes may have better parameters than linear codes. However, it is still a challenging problem to efficiently construct additive codes that outperform linear codes, especially those with greater distance than linear codes of the same length and dimension. To advance this problem, this paper focuses on constructing additive codes that outperform linear codes using quasi-cyclic codes and combinatorial methods. Firstly, we propose a lower bound on the minimum symplectic distance of 1-generator quasi-cyclic codes of index even. Further, we get many binary quasi-cyclic codes with large symplectic distances utilizing computer-supported combination and search methods, all corresponding to good quaternary additive codes. Notably, $15$ additive codes have greater distances than best-known quaternary linear codes in Grassl's code table (bounds on the minimum distance of quaternary linear codes http://www.codetables.de) for the same lengths and dimensions. Moreover, employing a combinatorial approach, we partially determine the parameters of optimal quaternary additive $3.5$-dimensional codes with lengths from $28$ to $254$. Finally, as an extension, we also construct some good additive complementary dual codes with larger distances than best-known quaternary linear complementary dual codes in the literature.


翻译:众所周知,添加编码的参数可能比线性编码的参数要好,然而,高效地建立比线性编码更完善的添加编码,尤其是那些比线性编码更远的相同长度和尺寸的编码,仍是一个具有挑战性的难题;为了推动这一问题,本文件侧重于建立比准周期编码和组合法的线性编码更优的添加编码;首先,我们提议对1-generator准周期索引编码的最低间距限制更低;此外,我们采用计算机支持的组合和搜索方法,用计算机支持的混合和搜索方法,以较大的间距来确定许多半周期性准周期编码,这些二元支持的混合和搜索方法,所有方法都与良好的四元添加编码相对应;值得注意的是,15万美元的添加编码比格拉斯尔编码表中最著名的四元线性编码(关于四元线性编码最低距离的界限,http://www.codebabletables.de)的相同长度和尺寸。此外,我们用计算机支持的组合式组合和搜索方法,部分地确定最佳的四元-维的编码的参数,从28美元到254美元不等。</s>

0
下载
关闭预览

相关内容

自然语言处理顶会NAACL2022最佳论文出炉!
专知会员服务
42+阅读 · 2022年6月30日
不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
73+阅读 · 2022年6月28日
专知会员服务
25+阅读 · 2021年4月2日
专知会员服务
76+阅读 · 2021年3月16日
学习自然语言处理路线图
专知会员服务
137+阅读 · 2019年9月24日
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月4日
Arxiv
0+阅读 · 2023年5月4日
An Overview on Machine Translation Evaluation
Arxiv
14+阅读 · 2022年2月22日
VIP会员
相关VIP内容
自然语言处理顶会NAACL2022最佳论文出炉!
专知会员服务
42+阅读 · 2022年6月30日
不可错过!《机器学习100讲》课程,UBC Mark Schmidt讲授
专知会员服务
73+阅读 · 2022年6月28日
专知会员服务
25+阅读 · 2021年4月2日
专知会员服务
76+阅读 · 2021年3月16日
学习自然语言处理路线图
专知会员服务
137+阅读 · 2019年9月24日
相关资讯
VCIP 2022 Call for Demos
CCF多媒体专委会
1+阅读 · 2022年6月6日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
Capsule Networks解析
机器学习研究会
11+阅读 · 2017年11月12日
相关基金
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员