We give a characterization for the binary linear constant weight codes by using the symmetric difference of the supports of the codewords. This characterization gives a correspondence between the set of binary linear constant weight codes and the set of partitions for the union of supports of the codewords. By using this correspondence, we present a formula for the order of the automorphism group of a binary linear constant weight code in terms of its parameters. This formula is a key step to determine more algebraic structures on constant weight codes with given parameters. Bonisoli [Bonisoli, A.: Every equidistant linear code is a sequence of dual Hamming codes. Ars Combinatoria 18, 181--186 (1984)] proves that the $q$-ary linear constant weight codes with the same parameters are equivalent (for the binary case permutation equivalent). We also give an alternative proof for Bonisoli's theorem by presenting an explicit permutation on symmetric difference of the supports of the codewords which gives the permutation equivalence between the binary linear constant weight codes.


翻译:关于二元线性恒重码及其自同构群的研究 翻译后的摘要: 我们通过使用码字支撑集的对称差异给出二元线性恒重码的特征化。这种特征化将二元线性恒重码的集合与其码字支撑集的并集的划分集合相对应。通过这个对应关系,我们给出了一个公式,用于描述具有给定参数的二元线性恒重码的自同构群的阶数。这个公式是确定具有给定参数的恒重码的更多代数结构的关键步骤。由Bonisoli证明:$q$元线性恒重码(在二元情况下是置换等价的)具有相同的参数是等效的[Bonisoli,A.:Every equidistant linear code is a sequence of dual Hamming codes. Ars Combinatoria 18,181-186(1984)]。我们还通过提供一种关于码字支撑集的对称差异的显式置换来证明Bonisoli定理的替代证明,此置换给出了二元线性恒重码之间的置换等价性。

0
下载
关闭预览

相关内容

Effective.Modern.C++ 中英文版,334页pdf
专知会员服务
66+阅读 · 2020年11月4日
专知会员服务
61+阅读 · 2020年3月4日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
12+阅读 · 2018年6月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月26日
Arxiv
0+阅读 · 2023年5月25日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
26+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
已删除
将门创投
12+阅读 · 2018年6月25日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【推荐】免费书(草稿):数据科学的数学基础
机器学习研究会
20+阅读 · 2017年10月1日
【推荐】用Tensorflow理解LSTM
机器学习研究会
36+阅读 · 2017年9月11日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员