Words are sequences of letters over a finite alphabet. We study two intimately related topics for this object: quasi-randomness and limit theory. With respect to the first topic we investigate the notion of uniform distribution of letters over intervals, and in the spirit of the famous Chung--Graham--Wilson theorem for graphs we provide a list of word properties which are equivalent to uniformity. In particular, we show that uniformity is equivalent to counting 3-letter subsequences. Inspired by graph limit theory we then investigate limits of convergent word sequences, those in which all subsequence densities converge. We show that convergent word sequences have a natural limit, namely Lebesgue measurable functions of the form $f:[0,1]\to[0,1]$. Via this theory we show that every hereditary word property is testable, address the problem of finite forcibility for word limits and establish as a byproduct a new model of random word sequences. Along the lines of the proof of the existence of word limits, we can also establish the existence of limits for higher dimensional structures. In particular, we obtain an alternative proof of the result by Hoppen, Kohayakawa, Moreira, R\'ath and Sampaio [{\it J. Combin. Theory Ser. B 103(1):93--113, 2013}] establishing the existence of permutons.


翻译:以限定字母字母顺序为字母顺序。 我们研究该对象的两个密切相关的主题: 准随机性和限值理论。 关于第一个主题, 我们调查了每隔一段时间统一分发字母的概念, 并且根据著名的 Chung- Graham- Wilson 图表理论的精神, 我们提供了一份类似统一性的单词属性列表。 特别是, 我们显示统一性相当于计算三字母次序列。 受图形限制理论的启发, 我们随后调查了趋同的单词序列的界限, 即所有次序列的密度都汇合的词序列。 我们显示, 趋同的单词序列具有自然限制, 即: [0, 1,\to[0, 1, 1美元] 。 我们用这个理论来显示, 每一个世袭的单词属性属性都可测试, 解决单词限制的有限性问题, 并建立一个随机的字序列的新模型。 根据字数限制的存在, 我们还可以确定存在更高维度结构的界限。 特别是: [ 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1,, 。 。 以 以 25 的 的 的 版本 的 的 版本 的 的 的 的 的 的 格式 的 的 的 。 。 。, 。 。

0
下载
关闭预览

相关内容

【最受欢迎的概率书】《概率论:理论与实例》,490页pdf
专知会员服务
159+阅读 · 2020年11月13日
专知会员服务
123+阅读 · 2020年9月8日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
MIT新书《强化学习与最优控制》
专知会员服务
270+阅读 · 2019年10月9日
已删除
将门创投
10+阅读 · 2019年3月6日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
如何编写一个拼写纠错器?
Python开发者
4+阅读 · 2017年11月6日
Arxiv
1+阅读 · 2021年10月22日
Arxiv
0+阅读 · 2021年10月19日
Arxiv
4+阅读 · 2020年5月25日
VIP会员
相关VIP内容
相关资讯
已删除
将门创投
10+阅读 · 2019年3月6日
【TED】生命中的每一年的智慧
英语演讲视频每日一推
9+阅读 · 2019年1月29日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Linguistically Regularized LSTMs for Sentiment Classification
黑龙江大学自然语言处理实验室
8+阅读 · 2018年5月4日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【推荐】自然语言处理(NLP)指南
机器学习研究会
35+阅读 · 2017年11月17日
如何编写一个拼写纠错器?
Python开发者
4+阅读 · 2017年11月6日
Top
微信扫码咨询专知VIP会员