Given two weighted automata, we consider the problem of whether one is big-O of the other, i.e., if the weight of every finite word in the first is not greater than some constant multiple of the weight in the second. We show that the problem is undecidable, even for the instantiation of weighted automata as labelled Markov chains. Moreover, even when it is known that one weighted automaton is big-O of another, the problem of finding or approximating the associated constant is also undecidable. Our positive results show that the big-O problem is polynomial-time solvable for unambiguous automata, coNP-complete for unlabelled weighted automata (i.e., when the alphabet is a single character) and decidable, subject to Schanuel's conjecture, when the language is bounded (i.e., a subset of $w_1^*\dots w_m^*$ for some finite words $w_1,\dots,w_m$) or when the automaton has finite ambiguity. On labelled Markov chains, the problem can be restated as a ratio total variation distance, which, instead of finding the maximum difference between the probabilities of any two events, finds the maximum ratio between the probabilities of any two events. The problem is related to $\epsilon$-differential privacy, for which the optimal constant of the big-O notation is exactly $\exp(\epsilon)$.


翻译:在两个加权自动数据中, 我们考虑一个是否是另一个大的 O, 也就是说, 如果第一个有限的单词的重量不大于第二个的数倍。 我们显示, 问题是不可估量的, 即使是加权的自动数据即刻化, 贴上Markov 链条的标签。 此外, 即使已知一个加权的自动数据是另一个的 O, 找到或接近相关常数的问题也是不可估量的。 我们的积极结果显示, 大- O 的问题对于明确的自动数据来说, 是多元时间的可溶性, 并不大于一个常数的倍数。 我们显示, 这个问题是不可估量的自动数据( 例如, 当字母是一个单一的字符) 问题, 即使是在Schanuel 的推测下, 当语言被捆绑( 例如, 某定数单数的 $_ 1 \\\\\ o\ w_ m $ $ 美元) 时, 问题也是不可估量的 。 当Onalmaton 问题对于一个不精确的常数, 之间, 找到一个最精确的差 。

0
下载
关闭预览

相关内容

专知会员服务
95+阅读 · 2021年5月25日
专知会员服务
64+阅读 · 2021年2月21日
专知会员服务
37+阅读 · 2020年11月24日
【KDD2020】 图神经网络在生物医药领域的应用
专知会员服务
37+阅读 · 2020年11月2日
专知会员服务
37+阅读 · 2020年9月27日
专知会员服务
42+阅读 · 2020年7月7日
元学习与图神经网络逻辑推导,55页ppt
专知会员服务
128+阅读 · 2020年4月25日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【泡泡一分钟】ProbFlow:联合光流和不确定性估计
泡泡机器人SLAM
3+阅读 · 2018年10月26日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
Arxiv
0+阅读 · 2021年6月2日
Arxiv
0+阅读 · 2021年6月1日
Arxiv
0+阅读 · 2021年5月31日
Arxiv
0+阅读 · 2021年5月30日
Arxiv
14+阅读 · 2019年9月11日
Arxiv
3+阅读 · 2018年2月24日
VIP会员
相关VIP内容
专知会员服务
95+阅读 · 2021年5月25日
专知会员服务
64+阅读 · 2021年2月21日
专知会员服务
37+阅读 · 2020年11月24日
【KDD2020】 图神经网络在生物医药领域的应用
专知会员服务
37+阅读 · 2020年11月2日
专知会员服务
37+阅读 · 2020年9月27日
专知会员服务
42+阅读 · 2020年7月7日
元学习与图神经网络逻辑推导,55页ppt
专知会员服务
128+阅读 · 2020年4月25日
相关资讯
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
Call for Participation: Shared Tasks in NLPCC 2019
中国计算机学会
5+阅读 · 2019年3月22日
弱监督语义分割最新方法资源列表
专知
9+阅读 · 2019年2月26日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
【泡泡一分钟】ProbFlow:联合光流和不确定性估计
泡泡机器人SLAM
3+阅读 · 2018年10月26日
【SIGIR2018】五篇对抗训练文章
专知
12+阅读 · 2018年7月9日
【推荐】RNN/LSTM时序预测
机器学习研究会
25+阅读 · 2017年9月8日
相关论文
Top
微信扫码咨询专知VIP会员