The persistent Betti numbers are used in topological data analysis to infer the scales at which topological features appear and disappear in the filtration of a topological space. Most commonly by means of the corresponding barcode or persistence diagram. While this approach to data science has been very successful, it suffers from sensitivity to outliers, and it does not allow for additional filtration parameters. Such parameters naturally appear when a cloud of data points comes together with additional measurements taken at the locations of the data. For these reasons, multiparameter persistent homology has recently received significant attention. In particular, the multicover and \v{C}ech bifiltration have been introduced to overcome the aforementioned shortcomings. In this work, we establish the strong consistency and asymptotic normality of the multiparameter persistent Betti numbers in growing domains. Our asymptotic results are established for a general framework encompassing both the marked \v{C}ech bifiltration, as well as the multicover bifiltration constructed on the null model of an independently marked Poisson point process. In a simulation study, we explain how the asymptotic normality can be used to derive tests for the goodness of fit. The statistical power of such tests is illustrated through different alternatives exhibiting more clustering, or more repulsion than the null model.


翻译:长期的贝蒂数字用于表层数据分析,以推断表层空间过滤中出现和消失的表层特征的表层。最常见的方法是相应的条码或持久性图表。数据科学的这一方法非常成功,但它对外部线非常敏感,不允许额外的过滤参数。当数据点云层与数据位置的额外测量同时出现时,这些参数自然会出现。出于这些原因,多参数持久性同质最近受到极大关注。特别是,为了克服上述缺点,采用了多覆盖和\{{C}C}技术的双过滤法。在这项工作中,我们建立了多参数对外线的敏感度,但又不允许额外的过滤参数。在数据点云层与数据位置的额外测量同时出现时,这些参数自然会出现。由于这些原因,多参数的持久性同质最近受到极大关注。在独立标记的Poisson点的无线模型上构建的多参数集,特别是多覆盖和/V{C}C}技术的双过滤法过滤法。在模拟研究中,我们建立了多参数一致性和无偏差的常态数字常态的常态常态常态性常态常态,我们在模拟研究中可以用来进行不同的正常测试。我们解释如何将这种常态测试。在模拟中更精确性测试。我们如何进行这种测试。

0
下载
关闭预览

相关内容

专知会员服务
28+阅读 · 2021年8月2日
专知会员服务
31+阅读 · 2021年6月12日
专知会员服务
14+阅读 · 2021年5月21日
【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Arxiv
0+阅读 · 2021年11月3日
Arxiv
0+阅读 · 2021年11月2日
Arxiv
0+阅读 · 2021年10月29日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
动物脑的好奇心和强化学习的好奇心
CreateAMind
10+阅读 · 2019年1月26日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Disentangled的假设的探讨
CreateAMind
9+阅读 · 2018年12月10日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【论文】变分推断(Variational inference)的总结
机器学习研究会
39+阅读 · 2017年11月16日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Top
微信扫码咨询专知VIP会员