A promising new algebraic approach to weighted model counting makes use of tensor networks, following a reduction from weighted model counting to tensor-network contraction. Prior work has focused on analyzing the single-core performance of this approach, and demonstrated that it is an effective addition to the current portfolio of weighted-model-counting algorithms. In this work, we explore the impact of multi-core and GPU use on tensor-network contraction for weighted model counting. To leverage multiple cores, we implement a parallel portfolio of tree-decomposition solvers to find an order to contract tensors. To leverage a GPU, we use TensorFlow to perform the contractions. We compare the resulting weighted model counter on 1914 standard weighted model counting benchmarks and show that it significantly improves the virtual best solver.


翻译:对加权模型计数采用有希望的新的代数法,在从加权模型计数到拉子网络收缩的缩减后,利用了振动网络。先前的工作重点是分析这一方法的单一核心性能,并表明它是目前加权模型计算算算算算法组合的有效补充。在这项工作中,我们探索了多核心和GPU对用于加权模型计数的阵列收缩的影响。为了利用多个核心,我们实施了一个平行的树分解解解解解解解答器组合,以找到与拉子合同的订单。为了利用GPU,我们使用TensorFlow来进行收缩。我们用1914年标准加权模型计算基准对由此产生的加权模型进行对比,并表明它大大改进了虚拟最佳解决器。

0
下载
关闭预览

相关内容

开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
40+阅读 · 2019年10月9日
基于PyTorch/TorchText的自然语言处理库
专知
28+阅读 · 2019年4月22日
TorchSeg:基于pytorch的语义分割算法开源了
极市平台
20+阅读 · 2019年1月28日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
18+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
Arxiv
5+阅读 · 2021年2月15日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Arxiv
5+阅读 · 2017年12月29日
Arxiv
5+阅读 · 2017年9月8日
VIP会员
相关VIP内容
开源书:PyTorch深度学习起步
专知会员服务
51+阅读 · 2019年10月11日
机器学习相关资源(框架、库、软件)大列表
专知会员服务
40+阅读 · 2019年10月9日
相关论文
Arxiv
5+阅读 · 2021年2月15日
On Feature Normalization and Data Augmentation
Arxiv
15+阅读 · 2020年2月25日
Arxiv
5+阅读 · 2017年12月29日
Arxiv
5+阅读 · 2017年9月8日
Top
微信扫码咨询专知VIP会员