Logic optimization is an NP-hard problem commonly approached through hand-engineered heuristics. We propose to combine graph convolutional networks with reinforcement learning and a novel, scalable node embedding method to learn which local transforms should be applied to the logic graph. We show that this method achieves a similar size reduction as ABC on smaller circuits and outperforms it by 1.5-1.75x on larger random graphs.


翻译:逻辑优化是一个常见的NP硬性问题,通过手工工程超自然学处理。 我们提议将图形变异网络与强化学习和新颖的、可缩放的节点嵌入方法相结合,以学习对逻辑图应采用哪种本地变异。 我们显示,这种方法的大小缩小与较小电路ABC的ABC规模缩小类似,在更大的随机图上比ABC的大小缩小1.5-1.75x。

0
下载
关闭预览

相关内容

一份简单《图神经网络》教程,28页ppt
专知会员服务
127+阅读 · 2020年8月2日
因果图,Causal Graphs,52页ppt
专知会员服务
253+阅读 · 2020年4月19日
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
Arxiv
58+阅读 · 2021年5月3日
Arxiv
7+阅读 · 2019年6月20日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
27+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
29+阅读 · 2019年5月18日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
43+阅读 · 2019年1月3日
Hierarchical Imitation - Reinforcement Learning
CreateAMind
19+阅读 · 2018年5月25日
相关论文
Arxiv
58+阅读 · 2021年5月3日
Arxiv
7+阅读 · 2019年6月20日
Deep Graph Infomax
Arxiv
17+阅读 · 2018年12月21日
Top
微信扫码咨询专知VIP会员