Prefix adders are widely used in compute-intensive applications for their high speed. However, designing optimized prefix adders is challenging due to strict design rules and an exponentially large design space. We introduce PrefixGPT, a generative pre-trained Transformer (GPT) that directly generates optimized prefix adders from scratch. Our approach represents an adder's topology as a two-dimensional coordinate sequence and applies a legality mask during generation, ensuring every design is valid by construction. PrefixGPT features a customized decoder-only Transformer architecture. The model is first pre-trained on a corpus of randomly synthesized valid prefix adders to learn design rules and then fine-tuned to navigate the design space for optimized design quality. Compared with existing works, PrefixGPT not only finds a new optimal design with a 7.7% improved area-delay product (ADP) but exhibits superior exploration quality, lowering the average ADP by up to 79.1%. This demonstrates the potential of GPT-style models to first master complex hardware design principles and then apply them for more efficient design optimization.


翻译:前缀加法器因其高速特性在计算密集型应用中广泛应用。然而,由于严格的设计规则和指数级庞大的设计空间,设计优化的前缀加法器具有挑战性。本文提出PrefixGPT,一种生成式预训练Transformer(GPT),能够从零开始直接生成优化的前缀加法器。我们的方法将加法器拓扑表示为二维坐标序列,并在生成过程中应用合法性掩码,确保每个设计在构造时即有效。PrefixGPT采用定制的仅解码器Transformer架构。该模型首先在随机合成的有效前缀加法器语料库上进行预训练以学习设计规则,然后通过微调在设计空间中导航以优化设计质量。与现有工作相比,PrefixGPT不仅发现了一种面积-延迟积(ADP)提升7.7%的新最优设计,还展现出卓越的探索质量,将平均ADP降低高达79.1%。这证明了GPT风格模型在首先掌握复杂硬件设计原理,进而将其应用于更高效设计优化方面的潜力。

0
下载
关闭预览

相关内容

设计是对现有状的一种重新认识和打破重组的过程,设计让一切变得更美。
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
VIP会员
相关基金
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员