Deep learning is finding its way into high energy physics by replacing traditional Monte Carlo simulations. However, deep learning still requires an excessive amount of computational resources. A promising approach to make deep learning more efficient is to quantize the parameters of the neural networks to reduced precision. Reduced precision computing is extensively used in modern deep learning and results to lower execution inference time, smaller memory footprint and less memory bandwidth. In this paper we analyse the effects of low precision inference on a complex deep generative adversarial network model. The use case which we are addressing is calorimeter detector simulations of subatomic particle interactions in accelerator based high energy physics. We employ the novel Intel low precision optimization tool (iLoT) for quantization and compare the results to the quantized model from TensorFlow Lite. In the performance benchmark we gain a speed-up of 1.73x on Intel hardware for the quantized iLoT model compared to the initial, not quantized, model. With different physics-inspired self-developed metrics, we validate that the quantized iLoT model shows a lower loss of physical accuracy in comparison to the TensorFlow Lite model.


翻译:深层学习正在通过替换传统的蒙特卡洛模拟而进入高能物理。 但是,深层学习仍然需要大量的计算资源。 深层学习的一个更有希望的提高深层学习效率的方法是量化神经网络的参数以降低精确度。 现代深层学习和结果中广泛使用降低精确度的计算,以降低执行推断时间、 较小的记忆足迹和更少的记忆带宽。 在本文中,我们分析低精度推断对复杂深度基因化对立网络模型的影响。 我们所处理的利用案例是,在基于高能量物理的加速器中模拟亚原子粒子相互作用的热度计探测器。 我们使用创新的 Intel 低精度优化工具(i LoT) 进行量化,并将结果与TensorFlow Lite 的四分化模型进行比较。 在性基准中,我们对四分解 iLOT 模型的 Intel 硬件与初始的、非量化的模型相比速度提高了1.73x。 我们确认, 以不同的物理推导自制的自制测量模型表明, iLOT 模型与T 的物理精确度较低。

0
下载
关闭预览

相关内容

【图与几何深度学习】Graph and geometric deep learning,49页ppt
专知会员服务
44+阅读 · 2020年10月31日
GAN新书《生成式深度学习》,Generative Deep Learning,379页pdf
专知会员服务
202+阅读 · 2019年9月30日
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
100页机器学习入门完整版,初学者必备!
专知
25+阅读 · 2018年12月18日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Gartner:2018人工智能预测
走向智能论坛
4+阅读 · 2017年11月28日
已删除
将门创投
6+阅读 · 2017年11月27日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
Arxiv
0+阅读 · 2021年5月6日
Arxiv
0+阅读 · 2021年3月10日
Arxiv
3+阅读 · 2018年8月17日
Arxiv
11+阅读 · 2018年3月23日
VIP会员
相关资讯
使用 Keras Tuner 调节超参数
TensorFlow
15+阅读 · 2020年2月6日
万字综述之生成对抗网络(GAN)
PaperWeekly
43+阅读 · 2019年3月19日
100页机器学习入门完整版,初学者必备!
专知
25+阅读 · 2018年12月18日
条件GAN重大改进!cGANs with Projection Discriminator
CreateAMind
8+阅读 · 2018年2月7日
Gartner:2018人工智能预测
走向智能论坛
4+阅读 · 2017年11月28日
已删除
将门创投
6+阅读 · 2017年11月27日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
Auto-Encoding GAN
CreateAMind
7+阅读 · 2017年8月4日
Generative Adversarial Text to Image Synthesis论文解读
统计学习与视觉计算组
13+阅读 · 2017年6月9日
Top
微信扫码咨询专知VIP会员