This paper presents a novel method for generating a single polynomial approximation that produces correctly rounded results for all inputs of an elementary function for multiple representations. The generated polynomial approximation has the nice property that the first few lower degree terms produce correctly rounded results for specific representations of smaller bitwidths, which we call progressive performance. To generate such progressive polynomial approximations, we approximate the correctly rounded result and formulate the computation of correctly rounded polynomial approximations as a linear program inspired by our RLibm project. In contrast to our prior work, we avoid storing large lookup tables for the polynomial coefficients. We observe that the problem of computing polynomial approximations to elementary functions is a linear programming problem in low dimensions, i.e., with a small number of unknowns. We design a fast randomized algorithm for efficiently computing polynomial approximations with progressive performance. Our method produces polynomial approximations that are faster than the RLibm project and other mainstream libraries while also having progressive performance.


翻译:本文展示了生成单一多元近似的新颖方法, 该方法为多个表达式基本函数的所有输入生成正确四舍五入的结果。 生成的多元近近似具有一个良好的属性, 即前几个低度术语为较小位宽的具体表达方式产生正确四舍五入的结果, 我们称之为渐进性性能。 为了生成这种渐进性多位近近近近, 我们比较了正确四舍五入的结果, 并将正确四舍五入的多元近近近近作为受我们的 RLibm 项目启发的线性程序进行计算。 与我们先前的工作相比, 我们避免存储多位元系数的大型查看表。 我们观察到, 将多位近近似值计算为基本函数的问题是一个低维的线性编程问题, 也就是数量不多的未知。 我们设计了一个快速随机算法, 高效计算多位近似和渐进性能。 我们的方法生成的多位近似值比 RLibm 项目和其他主流图书馆更快, 同时还有渐进性能 。

0
下载
关闭预览

相关内容

【干货书】机器学习速查手册,135页pdf
专知会员服务
125+阅读 · 2020年11月20日
深度强化学习策略梯度教程,53页ppt
专知会员服务
178+阅读 · 2020年2月1日
吴恩达新书《Machine Learning Yearning》完整中文版
专知会员服务
145+阅读 · 2019年10月27日
Stabilizing Transformers for Reinforcement Learning
专知会员服务
58+阅读 · 2019年10月17日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
VIP会员
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
逆强化学习-学习人先验的动机
CreateAMind
15+阅读 · 2019年1月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
spinningup.openai 强化学习资源完整
CreateAMind
6+阅读 · 2018年12月17日
强化学习族谱
CreateAMind
26+阅读 · 2017年8月2日
强化学习 cartpole_a3c
CreateAMind
9+阅读 · 2017年7月21日
Top
微信扫码咨询专知VIP会员