Rohan Anil,Andrew M. Dai,Orhan Firat,Melvin Johnson,Dmitry Lepikhin,Alexandre Passos,Siamak Shakeri,Emanuel Taropa,Paige Bailey,Zhifeng Chen,Eric Chu,Jonathan H. Clark,Laurent El Shafey,Yanping Huang,Kathy Meier-Hellstern,Gaurav Mishra,Erica Moreira,Mark Omernick,Kevin Robinson,Sebastian Ruder,Yi Tay,Kefan Xiao,Yuanzhong Xu,Yujing Zhang,Gustavo Hernandez Abrego,Junwhan Ahn,Jacob Austin,Paul Barham,Jan Botha,James Bradbury,Siddhartha Brahma,Kevin Brooks,Michele Catasta,Yong Cheng,Colin Cherry,Christopher A. Choquette-Choo,Aakanksha Chowdhery,Clément Crepy,Shachi Dave,Mostafa Dehghani,Sunipa Dev,Jacob Devlin,Mark Díaz,Nan Du,Ethan Dyer,Vlad Feinberg,Fangxiaoyu Feng,Vlad Fienber,Markus Freitag,Xavier Garcia,Sebastian Gehrmann,Lucas Gonzalez,Guy Gur-Ari,Steven Hand,Hadi Hashemi,Le Hou,Joshua Howland,Andrea Hu,Jeffrey Hui,Jeremy Hurwitz,Michael Isard,Abe Ittycheriah,Matthew Jagielski,Wenhao Jia,Kathleen Kenealy,Maxim Krikun,Sneha Kudugunta,Chang Lan,Katherine Lee,Benjamin Lee,Eric Li,Music Li,Wei Li,YaGuang Li,Jian Li,Hyeontaek Lim,Hanzhao Lin,Zhongtao Liu,Frederick Liu,Marcello Maggioni,Aroma Mahendru,Joshua Maynez,Vedant Misra,Maysam Moussalem,Zachary Nado,John Nham,Eric Ni,Andrew Nystrom,Alicia Parrish,Marie Pellat,Martin Polacek,Alex Polozov,Reiner Pope,Siyuan Qiao,Emily Reif,Bryan Richter,Parker Riley,Alex Castro Ros,Aurko Roy,Brennan Saeta,Rajkumar Samuel,Renee Shelby,Ambrose Slone,Daniel Smilkov,David R. So,Daniel Sohn,Simon Tokumine,Dasha Valter,Vijay Vasudevan,Kiran Vodrahalli,Xuezhi Wang,Pidong Wang,Zirui Wang,Tao Wang,John Wieting,Yuhuai Wu,Kelvin Xu,Yunhan Xu,Linting Xue,Pengcheng Yin,Jiahui Yu,Qiao Zhang,Steven Zheng,Ce Zheng,Weikang Zhou,Denny Zhou,Slav Petrov,Yonghui Wu
Rohan Anil,Andrew M. Dai,Orhan Firat,Melvin Johnson,Dmitry Lepikhin,Alexandre Passos,Siamak Shakeri,Emanuel Taropa,Paige Bailey,Zhifeng Chen,Eric Chu,Jonathan H. Clark,Laurent El Shafey,Yanping Huang,Kathy Meier-Hellstern,Gaurav Mishra,Erica Moreira,Mark Omernick,Kevin Robinson,Sebastian Ruder,Yi Tay,Kefan Xiao,Yuanzhong Xu,Yujing Zhang,Gustavo Hernandez Abrego,Junwhan Ahn,Jacob Austin,Paul Barham,Jan Botha,James Bradbury,Siddhartha Brahma,Kevin Brooks,Michele Catasta,Yong Cheng,Colin Cherry,Christopher A. Choquette-Choo,Aakanksha Chowdhery,Clément Crepy,Shachi Dave,Mostafa Dehghani,Sunipa Dev,Jacob Devlin,Mark Díaz,Nan Du,Ethan Dyer,Vlad Feinberg,Fangxiaoyu Feng,Vlad Fienber,Markus Freitag,Xavier Garcia,Sebastian Gehrmann,Lucas Gonzalez,Guy Gur-Ari,Steven Hand,Hadi Hashemi,Le Hou,Joshua Howland,Andrea Hu,Jeffrey Hui,Jeremy Hurwitz,Michael Isard,Abe Ittycheriah,Matthew Jagielski,Wenhao Jia,Kathleen Kenealy,Maxim Krikun,Sneha Kudugunta,Chang Lan,Katherine Lee,Benjamin Lee,Eric Li,Music Li,Wei Li,YaGuang Li,Jian Li,Hyeontaek Lim,Hanzhao Lin,Zhongtao Liu,Frederick Liu,Marcello Maggioni,Aroma Mahendru,Joshua Maynez,Vedant Misra,Maysam Moussalem,Zachary Nado,John Nham,Eric Ni,Andrew Nystrom,Alicia Parrish,Marie Pellat,Martin Polacek,Alex Polozov,Reiner Pope,Siyuan Qiao,Emily Reif,Bryan Richter,Parker Riley,Alex Castro Ros,Aurko Roy,Brennan Saeta,Rajkumar Samuel,Renee Shelby,Ambrose Slone,Daniel Smilkov,David R. So,Daniel Sohn,Simon Tokumine,Dasha Valter,Vijay Vasudevan,Kiran Vodrahalli,Xuezhi Wang,Pidong Wang,Zirui Wang,Tao Wang,John Wieting,Yuhuai Wu,Kelvin Xu,Yunhan Xu,Linting Xue,Pengcheng Yin,Jiahui Yu,Qiao Zhang,Steven Zheng,Ce Zheng,Weikang Zhou,Denny Zhou,Slav Petrov,Yonghui Wu

We introduce PaLM 2, a new state-of-the-art language model that has better multilingual and reasoning capabilities and is more compute-efficient than its predecessor PaLM. PaLM 2 is a Transformer-based model trained using a mixture of objectives. Through extensive evaluations on English and multilingual language, and reasoning tasks, we demonstrate that PaLM 2 has significantly improved quality on downstream tasks across different model sizes, while simultaneously exhibiting faster and more efficient inference compared to PaLM. This improved efficiency enables broader deployment while also allowing the model to respond faster, for a more natural pace of interaction. PaLM 2 demonstrates robust reasoning capabilities exemplified by large improvements over PaLM on BIG-Bench and other reasoning tasks. PaLM 2 exhibits stable performance on a suite of responsible AI evaluations, and enables inference-time control over toxicity without additional overhead or impact on other capabilities. Overall, PaLM 2 achieves state-of-the-art performance across a diverse set of tasks and capabilities. When discussing the PaLM 2 family, it is important to distinguish between pre-trained models (of various sizes), fine-tuned variants of these models, and the user-facing products that use these models. In particular, user-facing products typically include additional pre- and post-processing steps. Additionally, the underlying models may evolve over time. Therefore, one should not expect the performance of user-facing products to exactly match the results reported in this report.


翻译:暂无翻译

1
下载
关闭预览

相关内容

LLM in Medical Domain: 大语言模型在医学领域的应用
专知会员服务
92+阅读 · 2023年6月17日
专知会员服务
123+阅读 · 2020年9月8日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Arxiv
0+阅读 · 2023年7月2日
Arxiv
14+阅读 · 2020年12月17日
VIP会员
相关VIP内容
LLM in Medical Domain: 大语言模型在医学领域的应用
专知会员服务
92+阅读 · 2023年6月17日
专知会员服务
123+阅读 · 2020年9月8日
100+篇《自监督学习(Self-Supervised Learning)》论文最新合集
专知会员服务
161+阅读 · 2020年3月18日
强化学习最新教程,17页pdf
专知会员服务
168+阅读 · 2019年10月11日
[综述]深度学习下的场景文本检测与识别
专知会员服务
77+阅读 · 2019年10月10日
机器学习入门的经验与建议
专知会员服务
90+阅读 · 2019年10月10日
【哈佛大学商学院课程Fall 2019】机器学习可解释性
专知会员服务
99+阅读 · 2019年10月9日
【SIGGRAPH2019】TensorFlow 2.0深度学习计算机图形学应用
专知会员服务
39+阅读 · 2019年10月9日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
26+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Capsule Networks解析
机器学习研究会
10+阅读 · 2017年11月12日
【推荐】GAN架构入门综述(资源汇总)
机器学习研究会
10+阅读 · 2017年9月3日
相关基金
Top
微信扫码咨询专知VIP会员