大语言模型(LLM)正在改变世界,承诺自动化任务并解决复杂问题。新一代的软件应用程序正在将这些模型作为构建块,释放几乎每个领域的新潜力,但要可靠地访问这些能力,需要掌握新的技能。本书将教你提示工程的艺术与科学——解锁LLM真正潜力的关键。

行业专家 John BerrymanAlbert Ziegler 分享了如何与人工智能有效沟通,将你的想法转化为语言模型友好的格式。通过学习哲学基础和实践技巧,你将获得知识和信心,能够构建下一代基于LLM的应用程序。

  • 理解LLM架构并学习如何与其最佳互动
  • 设计应用程序的完整提示制作策略
  • 收集、整理并呈现上下文元素,以创建高效提示
  • 掌握特定的提示制作技巧,如少量样本学习(few-shot learning)、思维链提示(chain-of-thought prompting)和RAG(retrieval-augmented generation)

作者介绍

John Berryman 是 Arcturus Labs 的创始人兼首席顾问,专注于LLM应用程序开发。他的专业知识帮助企业利用先进的人工智能技术。作为 GitHub Copilot 的早期工程师,John 为其自动补全和聊天功能的发展做出了贡献,处于人工智能辅助编程工具的前沿。 在参与Copilot的工作之前,John在搜索引擎领域建立了令人印象深刻的职业生涯。他的多元化经验包括帮助开发美国专利局的下一代搜索系统,为 Eventbrite 构建搜索和推荐系统,并为 GitHub 的代码搜索基础设施做出贡献。John 还是《Relevant Search》(Manning)的共同作者,该书总结了他在搜索领域的专业知识。 John 在尖端人工智能应用和基础搜索技术方面的独特背景,使他处于LLM应用和信息检索创新的前沿。 Albert Ziegler 早在LLM应用成为主流之前,就开始设计以人工智能驱动的系统。作为 GitHub Copilot 的创始工程师,他设计了其提示工程系统,并帮助激发了一波 AI 驱动工具和“Copilot”应用程序的浪潮,塑造了开发者辅助和LLM应用程序的未来。 如今,Albert 继续在 AI 技术的前沿推动边界,担任 AI 网络安全公司 XBOW 的 AI 部门负责人。在那里,他领导将大语言模型与尖端安全应用结合的工作,致力于保护未来数字世界的安全。

成为VIP会员查看完整内容
47

相关内容

大语言模型是基于海量文本数据训练的深度学习模型。它不仅能够生成自然语言文本,还能够深入理解文本含义,处理各种自然语言任务,如文本摘要、问答、翻译等。2023年,大语言模型及其在人工智能领域的应用已成为全球科技研究的热点,其在规模上的增长尤为引人注目,参数量已从最初的十几亿跃升到如今的一万亿。参数量的提升使得模型能够更加精细地捕捉人类语言微妙之处,更加深入地理解人类语言的复杂性。在过去的一年里,大语言模型在吸纳新知识、分解复杂任务以及图文对齐等多方面都有显著提升。随着技术的不断成熟,它将不断拓展其应用范围,为人类提供更加智能化和个性化的服务,进一步改善人们的生活和生产方式。
【新书】大型语言模型实战:语言理解与生成
专知会员服务
55+阅读 · 11月6日
【新书】生成式人工智能傻瓜书入门
专知会员服务
47+阅读 · 9月24日
【新书】生成人工智能实战,466页pdf
专知会员服务
82+阅读 · 9月12日
【新书】大型语言模型:概念、技术与应用
专知会员服务
75+阅读 · 9月8日
【2023新书】机器学习集成方法,354页pdf
专知
38+阅读 · 2023年4月11日
国家自然科学基金
12+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
404+阅读 · 2023年3月31日
Arxiv
67+阅读 · 2023年3月26日
Arxiv
144+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
12+阅读 · 2016年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员