大型语言模型(LLMs)和扩散模型,如ChatGPT和Stable Diffusion,具有前所未有的潜力。由于它们经过了对互联网公开文本和图像的训练,它们可以为各种任务做出有用的贡献。随着入门门槛的显著降低,几乎任何开发者都可以利用LLMs和扩散模型来解决以前不适合自动化的问题。通过本书,您将获得生成式AI的坚实基础,包括如何在实践中应用这些模型。大多数开发者在首次将LLMs和扩散模型集成到他们的工作流程中时,往往难以从中获得足够可靠的结果以用于自动化系统。作者James Phoenix和Mike Taylor向您展示了一套称为提示工程的原则,这些原则可以使您有效地与AI合作。学习如何让AI为您服务。本书解释了:

  • 您程序的AI模型的交互链结构及其之间的细化步骤- 如何将应用问题转化为模型训练领域的文档完成问题,从而产生AI模型请求- LLM和扩散模型架构的影响——以及如何与其最佳互动- 这些原则在自然语言处理、文本和图像生成以及代码领域的实践应用书评“这是我读过的关于提示工程的最好的书籍资源。Mike和James是他们领域的专家。” ——Dan Shipper,Every联合创始人兼CEO“这本书是生成式AI和提示工程基础知识的一个坚实介绍。作者涵盖了从初学者到高级用户的各种有用技巧,简单、实用且易于理解。如果您希望提高AI系统的准确性和可靠性,这本书应当在您的书架上。”——Mayo Oshin,Siennai Analytics创始人兼CEO,LangChain早期贡献者“Phoenix和Taylor的指南是生成式AI浩瀚海洋中的灯塔。这本书成为了我们团队在Phiture AI Labs学习如何利用LLMs和扩散模型创建与客户应用和游戏本质相符的营销资产的基石。通过提示工程,我们能够大规模生成定制的品牌内容。这不仅仅是理论;这是将AI的原始潜力转化为定制解决方案的实践大师课程,使其成为希望将AI集成提升到新的创造力和效率高度的开发者的必读书籍。” ——Moritz Daan,Phiture移动增长咨询公司创始人/合伙人

“《生成式AI的提示工程》可能是未来保障您技术职业的最具前瞻性的方法。这无疑是任何从事AI实际应用工作的人的最佳资源。这里面丰富、精炼的原则将帮助新老AI工程师在未来可预见的竞争中保持领先。” ——Ellis Crosby,Incremento CTO兼联合创始人“这是代理和服务专业人员的必备指南。将AI与服务和客户交付结合起来,利用自动化管理,加快解决方案的速度,将设定新的行业标准。您会在书中找到有用、实用的信息和策略,使您能够充分理解和利用AI的潜力。” ——Byron Tassoni-Resch,WeDiscover CEO兼联合创始人作者的话自2020年GPT-3测试版以来,我们一直在做提示工程,当GPT-4推出时,我们发现许多我们曾使用的技巧和窍门已不再必要。这促使我们定义了一套可跨模型和模态转移的面向未来的原则,这些原则在使用GPT-5或未来的任何模型时仍然有用。提示的五项原则是:1. 提供方向:详细描述所需的风格,或参考相关的角色。2. 指定格式:定义要遵循的规则和响应的必要结构。3. 提供示例:插入一组多样的测试案例,其中任务已正确完成。4. 评估质量:识别错误并评价响应,测试驱动性能的因素。5. 分工:将任务分成多个步骤,链式连接以实现复杂目标。我们首次在2022年7月以博客文章的形式发布了这些原则,它们经受住了时间的考验,包括与OpenAI自己一年后发布的提示工程指南高度契合。任何与生成式AI密切合作的人都可能会收敛到一组类似的策略来解决常见问题,但这本书旨在更快地让您达到这一点。在本书中,您将看到数百个提示技术的示例,包括文本和图像提示,以及使用Python构建AI自动化脚本和产品。这不是一个寻找正确魔法词组组合的提示技巧列表,而是一个构建系统的实用指南,提供AI应用所需的正确上下文,以及如何测试和扩展生产环境中的AI系统。如果您符合以下情况,这本书将对您有用:- 您的时间价值超过每小时40美元,阅读这本书节省的几个小时,而不是从多个来源拼凑一切,对您来说是值得的。- 您不仅是随便使用AI,而是实际在构建一个AI应用或内部模板,许多人每天将使用数百或数千次。- 您希望通过学习数百个如何解决AI常见问题的真实案例来减少幻觉并提高AI的可靠性。- 您希望比较OpenAI与其他模型的优缺点,以及LangChain等常见框架、不同的向量数据库选项和AUTOMATIC1111。- 您想看到从一个天真的提示到一个完整AI代理,包括使用Gradio构建基本用户界面的端到端AI应用构建过程。

成为VIP会员查看完整内容
49

相关内容

书籍在狭义上的理解是带有文字和图像的纸张的集合。广义的书则是一切传播信息的媒体。
模仿学习综述:算法、最新进展和挑战
专知会员服务
60+阅读 · 2023年9月9日
牛逼哄哄的图卷积神经网络将带来哪些机遇?
计算机视觉life
49+阅读 · 2019年3月25日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
142+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
348+阅读 · 2023年3月31日
Arxiv
18+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
22+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
微信扫码咨询专知VIP会员