利用前沿的生成型AI技术,如检索增强生成(RAG),充分发挥数据潜力,推动创新并获得战略优势。

关键特点

  • 使用向量数据库优化数据检索与生成
  • 利用AI代理增强决策制定与工作流程自动化
  • 克服实现现实世界RAG系统中的常见挑战
  • 购买印刷版或Kindle版书籍可免费获得PDF电子书

书籍概述

生成型AI正在帮助组织以全新的方式挖掘数据,检索增强生成(RAG)结合了大型语言模型(LLMs)与内部数据的优势,推动了更智能和相关的AI应用。作者凭借十年的机器学习经验,在本书中为读者提供了战略见解和技术专业知识,帮助您利用RAG推动变革性成果。 本书探讨了RAG在增强组织运营中的作用,将理论基础与实际技术相结合。您将通过使用LangChainChroma的向量数据库等工具进行详细的编码示例,获得将RAG集成到AI系统中的实践经验。本书章节包含了现实世界的案例研究和示例应用,展示了RAG的多种用例,从搜索引擎到聊天机器人。您将学习管理向量数据库、优化数据检索、有效的提示工程以及定量评估性能的成熟方法。本书还将引导您深入了解RAG与先进AI代理以及新兴非LLM技术的高级集成。 通过阅读本书,您将能够成功地在商业环境中部署RAG,解决常见挑战,并推动利用这一革命性AI技术的可能性。

学习内容

  • 理解RAG的基本原理及其在生成型AI中的重要性
  • 将LLM与内部数据集成,以增强操作效率
  • 掌握向量化、向量数据库和向量搜索技术
  • 培养专门针对RAG的提示工程技能,设计精准的AI响应
  • 了解AI代理在推动复杂RAG应用中的作用
  • 克服可扩展性、数据质量和集成问题
  • 探索优化数据检索和AI可解释性的策略

适合人群

本书适合那些希望利用RAG和生成型AI提升数据检索、改进AI准确性和推动创新的AI研究人员、数据科学家、软件开发人员和商业分析师。特别适合那些有基础AI知识的人,他们希望通过实践学习。本书提供了现实世界的编码示例和实施RAG的策略,使其对技术人员和非技术人员都具有可读性。需要具备基本的Python和Jupyter Notebooks知识。

目录

  1. 什么是检索增强生成(RAG)

  2. 代码实验室:完整的RAG管道

  3. RAG的实际应用

  4. RAG系统的组成

  5. 管理RAG应用中的安全性

  6. 与RAG和Gradio接口

  7. 向量和向量存储在RAG中的关键作用

  8. 使用向量进行相似性搜索

  9. 通过定量分析和可视化评估RAG

  10. LangChain中关键的RAG组件

  11. 利用LangChain从RAG中获取更多

  12. 将RAG与AI代理和LangGraph结合

  13. 通过提示工程提高RAG效果

  14. 提升结果的高级RAG技术

书评

“这本书是软件和应用开发人员的宝贵资源,特别是对于那些急于开始构建LLM应用程序的人来说。它作为一本最先进的指南脱颖而出,涵盖了最新的框架和库,如LangChain和Ragas。无论您是想要原型设计新想法,还是想将LLM应用程序扩展到生产环境,本书都提供了理论基础和实践建议,帮助您构建强大且可扩展的AI系统,包括检索增强生成(RAG)和代理工作流等新兴概念。 我相信这本书将成为任何希望利用生成型AI的人的必备资源。Keith清晰且富有洞察力的指导不仅能帮助您理解这些技术的潜力,还能赋能您构建下一代智能应用。” —— Shahul Es, Ragas.io联合创始人兼CTO

作者简介

Keith Bourne是强生公司(Johnson & Johnson)资深生成型AI数据科学家,拥有十多年在机器学习和AI领域的工作经验,涉及多个从初创公司到财富500强企业的项目。他持有Babson College的MBA学位以及密歇根大学的应用数据科学硕士学位,曾从零开始开发多个复杂的模块化生成型AI平台,运用了包括RAG、AI代理和基础模型微调等先进技术。Keith致力于将自己的知识分享给更广泛的受众,旨在帮助组织了解RAG的复杂性并充分利用这一有前景的技术。

成为VIP会员查看完整内容
0

相关内容

【CVPR2022】基于知识蒸馏的高效预训练
专知会员服务
31+阅读 · 2022年4月23日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
406+阅读 · 2023年3月31日
Arxiv
11+阅读 · 2022年9月1日
Arxiv
12+阅读 · 2022年4月12日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
26+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员