学习使用大型语言模型构建具有成本效益的应用 在《基于大型语言模型的解决方案:如何通过具有成本效益的生成式 AI 应用交付价值》一书中,亚马逊网络服务的首席数据科学家 Shreyas Subramanian 为希望构建和部署具有成本效益的大型语言模型 (LLM) 解决方案的开发人员和数据科学家提供了实用指南。本书涵盖了广泛的关键主题,包括如何选择模型、数据的前处理和后处理、提示工程和指令微调。 作者阐明了优化推理的技术,如模型量化和剪枝,以及典型生成式 AI (GenAI) 应用(包括搜索系统、代理辅助和自主代理)的不同且经济实惠的架构。您还将找到:
《基于大型语言模型的解决方案》适合有兴趣部署基础模型的开发人员和数据科学家,或计划扩展其生成式 AI 应用的业务领导者,同时也将使项目负责人、经理、技术支持人员和对此主题感兴趣的管理员受益。 封底介绍 在优化成本的同时平衡性能,以释放 AI 的潜力 随着 AI 和机器学习的兴起,大型语言模型 (LLM) 变得越来越流行,但其高计算成本对许多组织来说是一个进入门槛。本书提供了构建和部署 LLM 的成本效益方法。在从模型选择、提示工程到微调和部署的每个阶段,您都可以在不显著牺牲性能的情况下尽量减少成本。 《基于大型语言模型的解决方案》为开发人员和数据科学家提供了实施有价值的生成式 AI 应用(如搜索系统、代理辅助和自主代理)所需的实用技术知识。该书探讨了优化推理的技术,如模型量化和剪枝,以及在基础设施层面降低成本的机会。它还考虑了 LLM 成本优化的未来趋势,以便您在生成式 AI 的下一阶段保持竞争力。
由亚马逊首席数据科学家之一撰写的本书,使您能够克服与 LLM 相关的挑战,并成功实施生成式 AI。 关于作者 SHREYAS SUBRAMANIAN 博士是 AWS 的首席数据科学家之一,该公司是构建和提供企业用大型语言模型的最大组织之一。他目前为亚马逊内部团队和大型企业客户提供构建、调优和大规模部署生成式 AI 应用的建议。Shreyas 主持了以机器学习为重点的成本优化研讨会,帮助他们减少云端机器学习应用的成本。Shreyas 还积极参与先进的基础模型训练、调优和部署技术的前沿研究和开发。