当谈到由生成式 AI 驱动的应用程序时,当前最流行的框架之一是智能体。智能体可以定义为高度专业化的实体,能够通过规划和与周围生态系统的互动来实现用户的目标。在本次讨论中,您将探讨 AI 智能体的主要组成部分,如大语言模型(LLMs)、提示(Prompts)、记忆(Memory)和工具(Tools)。我们还将讨论构建健壮、企业级智能体的架构最佳实践,重点关注语义缓存(semantic caching)和 GraphRag 等新兴趋势。

成为VIP会员查看完整内容
35

相关内容

脑启发的人工智能:全面综述
专知会员服务
34+阅读 · 8月30日
多模态大语言模型
专知会员服务
71+阅读 · 6月25日
从数据中心视角看多模态大型语言模型的综述
专知会员服务
53+阅读 · 5月28日
《大型语言模型自然语言生成评估》综述
专知会员服务
65+阅读 · 1月20日
【EMNLP2023教程】自然语言处理可视化,200页ppt
专知会员服务
52+阅读 · 2023年12月6日
大型语言模型在软件工程:调查与待解决的问题
专知会员服务
73+阅读 · 2023年10月6日
可解释的机器学习模型和架构
专知会员服务
87+阅读 · 2023年9月17日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
面向自然语言处理的知识图谱嵌入:从理论到实践
专知会员服务
51+阅读 · 2022年10月16日
面向多智能体博弈对抗的对手建模框架
专知
10+阅读 · 2022年9月28日
基于模型的强化学习综述
专知
27+阅读 · 2022年7月13日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
【深度强化学习教程】高质量PyTorch实现集锦
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
手把手教你如何部署深度学习模型
全球人工智能
15+阅读 · 2018年2月5日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2008年12月31日
Arxiv
149+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
385+阅读 · 2023年3月31日
Arxiv
64+阅读 · 2023年3月26日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关VIP内容
脑启发的人工智能:全面综述
专知会员服务
34+阅读 · 8月30日
多模态大语言模型
专知会员服务
71+阅读 · 6月25日
从数据中心视角看多模态大型语言模型的综述
专知会员服务
53+阅读 · 5月28日
《大型语言模型自然语言生成评估》综述
专知会员服务
65+阅读 · 1月20日
【EMNLP2023教程】自然语言处理可视化,200页ppt
专知会员服务
52+阅读 · 2023年12月6日
大型语言模型在软件工程:调查与待解决的问题
专知会员服务
73+阅读 · 2023年10月6日
可解释的机器学习模型和架构
专知会员服务
87+阅读 · 2023年9月17日
KnowledGPT:基于知识库的检索和存储访问增强大型语言模型
面向自然语言处理的知识图谱嵌入:从理论到实践
专知会员服务
51+阅读 · 2022年10月16日
相关资讯
面向多智能体博弈对抗的对手建模框架
专知
10+阅读 · 2022年9月28日
基于模型的强化学习综述
专知
27+阅读 · 2022年7月13日
深度学习的下一步:Transformer和注意力机制
云头条
56+阅读 · 2019年9月14日
初学者的 Keras:实现卷积神经网络
Python程序员
24+阅读 · 2019年9月8日
【深度强化学习教程】高质量PyTorch实现集锦
深度学习超参数搜索实用指南
云栖社区
28+阅读 · 2018年10月14日
手把手教你如何部署深度学习模型
全球人工智能
15+阅读 · 2018年2月5日
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
36+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2008年12月31日
微信扫码咨询专知VIP会员