课程描述

本课程深入探讨大语言模型(LLMs),重点关注其设计、训练和使用。课程从注意力机制和Transformer架构开始,随后介绍预训练的实用方面和高效部署,最后讲解提示(prompting)和神经符号学习等高级技术。课程旨在为学生提供批判性分析LLM研究的技能,并将这些概念应用于现实世界中的场景。建议具备扎实的机器学习、编程和深度学习基础。 https://llm-class.github.io/

涉及主题

LLMs 的发展历史 * Transformer 架构 * 模型训练技术 * 提示工程(Prompt Engineering) * 伦理考量和安全措施 * 高级集成技术(例如,RAG、智能体、神经符号学习)

每周安排

第1周: 课程介绍 第2-3周: Transformer架构 第4-5周: 预训练(数据准备、并行化、扩展法则、指令微调、对齐、评估) 第6周: 适应(参数高效的微调技术和设计空间) 第7周: 提示技术 第8周: 快速高效的推理(量化、vLLM框架、Flash Attention、稀疏化/蒸馏) 第9周: RAG 和向量数据库 第10周: 智能体框架 第11周: 神经符号架构 第12周: 课程总结 第13-14周: 项目——构思、设计、实施、评估 第15-16周: 项目——报告与展示

课程目标

在课程结束时,学生将能够: * 分析现代及即将出现的Transformer架构中的设计决策。 * 确定为新任务预训练或微调LLM所需的硬件、软件和数据要求。 * 根据LLM的能力和可靠性,理解其适用场景及其局限性。 * 利用对LLM理论和软件的深入理解,设计提示和围绕LLM的应用。

成为VIP会员查看完整内容
49

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
不可错过!加州理工最新《大模型推理》课程
专知会员服务
69+阅读 · 4月15日
不可错过!北交《深度学习》专业课,附Slides与视频
专知会员服务
81+阅读 · 2022年9月12日
专知会员服务
33+阅读 · 2020年12月28日
不可错过!华盛顿大学最新《生成式模型》课程,附PPT
专知会员服务
63+阅读 · 2020年12月11日
佐治亚理工2020《数据库系统实现》课程,不可错过!
专知会员服务
23+阅读 · 2020年10月14日
【课程推荐】普林斯顿陈丹琦COS 484: 自然语言处理课程
专知会员服务
82+阅读 · 2019年12月11日
DLI精选课程 | 用TensorRT实现视频分析部署(内文有礼)
英伟达NVIDIA中国
11+阅读 · 2019年4月26日
从入门到精通-Tensorflow深度强化学习课程
深度学习与NLP
23+阅读 · 2019年3月7日
(免费精品课程分享)-PyTorch深度学习实战
深度学习与NLP
18+阅读 · 2018年10月28日
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年6月30日
国家自然科学基金
13+阅读 · 2016年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年7月12日
国家自然科学基金
33+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
147+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
26+阅读 · 2019年3月5日
VIP会员
相关基金
国家自然科学基金
14+阅读 · 2017年12月31日
国家自然科学基金
6+阅读 · 2017年6月30日
国家自然科学基金
13+阅读 · 2016年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年7月12日
国家自然科学基金
33+阅读 · 2014年12月31日
国家自然科学基金
7+阅读 · 2014年12月31日
国家自然科学基金
4+阅读 · 2014年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
相关论文
Arxiv
158+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
408+阅读 · 2023年3月31日
Arxiv
68+阅读 · 2023年3月26日
Arxiv
147+阅读 · 2023年3月24日
Arxiv
21+阅读 · 2023年3月17日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
26+阅读 · 2019年3月5日
微信扫码咨询专知VIP会员