本书全面介绍了一系列主题,涵盖了Transformer(Transformer)架构、BERT模型以及GPT系列(包括GPT-3和GPT-4)的详细信息。全书共十章,从基础概念如注意力机制开始,接着是分词技术,探索Transformer和BERT架构的细微差别,并在GPT系列的最新进展等高级主题上达到高潮,包括ChatGPT。关键章节提供了对深度学习中注意力进化和重要性的洞见,Transformer架构的复杂性,BERT家族的两部分探索,以及关于如何使用GPT-3的实操指导。结尾章节呈现了ChatGPT、GPT-4以及使用生成性AI的可视化概述。除了主要主题外,本书还涵盖了DeepMind、OpenAI、Cohere、Hugging Face等有影响力的AI组织。读者将全面了解当前自然语言处理模型的景观、它们的底层架构和实际应用。附带的配套文件包括众多代码样本和书中的图表。

功能特色:

  • 提供一系列全面的主题,详细介绍了Transformer架构、BERT模型和GPT系列(包括GPT-3和GPT-4)。
  • 配套文件包括众多代码样本和书中的图表。

成为VIP会员查看完整内容
44

相关内容

Transformer是谷歌发表的论文《Attention Is All You Need》提出一种完全基于Attention的翻译架构

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【2023新书】在Python 3中使用ChatGPT / GPT-4,202页pdf
专知会员服务
73+阅读 · 2023年12月27日
【2023新书】工业统计:基于Python的计算机方法, 486页pdf
专知会员服务
90+阅读 · 2023年7月9日
【干货书】用于概率、统计和机器学习的Python,288页pdf
专知会员服务
284+阅读 · 2020年6月3日
【干货书】高维统计学,572页pdf
专知
12+阅读 · 2021年12月3日
【干货书】概率,统计与数据,513页pdf
专知
31+阅读 · 2021年11月27日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
33+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
145+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
362+阅读 · 2023年3月31日
Arxiv
60+阅读 · 2023年3月26日
Arxiv
128+阅读 · 2023年3月24日
Arxiv
19+阅读 · 2023年3月17日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
33+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员