精英日课解读的2023年3月9日刚刚出版的新书《ChatGPT在做什么…以及它为什么好使》(What Is ChatGPT Doing ... and Why Does It Work? ),作者是史蒂芬·沃尔夫勒姆(Stephen Wolfram)他是一个神人,他发明了Mathematics软件,他做了WolframAlpha网站,他搞了一个计算语言叫沃尔夫勒姆语言,他对整个物理学提出了全新的看法。

https://www.wolfram-media.com/products/what-is-chatgpt-doing-and-why-does-it-work/

这本书不是赶时髦,讲的不是GPT的一般功能,而是数学原理和哲学思辨,而数学和哲学是不会过时的。本书得到了OpenAI CEO山姆·奥特曼(Sam Altman)的背书,说是他所见过最好的解释。

沃尔夫勒姆不但讲清楚了GPT的底牌和命门,而且提出了一个可谓惊世骇俗的洞见。

GPT和目前市面上所有的AI,本质上都是神经网络。所以GPT更像人脑,而不是像一般的计算机程序。GPT是一个语言模型,在最本质上,语言模型的功能无非是对文本进行合理的延续,说白了就是预测下一个词该说什么。也正式因为如此,如果让 GPT 做大数字的计算,他会出错。

但是,GPT 却为什么这么好用?奥特曼说,这是上天的眷顾。OpenAI最应该感恩的,是运气。

沃尔夫勒姆讲了GPT的一些特点,其中有三个最幸运的发现——

第一,GPT没有让人类教给它什么「自然语言处理(NLP)」之类的规则。所有语言特征,语法也好语义也好,全是它自己发现的,说白了就是暴力破解。事实证明让神经网络自己发现一切可说和不可说的语言规则,人不插手,是最好的办法。

第二,GPT表现出强烈的「自组织」能力,也就是「涌现」和「思维链」。你不需要人为给它安排什么组织,它自己就能长出各种组织来。

第三,也许是最神奇的一件事情是,GPT用同一个神经网络架构,似乎就能解决表面上相当不同的任务!按理说,画画应该有个画画神经网络,写文章应该有个写文章神经网络,编程应该有个编程神经网络,你得去分别训练——可是事实上,这些事情用同一个神经网络就能做。

GPT的底牌是:它只是一个语言模型,但同时,它很神奇。

GPT的命门是:它是用来思考的,不是用来执行冷酷无情的计算的。

这样说来,虽然GPT比人脑知道的更多、反应更快,但作为神经网络,它并没有在本质上超越人脑。而沃尔夫勒姆有一个洞见:用这么简单的规则组成的神经网络就能很好地模拟人脑的语言系统,这说明人脑的语言系统并不厉害,GPT证明了,语言系统是个简单系统!

沃尔夫勒姆让我们认识到了GPT的根本局限性:神经网络的计算范围是有限的。

Preface

What Is ChatGPT Doing ... and Why Does It Work? * It's Just Adding One Word at a Time * Where Do the Probabilities Come From? * What Is a Model? * Models for Human-Like Tasks * Neural Nets * Machine Learning, and the Training of Neural Nets * The Practice and Lore of Neural Net Training * "Surely a Network That's Big Enough Can Do Anything!" * The Concept of Embeddings * Inside ChatGPT * The Training of ChatGPT * Beyond Basic Training * What Really Lets ChatGPT Work? * Meaning Space and Semantic Laws of Motion * Semantic Grammar and the Power of Computational Language * So ... What Is ChatGPT Doing, and Why Does It Work? * Thanks

Wolfram|Alpha as the Way to Bring Computational Knowledge Superpowers to ChatGPT * ChatGPT and Wolfram|Alpha * A Basic Example * A Few More Examples * The Path Forward * Additional Resources

成为VIP会员查看完整内容
170

相关内容

ChatGPT(全名:Chat Generative Pre-trained Transformer),美国OpenAI 研发的聊天机器人程序 [1] ,于2022年11月30日发布 。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过学习和理解人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完成撰写邮件、视频脚本、文案、翻译、代码,写论文任务。 [1] https://openai.com/blog/chatgpt/
【2023新书】《ChatGPT入门》,179页pdf
专知会员服务
256+阅读 · 2023年5月30日
【2022新书】生命科学的数据分析,511页pdf
专知会员服务
70+阅读 · 2022年11月15日
【干货书】Python科学编程,451页pdf
专知会员服务
127+阅读 · 2021年6月27日
【2021新书】《用正确的方式学Python》,456页pdf
专知会员服务
77+阅读 · 2021年6月9日
自然语言处理现代方法,176页pdf
专知会员服务
267+阅读 · 2021年2月22日
专知会员服务
116+阅读 · 2021年1月31日
【干货书】计算机科学离散数学,627页pdf
专知会员服务
131+阅读 · 2020年8月31日
【2022新书】生命科学的数据分析,511页pdf
专知
13+阅读 · 2022年11月15日
为什么鱼要低着头游泳?
学术头条
0+阅读 · 2022年11月4日
DeepMind:为什么GPT能为你写诗?
新智元
1+阅读 · 2022年6月3日
可达鸭为什么这么火?
ZEALER订阅号
0+阅读 · 2022年5月23日
什么是自然语言理解(NLU)?及2019最新进展
产品100干货速递
17+阅读 · 2019年7月18日
胶囊网络,是什么?
人工智能头条
32+阅读 · 2019年1月2日
自然语言处理NLP的坑到底有多大?
专知
46+阅读 · 2018年11月12日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年5月25日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
VIP会员
相关主题
相关VIP内容
相关资讯
【2022新书】生命科学的数据分析,511页pdf
专知
13+阅读 · 2022年11月15日
为什么鱼要低着头游泳?
学术头条
0+阅读 · 2022年11月4日
DeepMind:为什么GPT能为你写诗?
新智元
1+阅读 · 2022年6月3日
可达鸭为什么这么火?
ZEALER订阅号
0+阅读 · 2022年5月23日
什么是自然语言理解(NLU)?及2019最新进展
产品100干货速递
17+阅读 · 2019年7月18日
胶囊网络,是什么?
人工智能头条
32+阅读 · 2019年1月2日
自然语言处理NLP的坑到底有多大?
专知
46+阅读 · 2018年11月12日
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员