Increase in computational scale and fine-tuning has seen a dramatic improvement in the quality of outputs of large language models (LLMs) like GPT. Given that both GPT-3 and GPT-4 were trained on large quantities of human-generated text, we might ask to what extent their outputs reflect patterns of human thinking, both for correct and incorrect cases. The Erotetic Theory of Reason (ETR) provides a symbolic generative model of both human success and failure in thinking, across propositional, quantified, and probabilistic reasoning, as well as decision-making. We presented GPT-3, GPT-3.5, and GPT-4 with 61 central inference and judgment problems from a recent book-length presentation of ETR, consisting of experimentally verified data-points on human judgment and extrapolated data-points predicted by ETR, with correct inference patterns as well as fallacies and framing effects (the ETR61 benchmark). ETR61 includes classics like Wason's card task, illusory inferences, the decoy effect, and opportunity-cost neglect, among others. GPT-3 showed evidence of ETR-predicted outputs for 59% of these examples, rising to 77% in GPT-3.5 and 75% in GPT-4. Remarkably, the production of human-like fallacious judgments increased from 18% in GPT-3 to 33% in GPT-3.5 and 34% in GPT-4. This suggests that larger and more advanced LLMs may develop a tendency toward more human-like mistakes, as relevant thought patterns are inherent in human-produced training data. According to ETR, the same fundamental patterns are involved both in successful and unsuccessful ordinary reasoning, so that the "bad" cases could paradoxically be learned from the "good" cases. We further present preliminary evidence that ETR-inspired prompt engineering could reduce instances of these mistakes.


翻译:随着计算规模和微调的增加,大型语言模型(LLM)如 GPT 在输出质量方面取得了显著的改进。鉴于 GPT-3 和 GPT-4 都是基于大量人类生成的文本进行训练的,我们可以问一下它们的输出在正确和错误情况下在多大程度上反映了人类思维的模式。问答理论(ETR)提供了一种人类思维的符号生成模型,涵盖了命题、量化和概率推理以及决策制定等多种领域的成功和失败。我们向 GPT-3、GPT-3.5 和 GPT-4 提供了一组由 ETR 最近一个描述中心推理和判断问题的书籍中的 61 个问题,该书包括被实验验证的人类判断和由 ETR 预测的外推数据点,其中包括正确的推理模式以及谬误和框架效应(ETR61指标)。ETR61 包括瓦森的卡牌任务、虚假推理、诱饵效应和机会成本忽视等经典问题。GPT-3 在这些例子中显示了 ETR 预测的输出的证据,比例达到 59% ,在 GPT-3.5 中升高到 77%,在 GPT-4 中为 75%。值得注意的是,在 GPT-3 中产生人类式谬误判断的比例从 18% 增至在 GPT-3.5 和 GPT-4 中的 33% 和 34%。这表明,更大更先进的 LLM 可能会趋向于产生更人类式的错误,因为这些相关的思考模式根植于人类产生的训练数据中。根据 ETR,同样的基本模式在成功和失败的普通推理中都涉及到,因此「坏」的情况可能出人意料地从「好」的情况中学习得到。我们进一步提供初步证据,表明基于 ETR 的提示工程可以减少这些错误的出现。

0
下载
关闭预览

相关内容

零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
强化学习三篇论文 避免遗忘等
CreateAMind
19+阅读 · 2019年5月24日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
27+阅读 · 2019年5月18日
ICLR2019最佳论文出炉
专知
12+阅读 · 2019年5月6日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Arxiv
0+阅读 · 2023年5月18日
Arxiv
10+阅读 · 2020年11月26日
VIP会员
相关基金
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员