语言AI原来知道自己的回答是否正确!伯克利等高校新研究火了,网友:危险危险危险

2022 年 7 月 15 日 量子位
万博 发自 凹非寺
量子位 | 公众号 QbitAI

语言AI,具备了人类的自我审视能力:

最近,一个来自加州大学伯克利分校和霍普金斯大学的学术团队研究表明:

它不仅能判断自己的答案正确与否,而且经过训练,还能预测自己知道一个问题答案的概率。

研究成果一经发布,就引起热议,有人的第一反应是恐慌:

也有人认为,这项成果,对神经网络研究具有正面意义:

语言AI具备自我审视能力

研究团队认为,如果要让语言AI模型自我评估,必须有一个前提:

语言AI回答问题时,会校准自己的答案。

这里的校准,就是语言AI预测一个答案的正确概率,是否与实际发生的概率一致。

只有这样语言AI才可以运用这种校准的能力来评估自己输出的答案是否正确。

所以第一个问题是,语言AI能否对自己的答案进行校准?

为了证明这个问题,研究团队为AI准备了5个选择题:

答案选项,以A、B、C的形式给出。

如果AI模型答案的正确率超过偶然几率,那么就证明AI模型给出的答案是经过校准的。

而测试的结果是,语言AI给出的答案,正确率明显超过任意选项的偶然几率。

也就是说,语言AI模型可以对自己的答案进行很好的校准。

但研究团队发现,语言AI的校准能力,是建立在选项答案明确的前提下的。

如果在选项中加入一个“以上都不是”的不确定选项,就会损害语言AI的校准能力。

也就是说,在特定格式的选择题中,语言AI模型可以对答案进行很好的校准。

明确了这个前提之后,下一个问题是,验证语言AI模型能够判断自己的答案是否正确。

在这一轮的测试中,为了能让AI模型的预测更接近自己的有效决策边界。

研究团队仍然选择上一轮测试的问题,以及语言AI模型的答案样本。

同时让AI模型选择自己的答案真假与否,之后再针对这个“真”或“假”的答案,分析AI模型是否做出有效的校准。

问题设置举例如下:

在经过20次的真假测试之后,研究团队发现,语言AI模型对自己答案或“真”或“假”的评价,都经过明显的校准。

也就是说,如果在一个范围内,给AI模型提出若干问题,然后AI模型对这些问题的答案进行真假评价,具有合理的,且经过校准的置信度

这也证明,语言AI模型确实可以判断自己对一个问题的主张是否正确。

最后,研究团队对语言AI模型提出了一个更难的问题:AI模型经过训练,能否预测他们是否知道任何给定问题的答案。

在这一环节,研究团引入一个数据P(IK)(我知道这个答案的概率)并在下面两种训练方式中挑选一种进行训练:

  • Value Head(价值导向):把P(IK)训练成为一个额外的价值导向,再添加到模型的对数(独立于语言建模的对数,这种方法的优势在于,研究团队可以很容易的探测P(IK)的一般标记位置。

  • Natural Language(自然语言)这种方法比较简单,就是要求AI模型从字面上回答“你知道这个答案的概率是多少”,同时输出一个百分比数据答案。

在训练初期,研究团队比较倾向于自然语言训练方式,但结果并不显著,由此转向价值导向方式,不过研究团队同时表示,最终对AI模型的训练还将回归自然语言方法。

在经过训练之后,研究团队发现,语言AI模型可以很好的预测P(IK),并且在不同类型的问题中,这种预测能力具有部分通用性。

不过,研究团队也发现,在某些类型的问题,比如算术问题,语言AI模型在OOD校准时有一些困难。

对于这一学术成果,研究团队表示,将来的方向,是将这些成果,推广到语言AI模型不模仿人类文本的前提下,自我学习和事实推理领域。

作者介绍

论文通讯作者Jared Kaplan博士,是一位理论物理学家,同时也是一位机器学习专家,现担任霍普金斯大学助理教授,主要研究领域,机器学习研究,包括神经模型的缩放规律以及GPT-3语言模型。

共同通讯作者Saurav Kadavath,Anthropic公司研究员,现在加州大学伯克利分校EECS专业攻读硕士学位,主要研究领域是机器学习,大规模语言学习等。

参考链接

https://arxiv.org/abs/2207.05221

「人工智能」、「智能汽车」微信社群邀你加入!

欢迎关注人工智能、智能汽车的小伙伴们加入我们,与AI从业者交流、切磋,不错过最新行业发展&技术进展。

ps.加好友请务必备注您的姓名-公司-职位哦~


点这里👇关注我,记得标星哦~

一键三连「分享」、「点赞」和「在看」

科技前沿进展日日相见~

登录查看更多
0

相关内容

人工智能杂志AI(Artificial Intelligence)是目前公认的发表该领域最新研究成果的主要国际论坛。该期刊欢迎有关AI广泛方面的论文,这些论文构成了整个领域的进步,也欢迎介绍人工智能应用的论文,但重点应该放在新的和新颖的人工智能方法如何提高应用领域的性能,而不是介绍传统人工智能方法的另一个应用。关于应用的论文应该描述一个原则性的解决方案,强调其新颖性,并对正在开发的人工智能技术进行深入的评估。 官网地址:http://dblp.uni-trier.de/db/journals/ai/
1370亿参数、接近人类水平,谷歌对话AI模型LaMDA放出论文
国防科大《视觉-语言导航》综述论文,24页pdf154篇文献
专知会员服务
61+阅读 · 2021年8月27日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【Mila】通用表示Transformer少样本图像分类
专知会员服务
32+阅读 · 2020年9月7日
【Contextual Embedding】什么时候上下文嵌入值得使用?
专知会员服务
15+阅读 · 2020年8月2日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
27+阅读 · 2020年1月16日
阻止“TA们”监听你,AI能做到吗?
学术头条
0+阅读 · 2022年4月20日
图灵测试,时至今日还有意义吗?
大数据文摘
0+阅读 · 2022年3月8日
身边人都在跳槽,我该怎么抉择?
人人都是产品经理
0+阅读 · 2022年2月16日
3分钟看懂史上最强NLP模型BERT
新智元
23+阅读 · 2019年2月27日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
Arxiv
0+阅读 · 2022年9月13日
Arxiv
0+阅读 · 2022年9月13日
Arxiv
17+阅读 · 2021年3月29日
Arxiv
14+阅读 · 2020年12月17日
已删除
Arxiv
32+阅读 · 2020年3月23日
VIP会员
相关资讯
相关基金
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2010年12月31日
Top
微信扫码咨询专知VIP会员