大型语言模型(如GPT-3、GPT-4、TNLG、T-5等LLM)在标准基准上表现出非常高的性能,这是因为它们的参数数量高、训练数据集非常大、计算量很大。尽管这些模型中的高参数数量导致了更强的表达能力,但它也可能导致更高的记忆能力,再加上未经验证的大型网络抓取数据集,可能会造成多种不同的负面社会和道德影响: 隐私、敏感信息的泄露——即LLM是“泄漏的”,生成有偏见的文本,即。LLM是“狡猾的,产生仇恨或刻板印象的文本-即LLM是“令人毛骨悚然的”。在本次演讲中,我将介绍上述问题如何影响LLM的可信性,并重点介绍我们如何测量这些模型的泄漏和记忆。最后,我将讨论大型LLM的隐私保护实际意味着什么,以及使大型模型可信的未来研究方向。

成为VIP会员查看完整内容
48

相关内容

大模型是基于海量多源数据打造的预训练模型,是对原有算法模型的技术升级和产品迭代,用户可通过开源或开放API/工具等形式进行模型零样本/小样本数据学习,以实现更优的识别、理解、决策、生成效果和更低成本的开发部署方案。
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
106+阅读 · 2020年12月19日
【CIKM2020-教程】仇恨言论假新闻检测,157页ppt
专知会员服务
34+阅读 · 2020年10月24日
DeepMind最新研究:让 AI 像婴儿一样思考
学术头条
0+阅读 · 2022年7月12日
综述 | 推荐系统偏差与去偏总结
机器学习与推荐算法
3+阅读 · 2022年5月11日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Arxiv
0+阅读 · 2023年6月5日
Arxiv
132+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
326+阅读 · 2023年3月31日
VIP会员
相关VIP内容
最新《弱监督预训练语言模型微调》报告,52页ppt
专知会员服务
37+阅读 · 2020年12月26日
【GPT-3作者亲解】超大型语言模型少样本学习,109页ppt
专知会员服务
106+阅读 · 2020年12月19日
【CIKM2020-教程】仇恨言论假新闻检测,157页ppt
专知会员服务
34+阅读 · 2020年10月24日
相关基金
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2013年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
微信扫码咨询专知VIP会员