大型语言模型(LLMs),如 BERT、GPT-3 和 LLaMA,由于其强大的文本编码和解码能力以及发现的潜在能力(如推理),在自然语言处理的各种任务中表现出强大的性能和发展前景。尽管 LLMs 表现出色,但它们往往会从多个来源继承偏见,包括训练数据、编码过程和微调程序,这可能导致对某些由敏感属性(如年龄、性别或种族)定义的群体产生偏见决策。这种偏见预测引发了重要的伦理和社会问题,严重限制了 LLMs 在高风险决策场景(如招聘、贷款审批、法律判决和医疗诊断)中的应用。 因此,需要全面理解不同公平 LLM 方法在多样化研究中的实现和理解方式。如果缺乏对这些对应关系的清晰认识,未来公平 LLMs 的设计可能会变得困难。因此,迫切需要一个系统化的教程来阐明公平 LLMs 的最新进展。尽管已有一些教程探讨了机器学习算法中的公平性,但这些教程主要关注于更广泛的机器学习算法中的公平性。针对 LLMs 内部公平性的综合资源存在明显的缺口,这与传统模型有所区别,并讨论了最新的发展。为了解决这一需求,我们提出了一个关于大型语言模型中的公平性的教程:公平性进展与未来展望。本教程旨在为研究人员、开发人员和从业人员提供关于公平 LLMs 的最新和全面的现有工作综述。 我们的教程分为五个关键部分:

  1. LLMs 的背景
  2. LLMs 中的偏见量化
  3. LLMs 中的偏见缓解
  4. 偏见评估资源
  5. 挑战与未来方向

成为VIP会员查看完整内容
19

相关内容

【EMNLP2023】基于文本属性异构图的语言模型预训练
专知会员服务
21+阅读 · 2023年10月21日
【COLING2022教程】自然语言处理的不确定性估计教程
专知会员服务
29+阅读 · 2022年10月17日
【微信@CIKM2021 】 强化学习推荐模型的知识蒸馏探索之路
论文浅尝 | 基于多模态关联数据嵌入的知识库补全
开放知识图谱
12+阅读 · 2018年12月13日
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
Arxiv
0+阅读 · 11月16日
Arxiv
156+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
18+阅读 · 2021年3月16日
VIP会员
相关基金
国家自然科学基金
11+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
25+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
10+阅读 · 2012年12月31日
相关论文
微信扫码咨询专知VIP会员