随着大型语言模型(LLMs)的快速发展,关于其安全性和风险的担忧日益增加,这主要源于对其能力和局限性的理解不足。在本教程中,我们的目标是通过呈现全面的LLM评估概述来填补这一空白。首先,我们从“什么”、“哪里”和“如何评估”这三个角度,讨论了LLM评估的最新进展。接着,我们介绍了LLM评估中的几个关键挑战,如数据污染和固定复杂度。基于这些挑战,我们介绍了如何克服这些问题。之后,我们展示了如何在不同的下游任务中评估LLMs,包括自然科学和社会科学,接着是一些流行的代码库和基准测试。我们希望学术界和工业界的研究人员继续努力,使LLMs更加安全、负责任和准确。 https://llm-understand.github.io/

成为VIP会员查看完整内容
1

相关内容

【PODS2023】从查询语言的视角看图学习,111页ppt
专知会员服务
26+阅读 · 2023年7月22日
【EACL2021教程】无监督神经机器翻译,125页ppt
专知会员服务
24+阅读 · 2021年11月13日
【干货书】优化算法,232页pdf
专知
26+阅读 · 2022年9月8日
【新书】分布式强化学习,280页pdf
专知
21+阅读 · 2021年12月19日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
Arxiv
165+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
434+阅读 · 2023年3月31日
Arxiv
73+阅读 · 2023年3月26日
Arxiv
157+阅读 · 2023年3月24日
VIP会员
相关基金
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员