The output of large language models (LLMs) is unstable, due both to non-determinism of the decoding process as well as to prompt brittleness. While the intrinsic non-determinism of LLM generation may mimic existing uncertainty in human annotations through distributional shifts in outputs, it is largely assumed, yet unexplored, that the prompt brittleness effect is unique to LLMs. This raises the question: do human annotators show similar sensitivity to prompt changes? If so, should prompt brittleness in LLMs be considered problematic? One may alternatively hypothesize that prompt brittleness correctly reflects human annotation variances. To fill this research gap, we systematically compare the effects of prompt modifications on LLMs and identical instruction modifications for human annotators, focusing on the question of whether humans are similarly sensitive to prompt perturbations. To study this, we prompt both humans and LLMs for a set of text classification tasks conditioned on prompt variations. Our findings indicate that both humans and LLMs exhibit increased brittleness in response to specific types of prompt modifications, particularly those involving the substitution of alternative label sets or label formats. However, the distribution of human judgments is less affected by typographical errors and reversed label order than that of LLMs.


翻译:大型语言模型(LLMs)的输出具有不稳定性,这既源于解码过程的非确定性,也源于提示的脆弱性。尽管LLM生成的内在非确定性可能通过输出分布的变化模拟人类标注中已有的不确定性,但提示脆弱性效应通常被认为是LLMs独有的特性,这一点尚未得到充分探究。这引发了一个问题:人类标注者是否对提示变化表现出类似的敏感性?如果是,LLMs的提示脆弱性是否应被视为问题?另一种假设是,提示脆弱性恰当地反映了人类标注的差异性。为填补这一研究空白,我们系统比较了提示修改对LLMs的影响与相同指令修改对人类标注者的影响,重点探究人类是否对提示扰动具有相似的敏感性。为此,我们在文本分类任务中,基于不同的提示变体,分别对人类和LLMs进行指令测试。研究结果表明,人类和LLMs对特定类型的提示修改(尤其是涉及替代标签集或标签格式替换的修改)均表现出更强的脆弱性。然而,与LLMs相比,人类判断的分布受拼写错误和标签顺序颠倒的影响较小。

0
下载
关闭预览

相关内容

【伯克利】再思考 Transformer中的Batch Normalization
专知会员服务
41+阅读 · 2020年3月21日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
注意力机制可解释吗?这篇ACL 2019论文说……
机器之心
11+阅读 · 2019年6月16日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Arxiv
0+阅读 · 12月15日
Arxiv
0+阅读 · 12月8日
VIP会员
相关基金
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员