本论文提出了一种统一框架,通过叙事性背景故事(backstories)将大语言模型(LLMs)绑定至连贯的虚拟人格,从而实现对人类态度与行为的可扩展且有效的模拟。其核心思想在于:由大语言模型生成的合成人生叙事(即“背景故事”)可作为条件上下文,通过其中所蕴含的显性或隐性人口统计信息、心理背景以及人类的信念、价值观和视角,有效稳定并区分大语言模型的行为表现。在此视角下,本研究探讨了背景故事条件化如何提升模拟人群中行为的代表性、一致性与现实性。

该框架的一个关键假设是使用预训练的基础模型(pretrained base models)。这些模型内部包含异质化的“多重声音”(mixture of voices),使得背景故事能够通过前缀条件(prefix conditioning)自然地与模型绑定。这一对预训练模型的依赖,使其区别于现有大量关于大语言模型条件化的研究——后者通常采用经过指令微调的聊天模型,而这些模型往往会以安全或规范对齐(normative alignment)目标覆盖叙事线索。基于此,本研究进一步考察了背景故事条件化在提升模拟人群代表性、一致性与行为真实性方面的效果。

第二章介绍了“文集”(Anthology)框架。该框架通过简单的提示(例如“介绍一下你自己”)生成多样化的第一人称背景故事,并利用最大权值匹配或贪心二分图匹配算法,将这些故事与目标人口统计分布对齐。实验表明,当大语言模型以这些背景故事为条件时,其生成的群体级意见分布与皮尤研究中心(Pew Research Center)“美国趋势小组”(American Trends Panel)的人类调查数据高度吻合,其人类与模型响应之间的分布偏移更小,内部一致性也高于现有基于人格条件化的方法。

第三章将“文集”框架扩展至社会身份与群体认知的建模。我们检验了大语言模型是否展现出“深层人格绑定”(deep persona binding)——即以真实群体成员的身份进行回应,而不仅仅是浅层模仿社会刻板印象。通过多轮提示生成的更长、更连贯的背景故事,能够支持更丰富、更一致的虚拟人格。这些经背景故事条件化的大语言模型成功复现了人类数据中观察到的党派在道德判断与元认知(meta-perception)方面的不对称性,表明叙事连贯性对于捕捉真实的身份驱动视角至关重要。

第四章将背景故事条件化应用于社会困境情境下的行为预测,包括独裁者游戏(Dictator Game)和信任游戏(Trust Game)。通过引入时间线索与身份强化机制,经条件化的LLM人格展现出与实证人类行为一致的合作性与策略性行为。

综上所述,这些研究共同表明,基于叙事的人格条件化为大语言模型与人类心理现实性之间的对齐提供了一种通用机制。通过整合人口结构、叙事连贯性与情境锚定,该框架使大语言模型能够在统一的建模范式下近似人类的态度、身份与行动。本研究确立了“背景故事条件化大语言模型”作为可扩展、符合伦理的行为模拟的理论基础,为计算建模与人类行为研究之间架起了一座新的方法论桥梁。

成为VIP会员查看完整内容
0

相关内容

博士论文是由攻读博士学位的研究生所撰写的学术论文。它要求作者在博士生导师的指导下,选择自己能够把握和驾驭的潜在的研究方向,开辟新的研究领域。由此可见,这就对作者提出了较高要求,它要求作者必须在本学科的专业领域具备大量的理论知识,并对所学专业的理论知识有相当深入的理解和思考,同时还要具有相当水平的独立科学研究能力,能够为在学科领域提出独创性的见解和有价值的科研成果。因而,较之学士论文、硕士论文,博士论文具有更高的学术价值,对学科的发展具有重要的推动作用。
微信扫码咨询专知VIP会员