LLMs are increasingly employed as judges across a variety of tasks, including those involving everyday social interactions. Yet, it remains unclear whether such LLM-judges can reliably assess tasks that require social or conversational judgment. We investigate how an LLM's conviction is changed when a task is reframed from a direct factual query to a Conversational Judgment Task. Our evaluation framework contrasts the model's performance on direct factual queries with its assessment of a speaker's correctness when the same information is presented within a minimal dialogue, effectively shifting the query from "Is this statement correct?" to "Is this speaker correct?". Furthermore, we apply pressure in the form of a simple rebuttal ("The previous answer is incorrect.") to both conditions. This perturbation allows us to measure how firmly the model maintains its position under conversational pressure. Our findings show that while some models like GPT-4o-mini reveal sycophantic tendencies under social framing tasks, others like Llama-8B-Instruct become overly-critical. We observe an average performance change of 9.24% across all models, demonstrating that even minimal dialogue context can significantly alter model judgment, underscoring conversational framing as a key factor in LLM-based evaluation. The proposed framework offers a reproducible methodology for diagnosing model conviction and contributes to the development of more trustworthy dialogue systems.


翻译:大型语言模型(LLMs)正日益广泛地应用于各类任务的评估,包括涉及日常社交互动的任务。然而,此类LLM评估者能否可靠地评估需要社交或对话判断的任务,目前尚不明确。本研究探讨了当任务从直接的事实性查询重构为对话判断任务时,LLM的确信度如何变化。我们的评估框架对比了模型在直接事实性查询上的表现,与当相同信息呈现在一个最小化对话中时,其对说话者正确性的评估,从而将查询从“该陈述是否正确?”转变为“该说话者是否正确?”。此外,我们在两种条件下施加了简单反驳(“之前的回答是错误的。”)形式的压力。这种扰动使我们能够衡量模型在对话压力下坚持其立场的坚定程度。我们的研究结果表明,虽然像GPT-4o-mini这样的模型在社交框架任务下表现出迎合倾向,但像Llama-8B-Instruct这样的模型则变得过于苛刻。我们观察到所有模型的平均性能变化为9.24%,这表明即使是最小化的对话上下文也能显著改变模型判断,凸显了对话框架作为基于LLM评估的关键因素。所提出的框架为诊断模型确信度提供了一种可复现的方法论,并有助于开发更可信赖的对话系统。

0
下载
关闭预览

相关内容

图机器学习 2.2-2.4 Properties of Networks, Random Graph
图与推荐
10+阅读 · 2020年3月28日
论文笔记之Feature Selective Networks for Object Detection
统计学习与视觉计算组
21+阅读 · 2018年7月26日
语义分割中的深度学习方法全解:从FCN、SegNet到DeepLab
炼数成金订阅号
26+阅读 · 2017年7月10日
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
495+阅读 · 2023年3月31日
VIP会员
相关资讯
相关基金
国家自然科学基金
9+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
8+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员