Recent advances in Large Language Models (LLMs) have enabled them to process increasingly longer sequences, ranging from 2K to 2M tokens and even beyond. However, simply extending the input sequence length does not necessarily lead to effective long-context understanding. In this study, we integrate Chain-of-Thought (CoT) reasoning into LLMs in a supervised manner to facilitate effective long-context understanding. To achieve this, we introduce LongFinanceQA, a synthetic dataset in the financial domain designed to improve long-context reasoning. Unlike existing long-context synthetic data, LongFinanceQA includes intermediate CoT reasoning before the final conclusion, which encourages LLMs to perform explicit reasoning, improving accuracy and interpretability in long-context understanding. To generate synthetic CoT reasoning, we propose Property-based Agentic Inference (PAI), an agentic framework that simulates human-like reasoning steps, including property extraction, retrieval, and summarization. We evaluate PAI's reasoning capabilities by assessing GPT-4o-mini w/ PAI on the Loong benchmark, outperforming standard GPT-4o-mini by 20.0%. Furthermore, we fine-tune LLaMA-3.1-8B-Instruct on LongFinanceQA, achieving a 28.0% gain on Loong's financial subset.


翻译:近年来,大型语言模型(LLMs)的进步使其能够处理越来越长的序列,范围从2K到2M标记甚至更长。然而,单纯扩展输入序列长度并不必然带来有效的长上下文理解。在本研究中,我们以监督方式将思维链(CoT)推理整合到LLMs中,以促进有效的长上下文理解。为此,我们引入了LongFinanceQA,这是一个金融领域的合成数据集,旨在提升长上下文推理能力。与现有的长上下文合成数据不同,LongFinanceQA在最终结论前包含了中间CoT推理步骤,这鼓励LLMs执行显式推理,从而提高长上下文理解的准确性和可解释性。为生成合成CoT推理,我们提出了基于属性的代理推理(PAI),这是一个模拟人类推理步骤的代理框架,包括属性提取、检索和总结。我们通过评估GPT-4o-mini w/ PAI在Loong基准上的表现来评估PAI的推理能力,其性能超过标准GPT-4o-mini达20.0%。此外,我们在LongFinanceQA上对LLaMA-3.1-8B-Instruct进行微调,在Loong的金融子集上实现了28.0%的性能提升。

0
下载
关闭预览

相关内容

【AAAI2024】KAM-CoT: 知识增强的多模态思维链推理
专知会员服务
45+阅读 · 2024年1月24日
【NeurIPS2023】大型语言模型是视觉推理协调器
专知会员服务
30+阅读 · 2023年10月24日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
14+阅读 · 2022年5月4日
AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
VIP会员
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
46+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
17+阅读 · 2008年12月31日
Top
微信扫码咨询专知VIP会员