Multi-step retrieval-augmented generation (RAG) has become a widely adopted strategy for enhancing large language models (LLMs) on tasks that demand global comprehension and intensive reasoning. Many RAG systems incorporate a working memory module to consolidate retrieved information. However, existing memory designs function primarily as passive storage that accumulates isolated facts for the purpose of condensing the lengthy inputs and generating new sub-queries through deduction. This static nature overlooks the crucial high-order correlations among primitive facts, the compositions of which can often provide stronger guidance for subsequent steps. Therefore, their representational strength and impact on multi-step reasoning and knowledge evolution are limited, resulting in fragmented reasoning and weak global sense-making capacity in extended contexts. We introduce HGMem, a hypergraph-based memory mechanism that extends the concept of memory beyond simple storage into a dynamic, expressive structure for complex reasoning and global understanding. In our approach, memory is represented as a hypergraph whose hyperedges correspond to distinct memory units, enabling the progressive formation of higher-order interactions within memory. This mechanism connects facts and thoughts around the focal problem, evolving into an integrated and situated knowledge structure that provides strong propositions for deeper reasoning in subsequent steps. We evaluate HGMem on several challenging datasets designed for global sense-making. Extensive experiments and in-depth analyses show that our method consistently improves multi-step RAG and substantially outperforms strong baseline systems across diverse tasks.


翻译:多步检索增强生成(RAG)已成为一种广泛采用的策略,用于增强大语言模型(LLM)在需要全局理解和深度推理任务上的表现。许多RAG系统集成了工作记忆模块以整合检索到的信息。然而,现有的记忆设计主要作为被动存储,其功能是积累孤立的事实,旨在压缩冗长输入并通过演绎生成新的子查询。这种静态特性忽视了原始事实之间关键的高阶关联,而这些关联的组合往往能为后续步骤提供更强的指导。因此,其表征能力以及对多步推理和知识演化的影响有限,导致在扩展上下文中出现碎片化推理和薄弱的全局意义构建能力。我们提出了HGMem,一种基于超图的记忆机制,它将记忆的概念从简单的存储扩展为一种动态、富有表现力的结构,以支持复杂推理和全局理解。在我们的方法中,记忆被表示为一个超图,其超边对应于不同的记忆单元,从而能够在记忆内部逐步形成高阶交互。该机制围绕核心问题连接事实与思考,演变成一个整合且情境化的知识结构,为后续步骤的深度推理提供强有力的命题。我们在多个专为全局意义构建设计的挑战性数据集上评估HGMem。大量的实验和深入分析表明,我们的方法持续改进了多步RAG,并在多样化的任务中显著超越了强大的基线系统。

0
下载
关闭预览

相关内容

【AAAI2025】TimeDP:通过领域提示学习生成多领域时间序列
【KDD2024】面向鲁棒推荐的决策边界感知图对比学习
专知会员服务
21+阅读 · 2024年8月8日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
VIP会员
相关VIP内容
【AAAI2025】TimeDP:通过领域提示学习生成多领域时间序列
【KDD2024】面向鲁棒推荐的决策边界感知图对比学习
专知会员服务
21+阅读 · 2024年8月8日
【CVPR2022】MSDN: 零样本学习的互语义蒸馏网络
专知会员服务
21+阅读 · 2022年3月8日
相关基金
国家自然科学基金
17+阅读 · 2017年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
4+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
10+阅读 · 2014年12月31日
Top
微信扫码咨询专知VIP会员