AAAI 由国际人工智能促进协会(Association for the Advancement of Artificial Intelligence, AAAI)主办,是人工智能领域历史最悠久、内容覆盖最广的国际顶级会议之一,也是中国计算机学会(CCF)推荐的 A 类国际学术会议。AAAI 2026 (The 40th Annual AAAI Conference on Artificial Intelligence)计划于 2026 年 1 月 20 日至 1 月 27 日在新加坡召开。本届大会主赛道共收到 23680 篇有效投稿,经过严格评审,最终录取 4167 论文,录取率仅为 17.6%。

哈尔滨工业大学社会计算与交互机器人研究中心有 17 篇论文被 AAAI 2026 录用。下面是论文列表及介绍:**

**01 题目:RPTS: Tree-Structured Reasoning Process Scoring for Faithful Multimodal Evaluation作者:王昊峰,张宇录用类别:Oral简介:大型视觉语言模型(LVLM)在多模态推理方面表现卓越,并在各类多模态基准测试中展现出令人印象深刻的性能。然而,现有基准测试大多通过选择题或简答题形式进行评估,未能考量模型的推理过程。虽然部分基准尝试评估推理过程,但其方法往往过于简化,仅在对答案错误时检查推理链。这种做法忽略了有缺陷的推理却得出正确答案的情况。此外,现有基准未能充分考虑模态间关系对推理过程的影响。为解决这一问题,我们提出推理过程树评分(RPTS)——一种基于树状结构的推理过程评估指标。具体而言,我们将推理步骤组织为推理树,利用其层级化信息为每个推理步骤分配加权忠实度分数。通过动态调整权重,RPTS不仅能评估推理的整体正确性,还能精确定位模型在推理过程中的失败环节。为验证RPTS在实际多模态场景中的有效性,我们构建了包含374张图像和390个推理实例的新基准RPTS-Eval。每个实例均包含作为推理树叶节点的可靠视觉-文本线索。此外,我们定义了三种模态间关系类型,以探究多模态交互如何影响推理过程。通过对代表性LVLM(如GPT4o、Llava-Next等)的评估,我们揭示了这些模型在多模态推理中的局限性,并凸显了开源模型与闭源商业模型之间的差异。我们相信该基准将推动多模态推理研究领域的持续发展。

02 题目:Causal Tracing of Object Representations in Large Vision Language Models: Mechanistic Interpretability and Hallucination Mitigation作者:李启明,叶泽凯,冯骁骋,钟蔚弘,马伟涛,冯夏冲**录用类别:Oral简介:尽管大规模视觉语言模型(LVLMs)取得了显著进展,其机制可解释性仍亟待深入研究。现有研究缺乏全面性,未能覆盖视觉与文本 token、模型关键组件及模型全层级结构,限制了其在提升模型输出可信度和幻觉缓解等下游任务中的实际指导作用。为此,我们提出细粒度跨模态因果追踪框架(Fine-grained Cross-modal Causal Tracing),系统量化视觉对象感知中的因果作用。FCCT 实现对全部视觉与文本 token、模型三大核心组件(多头自注意力 MHSA、前馈网络 FFN 与隐状态)以及全解码层的细粒度分析。我们的研究首次揭示:最后一个 token 位于中间层的MHSA 在跨模态信息聚合中发挥关键作用,以及 FFN 在视觉对象表征的存储与传递上呈现三阶段层次结构。基于此,我们提出推理阶段、无需训练的中间表征注入方法(Intermediate Representation Injection),通过精准干预特定组件与层级的跨模态表征,强化视觉对象信息流,从而提升了模型的感知能力并缓解幻觉。在五个广泛使用的基准和多种 LVLM 上的实验表明,IRI 在保持推理速度和基础性能的同时,实现了当前最优性能。

03 题目:CCFQA: A Benchmark for Cross-Lingual and Cross-Modal Speech and Text Factuality Evaluation作者:都业兴,刘开元,潘囿丞,初征,杨博,冯骁骋,相洋,刘铭录用类别:Poster简介:随着大语言模型在多语言环境中的日益普及,确保无幻觉的事实准确性变得尤为关键。然而,现有评估多模态大语言模型可靠性的基准主要聚焦于文本或视觉模态,且以英语为中心,这在处理多语言输入(尤其是语音)时形成了评估空白。为填补这一空白,我们提出了创新的跨语言与跨模态事实性基准(CCFQA)。该基准包含涵盖8种语言的平行语音-文本事实问答数据集,旨在系统评估多模态大语言模型的跨语言与跨模态事实性能力。实验结果表明,当前多模态大语言模型在CCFQA基准上仍面临显著挑战。此外,我们提出一种少样本迁移学习策略,能够将大语言模型的英语问答能力有效迁移至多语言语音问答任务,仅通过5样本训练即可达到与GPT-4o-mini-Audio相竞争的性能。我们发布CCFQA作为基础研究资源,以推动构建具有更强大、可靠语音理解能力的多模态大语言模型。(代码与数据集:https://github.com/yxduir/ccfqa)**

04 题目:The Visual Prism: Refracting Images into Parallel Multilingual Descriptions with Structured Visual Guidance作者:付成鹏,冯骁骋,黄毅翀,霍文帅,李宝航,相洋,刘挺录用类别:Poster简介:平行语料是机器翻译的核心资源,即使在大语言模型(LLM)时代仍至关重要,常用于预训练和微调以增强模型的多语言能力。然而,高质量平行语料的人工标注成本极高,因需具备多语种专业能力的标注者。为降低构建成本,已有研究探索基于图像的语料合成方法,通过为同一图像生成多语种描述构建伪平行语料。然而,此类语料存在“多语言关注点分歧”问题,即模型在不同语言生成过程中关注图像的不同语义区域。为此,我们提出 PRISMS 方法,利用语义图提供结构化视觉引导以统一多语言描述焦点。为增强模型对引导的遵循性,我们结合了基于自生成指令数据的有监督微调,以及基于语义图一致性奖励的强化学习。实验结果表明,PRISMS 在多种语言上的图像语料合成质量显著提升,使大语言模型翻译性能接近人工标注语料训练模型的水平。

05 题目:LangGPS: Language Separability Guided Data Pre-Selection for Joint Multilingual Instruction Tuning作者:叶扬帆,冯骁骋,冯夏冲,黄磊,马伟涛,洪琪琛,路云飞,唐都钰,涂丹丹,秦兵录用类别:Poster简介:多语言联合指令微调是提升大型语言模型(LLM)多语言指令执行能力和下游任务性能的常用方法,但模型最终取得的多语言性能仍然高度依赖于训练数据的组成和选择。现有的数据选择方法通常基于文本质量、多样性或任务相关性等特征,而忽略了多语言数据固有的语言结构。本文提出了一种轻量级的两阶段预选择框架LangGPS,该框架通过语言可分性量化模型表示空间中不同语言样本区分程度,并将此作为数据选择的指导信号。LangGPS首先基于可分性得分过滤训练数据,然后使用现有的选择方法进一步优化子集。在六个基准测试和22种语言上的大量实验表明,将LangGPS应用于现有选择方法可以显著提高其在多语言训练中的有效性和泛化能力,尤其是在理解任务和低资源语言方面。进一步分析表明,高度可分性的样本有助于形成更清晰的语言边界并支持更快的热启动,而低可分性样本则倾向于作为跨语言对齐的桥梁。此外,我们还发现,语言可分性可以作为多语言课程学习的有效指标,交错使用不同可分性水平的样本能够带来稳定且可推广的学习效果。我们希望这项研究能够为多语言环境下的数据利用提供新的视角,并支持开发更具语言学意义的语言模型。

06 题目:Bridging Scale Discrepancies in Robotic Control via Language-Based Action Representations作者:张宇驰,孙楚芮,梁师齐,刘迪源,季超,张伟男,刘挺录用类别:Poster简介:近年来,端到端机器人操作研究日益借鉴大语言模型(LLM)范式以增强鲁棒性。然而,不同机器人平台与任务之间的动作指令在数值尺度上存在显著差异,导致严重的分布偏移,进而阻碍预训练知识的有效迁移。为此,我们提出一种语义落地的语言化动作表示,用于在预训练阶段对动作进行归一化。不同于对数值尺度敏感的常规离散化动作表示,我们的运动表示有意忽略数值尺度效应,强调方向性,从抽象层面缓解分布移位,从而获得更具泛化性的预训练表征。此外,该表示还能缩小动作 token 与通用 token 之间的特征距离,减轻模态鸿沟。具体而言,我们在预训练阶段让模型以自然语言描述 motion(方向性短语)以学习与数值尺度无关的动作语义;在具体任务的微调与推理中采用“motion→action”两段式生成,先生成归一化的 motion,再由轻量适配器映射为平台相关的数值动作指令。基于 Open-X Embodiment 数据集的预训练,并在 LIBERO 与 SimplerEnv 两个基准上的多任务实验表明,该方法在机器人操作的泛化性能与可迁移性方面均取得了显著提升。

07 题目:HalluClean: A Unified Framework to Combat Hallucinations in LLMs作者:赵雅欣,张宇录用类别:Poster简介:大型语言模型(LLMs)在广泛的自然语言处理任务上取得了令人瞩目的表现,但它们仍常常产生幻觉内容,从而削弱事实可靠性。为应对这一挑战,我们提出HalluClean,一种用于检测与纠正LLM 生成文本中幻觉的轻量、与任务无关的框架。HalluClean 采用推理增强范式(reasoning-enhanced paradigm),将流程显式分解为规划、执行与修订阶段,以识别并改写缺乏依据的断言。它使用最小化的任务路由提示(minimal task-routing prompts),实现跨多领域的零样本泛化,且无需依赖外部知识源或监督式检测器。我们在五类具有代表性的任务—问答(QA)、对话(DA)、摘要(summarization)、数学应用题(MWPs)与矛盾检测—上进行了广泛评估。实验结果表明,HalluClean 显著提升了事实一致性,并优于多种具有竞争力的基线方法,展现出在真实应用中提升 LLM 输出可信性的潜力。

08 题目:SAFENLIDB: A Privacy-Preserving Safety Alignment Framework for LLM-based Natural Language Database Interfaces作者:刘睿珩,陈肖兵,张金宇,张琼文,张宇,杨百龙录用类别:Poster简介:大型语言模型(LLMs)的迅猛发展极大地推动了自然语言数据库接口(NLIDB)的进步。然而,LLMs 的广泛应用也引发了严重的隐私与安全隐患。在交互过程中,LLMs 可能无意间泄露数据库中的敏感信息,或被攻击者通过看似正常的查询操控以窃取数据。尽管现有研究通常依赖基于规则的启发式方法或 LLM-Agent 来缓解数据泄露风险,但这些方法在应对复杂的推理型攻击时仍存在困难,容易产生高误报率,并常常损害 SQL 查询的可靠性。为应对这些挑战,我们提出了一个新颖的 LLM-NLIDB 隐私与安全对齐框架——SAFENLIDB。该框架包含一个自动化管道,可从零开始合成融合显式安全推理与 SQL 生成的混合思维链(Hybrid Chain-of-Thought)交互数据。此外,我们引入了推理预热与交替偏好优化机制,以缓解直接偏好优化(DPO)中多偏好震荡的问题,使模型无需人工标注数据即可通过细粒度推理生成具备安全意识的 SQL。大量实验结果表明,SAFENLIDB在保持高实用性的同时显著提升了安全性能,表现优于更大规模的 LLM 和理想化基线方法。

09 题目:TRACE: Trajectory-based Activation Change Estimation for Task-specific Data Selection作者:何烨,李尚展,周宇新,施琦录用类别:Poster简介:在大型语言模型(LLMs)的指令调优中,数据质量而非数量已成为决定模型性能的关键 。任务特定的数据选择旨在从大型语料库中筛选最相关的实例 。现有的方法主要依赖于表征(representation-based)或影响(influence-based) 。然而,前者仅依赖静态特征而忽略了学习过程,而后者则关注验证集损失,这与最终任务能力并不完全相关。为此,本文提出了一种新型数据选择框架——TRACE。该方法通过在验证集上进行一次目标更新 ,并计算此更新前后的神经元激活差异,来捕获模型面向特定任务的“优化轨迹” 。TRACE通过选择与验证集具有最相似激活变化轨迹的训练数据,成功地统一了表征空间和优化方向 。实验表明,TRACE在所有测试模型上均一致优于基线方法 ,并且在 TyDiQA 等多语言复杂任务上表现尤为突出 。

10 题目:From Sampling to Cognition: Modeling Internal Cognitive Confidence in Language Models for Robust Uncertainty Calibration作者:李浩,何涛,梁家锋,初征,刘铭录用类别:Poster简介:大型语言模型(LLM)在广泛任务中展现出卓越性能,但其普遍缺乏自我认知——当面对超出知识边界的问题时常常表现出过度自信。这一局限严重影响了其在关键场景下的可信度。现有校准方法通常依赖采样准确率(通过多次输出获得)作为模型置信度的代理指标。然而这种粗粒度指标无法捕捉模型内部的认知状态,例如困惑、幻觉或对错误知识的持续确信。为解决这一问题,我们提出CogConf(认知置信度),这是一种基于认知理论的不确定性信号,通过整合错误答案的语义多样性和模型的弃答行为,对采样准确率进行了拓展。通过将焦点从基于采样的不确定性建模转向认知导向的建模,CogConf能更真实地反映模型的内部信念。基于此信号,我们推出CogAlign——一个简单有效的对齐框架,通过显式对齐模型语言化表达的置信度与CogConf值,生成能更好反映模型内部认知的不确定性估计。在六个知识密集型领域内外问答数据集上的实验表明,CogConf能稳健刻画模型的内部不确定性。在此基础上,CogAlign引导模型表达,在保持原有问答能力的同时显著提升了不确定性校准的可信度与实用性,同时展现出强大的跨任务泛化能力和输出稳定性。这项工作为构建更可信的大型语言模型开辟了新路径。

11 题目:Judge Q: Trainable Queries for Optimized Information Retention in KV Cache Eviction作者:刘议骏,王一轩,徐玉庄,季世宇,徐阳,朱庆福,车万翔录用类别:Poster简介:大语言模型(LLM)在处理序列过程中采用 KV Cache 来存储历史信息。随着序列长度的增加,KV Cache 的大小呈线性增长,严重影响内存占用和解码效率。现有的 KV Cache 驱逐方法通常使用预填充阶段的末段窗口作为 query,以计算 key-value 对的重要性分数并进行淘汰。尽管该方案实现简单,但容易过度关注局部信息,可能导致关键全局信息被忽略或遗漏。为缓解此问题,我们提出Judge Q——一种基于 soft token 的训练方案。该方法仅需微调模型嵌入层,训练成本极低。我们在输入序列末端拼接 soft token,训练这些 token 对原始输入序列的注意力分布与实际解码 token 的注意力分布保持一致。由此,soft token 对应的 query 能有效捕获全局信息,更精准评估 KV Cache 中键值对的重要性,从而在实施 KV Cache 驱逐时维持解码质量。在相同预算下,本方法相比现有驱逐方案性能衰减更小。我们在 Llama-3.1-8B-Instruct 和 Mistral-7B-Instruct-v0.3 等模型上使用 LongBench、RULER 和 Needle-in-a-Haystack 等基准进行实验验证。结果表明,我们的方法在 LongBench 上提升约1个点,在 RULER 上提升超3个点。该方案能以极小训练开销无缝集成至现有开源模型,有效提升 KV Cache 驱逐场景下的性能表现。

12 题目:CAMERA: Multi-Matrix Joint Compression for MoE Models via Micro-Expert Redundancy Analysis作者:徐玉庄,韩旭,张原驰,王一轩,刘议骏,季世宇,朱庆福,车万翔录用类别:Poster简介:大语言模型(LLM)的离线压缩方法(剪枝和训练后量化)几乎都基于贪心策略,即让压缩前后的权重矩阵在校准数据上的乘法结果尽量保持一致。然而,LLM这种多层结构的压缩属于一种多步优化问题,基于局部贪心的算法往往得到的是次优解。为了进一步提高压缩后解的最优性,有必要在更多的候选解中寻找更好的解。本文首次提出以微专家这种跨3个矩阵的结构作为压缩单元,构建了良定义的混合微专家数学模型并给出近似求解方案CAMERA。此算法应用于MoE模型的结构化剪枝和低位宽混合精度量化时,收到了比以往方法更好的效果。

**13 题目:Aware First, Think Less: Dynamic Boundary Self-Awareness Drives Significant Gains in Reasoning Efficiency in Large Language Models作者:陈麒光,彭登云,刘金浩,苏惠康,管健男,覃立波,车万翔**录用类别:Poster简介:近年来,大型语言模型(LLM)的进步显著提升了其通过长链思维(CoT)执行复杂推理任务的能力。然而,这种方法常常导致大量的冗余,降低计算效率,并在实时应用中造成明显的延迟。为了提高效率,现有方法通常依赖于人为定义的难度先验,但这与LLM的自感知难度并不一致,从而导致效率低下。本文提出了一种动态推理边界自感知框架(DR.SAF),该框架使LLM能够根据问题的复杂性动态评估并调整其推理深度。DR.SAF集成了三个关键组件:边界自感知对齐、自适应奖励管理和边界保持机制。这些组件使模型能够优化其推理过程,在不牺牲性能的前提下平衡效率和准确性。实验结果表明,DR.SAF在准确率损失极小的情况下,实现了总响应词数减少49.27%。该框架还能将令牌效率提升 6.59 倍,并将训练时间缩短 5 倍,使其非常适合资源受限的环境。在极限训练条件下,DR.SAF 的令牌效率甚至可以超越传统的基于指令的模型,准确率提升超过 16%。

14 题目:Beware of Reasoning Overconfidence: Pitfalls in the Reasoning Process for Multi-solution Tasks作者:管健男,陈麒光,覃立波,彭登云,刘金浩,霍亮宇,谢健,车万翔录用类别:Poster简介:大型语言模型(LLM)在需要单一正确答案的推理任务中表现出色,但在需要生成全面且多样化答案的多解任务中表现不佳。我们将这种局限性归因于“推理过度自信”:即在不完整的解集中表现出过分确定的倾向。为了检验这种影响,我们引入了 MuSoBench,一个多解问题的基准测试。实验表明,传统的短思维链(Short-CoT)提示范式表现出明显的过度自信,而新兴的长思维链(Long-CoT)方法则通过迭代探索和自我反思来缓解这种过度自信。我们进一步描述了可观察的行为和影响因素。为了探究其根本原因,我们提出了“认知僵化假说”,该假说认为,当推理过程过早地收敛于一组狭窄的思维路径时,就会出现过度自信。注意力熵分析为这一观点提供了初步支持。这些发现为评估逻辑推理的完整性提供了工具,并强调了评估需要超越单一答案的准确性,转向全面探索。

**15 题目:CARE-Bench: A Benchmark of Diverse Client Simulations Guided by Expert Principles for Evaluating LLMs in Psychological Counseling作者:王毕陈,孙怡馨,王俊喆,杨浩,符兴,赵妍妍,si wei, shijin wang,秦兵录用类别:Poster简介:心理咨询需求的日益增长与服务供给的有限性之间的不匹配,促使人们研究大型语言模型(LLM)在该领域的应用。因此,亟需一个稳健且统一的基准来评估各种LLM的咨询能力。然而,现有研究受限于非专业的客户模拟、静态的问答式评估形式以及单一维度的指标。这些局限性阻碍了它们在评估模型处理多样化和复杂客户群体的综合能力方面的有效性。为了弥补这一不足,我们推出了CARE-Bench,一个动态且交互式的自动化基准。它基于从真实咨询案例中提取的多样化客户画像构建而成,并根据专家指南进行模拟。CARE-Bench提供了一个基于成熟心理量表的多维度性能评估。我们利用CARE-Bench评估了几个通用LLM和专业咨询模型,揭示了它们目前的局限性。我们与心理学家合作,对LLM(法律学习导师)在与不同类型来访者互动时失败的原因进行了详细分析,为开发更全面、更通用、更有效的咨询模式提供了方向。

**16 题目:CultureRL: Internalizing Cultural Principles in Large Language Models via Norm-Driven Reinforcement Learning作者:赵伟翔,李浩桢,赵妍妍,Haixiao Liu,Biye Li,刘挺,秦兵录用类别:Poster简介:随着大语言模型在文化多样化的地区被广泛部署,确保其生成的回答符合用户所在文化的规范已成为一项关键挑战。现有的文化对齐方法主要依赖提示或基于数据增强的监督微调,这些方法通过示例式监督间接地教会模型遵循文化规范。然而,这类方法难以扩展,且在低资源文化环境中往往泛化能力不足。在本研究中,我们提出 CultureRL,一种基于文化规范驱动的强化学习框架,能够将文化原则直接嵌入模型行为中。与依赖输出模仿的方法不同,CultureRL 在训练过程中提供规范性反馈,使模型能够内化高层次的文化规则。该框架包含两个关键组件:(1)规范池构建:通过对世界价值观调查(World Values Survey)中的数据进行聚类,将其抽象为文化概念,从而形成结构化、可检索的规范池;(2)基于规范簇的奖励机制:为每个输入检索相应的文化规范,并通过外部奖励模型评估其一致性,从而引导模型更新,实现文化对齐。我们在九种文化、三个基准任务上,分别在“一对一”(单文化)和“一对多”(多文化)两种设定下对 CultureRL 进行了评估。结果表明,CultureRL 在文化一致性与适应性方面均显著优于强基线模型。

**17 题目:Trade-offs in Large Reasoning Models: An Empirical Analysis of Deliberative and Adaptive Reasoning over Foundational Capabilities作者:赵伟翔,隋星宇,郭家合,胡雨林,邓扬,赵妍妍,智绪达,Yongbo Huang,Hao He,车万翔,刘挺,秦兵****录用类别:Poster简介:近期,大型推理模型(Large Reasoning Models, LRMs)如 OpenAI 的 o1/o3 和 DeepSeek-R1,在具备类人 deliberative reasoning(审慎推理)与长链式思维(long chain-of-thought reasoning)方面展现出卓越的表现。然而,我们针对不同模型家族(DeepSeek、Qwen、LLaMA)及不同规模(7B 至 32B)的系统性评估表明,获得这种审慎推理能力会显著削弱模型的基础能力——包括有用性(helpfulness)与无害性(harmlessness)的明显下降,以及推理成本的大幅上升。更重要的是,我们实验证明,自适应推理(adaptive reasoning)——通过引入 Zero-Thinking、Less-Thinking 和 Summary-Thinking 等模式——可以有效缓解这些问题。我们的实证研究结果强调了一个关键需求:开发能够根据具体任务特征动态分配推理时计算资源的更通用、更灵活的大型推理模型。

成为VIP会员查看完整内容
0

相关内容

CVPR2025最新《条件可控生成》论文速读
专知会员服务
18+阅读 · 3月21日
CVPR2025最新《扩散模型》论文速读
专知会员服务
29+阅读 · 3月15日
哈工大SCIR 9篇论文被 NeurIPS 2024录用
专知会员服务
17+阅读 · 2024年10月13日
上交大ReThinklab实验室ICML2024十篇论文工作简介
专知会员服务
31+阅读 · 2024年5月26日
专知会员服务
56+阅读 · 2021年5月10日
KDD2020接受论文列表!338篇论文都在这了
专知
20+阅读 · 2020年6月26日
计算所网络数据实验室3篇论文被WSDM2020录用
中国科学院网络数据重点实验室
26+阅读 · 2019年10月11日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
实验室3篇论文被IJCAI 2019录用
inpluslab
12+阅读 · 2019年5月11日
AAAI 2019 录用列表论文公布,清华58篇
专知
31+阅读 · 2019年1月22日
哈工大SCIR多名师生参加COLING 2018
哈工大SCIR
10+阅读 · 2018年9月1日
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
3+阅读 · 2016年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
Arxiv
10+阅读 · 2021年2月26日
Arxiv
126+阅读 · 2020年9月6日
Arxiv
11+阅读 · 2018年7月31日
Relational Deep Reinforcement Learning
Arxiv
10+阅读 · 2018年6月28日
VIP会员
相关资讯
KDD2020接受论文列表!338篇论文都在这了
专知
20+阅读 · 2020年6月26日
计算所网络数据实验室3篇论文被WSDM2020录用
中国科学院网络数据重点实验室
26+阅读 · 2019年10月11日
哈工大SCIR八篇论文被EMNLP-IJCNLP 2019录用
哈工大SCIR
23+阅读 · 2019年8月14日
哈工大SCIR三篇论文被ACL 2019录用
哈工大SCIR
17+阅读 · 2019年5月15日
实验室3篇论文被IJCAI 2019录用
inpluslab
12+阅读 · 2019年5月11日
AAAI 2019 录用列表论文公布,清华58篇
专知
31+阅读 · 2019年1月22日
哈工大SCIR多名师生参加COLING 2018
哈工大SCIR
10+阅读 · 2018年9月1日
相关基金
国家自然科学基金
0+阅读 · 2017年12月31日
国家自然科学基金
2+阅读 · 2016年12月31日
国家自然科学基金
3+阅读 · 2016年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2014年12月31日
国家自然科学基金
12+阅读 · 2014年12月31日
相关论文
微信扫码咨询专知VIP会员