Recognizing speaker intent in long audio dialogues among speakers has a wide range of applications, but is a non-trivial AI task due to complex inter-dependencies in speaker utterances and scarce annotated data. To address these challenges, an end-to-end framework, namely DialogGraph-LLM, is proposed in the current work. DialogGraph-LLM combines a novel Multi-Relational Dialogue Attention Network (MR-DAN) architecture with multimodal foundation models (e.g., Qwen2.5-Omni-7B) for direct acoustic-to-intent inference. An adaptive semi-supervised learning strategy is designed using LLM with a confidence-aware pseudo-label generation mechanism based on dual-threshold filtering using both global and class confidences, and an entropy-based sample selection process that prioritizes high-information unlabeled instances. Extensive evaluations on the proprietary MarketCalls corpus and the publicly available MIntRec 2.0 benchmark demonstrate DialogGraph-LLM's superiority over strong audio and text-driven baselines. The framework demonstrates strong performance and efficiency in intent recognition in real world scenario audio dialogues, proving its practical value for audio-rich domains with limited supervision. Our code is available at https://github.com/david188888/DialogGraph-LLM.


翻译:在多说话者的长音频对话中识别说话者意图具有广泛的应用前景,但由于说话者话语间复杂的相互依赖关系以及标注数据的稀缺,这仍是一项非平凡的AI任务。为应对这些挑战,本研究提出了一种端到端框架,即DialogGraph-LLM。该框架将一种新颖的多关系对话注意力网络(MR-DAN)架构与多模态基础模型(例如Qwen2.5-Omni-7B)相结合,实现从声学特征到意图的直接推理。我们设计了一种自适应半监督学习策略,该策略利用大语言模型,并基于全局置信度和类别置信度的双阈值过滤机制,构建了置信度感知的伪标签生成方法,同时采用基于信息熵的样本选择过程,优先选择信息量高的未标注实例。在专有的MarketCalls语料库和公开可用的MIntRec 2.0基准测试上的广泛评估表明,DialogGraph-LLM在性能上优于强大的音频驱动和文本驱动的基线模型。该框架在真实场景的音频对话意图识别中展现出强大的性能与效率,证明了其在监督有限但音频数据丰富的领域中具有实用价值。我们的代码发布于https://github.com/david188888/DialogGraph-LLM。

0
下载
关闭预览

相关内容

AAAI 2022 | ProtGNN:自解释图神经网络
专知
10+阅读 · 2022年2月28日
【NeurIPS2019】图变换网络:Graph Transformer Network
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
VIP会员
相关基金
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
8+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2015年12月31日
Top
微信扫码咨询专知VIP会员