State-of-the-art audio captioning methods typically use the encoder-decoder structure with pretrained audio neural networks (PANNs) as encoders for feature extraction. However, the convolution operation used in PANNs is limited in capturing the long-time dependencies within an audio signal, thereby leading to potential performance degradation in audio captioning. This letter presents a novel method using graph attention (GraphAC) for encoder-decoder based audio captioning. In the encoder, a graph attention module is introduced after the PANNs to learn contextual association (i.e. the dependency among the audio features over different time frames) through an adjacency graph, and a top-k mask is used to mitigate the interference from noisy nodes. The learnt contextual association leads to a more effective feature representation with feature node aggregation. As a result, the decoder can predict important semantic information about the acoustic scene and events based on the contextual associations learned from the audio signal. Experimental results show that GraphAC outperforms the state-of-the-art methods with PANNs as the encoders, thanks to the incorporation of the graph attention module into the encoder for capturing the long-time dependencies within the audio signal. The source code is available at https://github.com/LittleFlyingSheep/GraphAC.


翻译:摘要:目前最先进的音频字幕生成方法通常使用编码器-解码器结构,其中使用预训练的音频神经网络(PANN)作为编码器进行特征提取。然而,PANN中使用的卷积操作在捕捉音频信号中的长期依赖性方面存在局限性,从而可能导致音频字幕的性能下降。本文提出了一种基于图注意力(GraphAC)的新方法来进行编码器-解码器音频字幕生成。在编码器中,引入了一个图注意力模块来学习通过邻接图的上下文关联(即不同时间帧中音频特征之间的依赖关系),并使用top-k掩模来减轻噪声节点的干扰。学习到的上下文关联通过特征节点聚合产生更有效的特征表示。因此,解码器可以基于从音频信号中学习到的上下文关联预测关于声学场景和事件的重要语义信息。实验结果表明,由于在编码器中引入了图注意力模块来捕捉音频信号中的长期依赖关系,因此GraphAC在超过使用PANN作为编码器的先进方法上表现出色。源代码可在https://github.com/LittleFlyingSheep/GraphAC上获得。

0
下载
关闭预览

相关内容

六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
一文带你浏览Graph Transformers
PaperWeekly
1+阅读 · 2022年7月8日
AAAI2020 图相关论文集
图与推荐
10+阅读 · 2020年7月15日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Knowledge Embedding Based Graph Convolutional Network
Arxiv
24+阅读 · 2021年4月23日
Adversarial Mutual Information for Text Generation
Arxiv
13+阅读 · 2020年6月30日
VIP会员
相关VIP内容
六篇 EMNLP 2019【图神经网络(GNN)+NLP】相关论文
专知会员服务
71+阅读 · 2019年11月3日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2012年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
国家自然科学基金
0+阅读 · 2011年12月31日
Top
微信扫码咨询专知VIP会员