In classification tasks, the classification accuracy diminishes when the data is gathered in different domains. To address this problem, in this paper, we investigate several adversarial models for domain adaptation (DA) and their effect on the acoustic scene classification task. The studied models include several types of generative adversarial networks (GAN), with different loss functions, and the so-called cycle GAN which consists of two interconnected GAN models. The experiments are performed on the DCASE20 challenge task 1A dataset, in which we can leverage the paired examples of data recorded using different devices, i.e., the source and target domain recordings. The results of performed experiments indicate that the best performing domain adaptation can be obtained using the cycle GAN, which achieves as much as 66% relative improvement in accuracy for the target domain device, while only 6\% relative decrease in accuracy on the source domain. In addition, by utilizing the paired data examples, we are able to improve the overall accuracy over the model trained using larger unpaired data set, while decreasing the computational cost of the model training.


翻译:在分类任务中,当数据收集到不同领域时,分类准确度就会降低。为了解决这一问题,我们在本文件中调查了用于域适应(DA)的几种对抗模式及其对声场分类任务的影响。研究的模型包括几类具有不同损失功能的基因对抗网络(GAN)和由两个相互关联的GAN模型组成的所谓循环GAN。在DCASE20挑战任务1A数据集上进行了实验,我们可以在其中利用使用不同设备(即源和目标域记录)所记录的数据的对等实例。进行实验的结果显示,使用周期GAN可以取得最佳的域适应,该周期在目标域装置的准确性方面实现了66%的相对改进,而源域的准确性则只有6 ⁇ 相对下降。此外,通过使用配对数据实例,我们可以提高使用较大型未受培训的数据集(即源和目标域记录)所培训的模型的总体准确性,同时降低模型的计算成本。

0
下载
关闭预览

相关内容

两人亲密社交应用,官网: trypair.com/
专知会员服务
30+阅读 · 2021年6月12日
专知会员服务
22+阅读 · 2021年4月10日
【Google】平滑对抗训练,Smooth Adversarial Training
专知会员服务
46+阅读 · 2020年7月4日
零样本文本分类,Zero-Shot Learning for Text Classification
专知会员服务
95+阅读 · 2020年5月31日
Hierarchically Structured Meta-learning
CreateAMind
23+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
25+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
已删除
将门创投
3+阅读 · 2018年8月21日
Arxiv
5+阅读 · 2020年10月22日
Dynamic Transfer Learning for Named Entity Recognition
Arxiv
3+阅读 · 2018年12月13日
Arxiv
3+阅读 · 2017年10月1日
VIP会员
Top
微信扫码咨询专知VIP会员