语言偏见不是唯一的捷径:视觉问答的捷径学习数据集

2022 年 11 月 3 日 PaperWeekly

©PaperWeekly 原创 · 作者 |  佀庆一
单位 |  中科院信息工程研究所
研究方向 |  视觉问答



论文标题:

Language Prior Is Not the Only Shortcut: A Benchmark for Shortcut Learning in VQA

收录会议:

Findings of EMNLP 2022

论文链接:

https://arxiv.org/abs/2210.04692

代码和数据集链接:

https://github.com/PhoebusSi/VQA-VS

homepage链接:

https://phoebussi.github.io/VQA-VS-homepage/





动机
视觉问答(Visual Question Answering, VQA [1] )是一个同时涉及视觉和语言的综合理解及推理的跨模态任务。尽管现有的模型在许多分布内(in-distribution,IID)VQA 数据集(如 VQA v2 [2] )上已经取得了不错的表现,但是研究显示,这些模型严重依赖于训练集中的语言偏见,即直接根据训练集中问题文本和答案之间的虚假关联给出预测答案,而不对图片和问题文本进行综合理解。这种现象被称语言优先(language prior)问题,是捷径学习(Shortcut Learning [3] )的一个典型现象,已被后来的研究者广泛研究。

为了更好地评测 VQA 模型克服语言偏见(debiasing)的能力,VQA-CP v2 [4] 重新组织了 VQA v2 数据集使得同一问题词下的答案分布在训练集和测试集中是完全相反的,即符合分布外(Out-of-distribution, OOD)设定。如此一来,在训练集中学到的虚假关联和捷径将在测试集中失效,在 VQA v2 上表现不错的模型在 VQA-CP v2 上的性能大幅度下降。

如今,VQA-CP v2 已经成为 VQA 社区中被广泛使用的 OOD 鲁棒性评测基准。然而,通过分析 VQA-CP v2 和现有的 VQA 去偏方法,我们发现该评测基准存在两方面的问题需要改进:
   

▲ 图1(a)LMH 在 9 个 OOD 测试集中相对于其 backbone 的精度提升;(b)模型可能学到的方案

1. VQA-CP v2 仅引入了一种特定的分布变换(distribution shift)来构造 OOD 测试集,因此仅能评估 VQA 模型克服该分布变换对应的捷径的能力,依然无法评估真实的鲁棒 VQA 能力(intended solution)。如图 1(a)所示,在 VQA-CP v2 上表现卓越的 LMH [5] 仅能在我们提出的 VQA-VS 少数 OOD 测试集上提高其 backbone 的性能,而在其他 OOD 测试集上性能却明显下降。

这说明 VQA-CP v2 无法识别模型是否依赖于其他捷径(如,视觉对象和答案之间的虚假关联),易被这类 dataset-specific 方法欺骗。因此,如图 1(b)所示,一个模型只有在更多的不同类型 OOD 测试集上同时提升性能,才更有把握认定该模型学到了鲁棒的 VQA 能力。我们在文中 2.1 节从因果(Causal)角度详细解释了这个动机。

2. Damien Teney [6] 收录在 NeurIPS 2020 的论文曾指出当前的 OOD 评测基准中存在着三个令人不安的操作(troubling issues),即:

  • issue 1在 VQA-CP v2 中,训练集和测试集在同一问题词下的答案分布是完全相反。这一特点容易被当前的 debiasing 方法利用。比如,当训练集中的高频答案是 “no” 时直接回答 “yes” 即可得到不错的精度。这种 dataset-specifc 方法在现实场景中几乎没有任何用处;

  • issue 2由于 VQA-CP v2 验证集的缺失,几乎现有所有的 debiasing 方法都直接用测试集来选择模型 checkpoint。这不符合机器学习的最佳实践;

  • issue 3现有工作通常需要在 VQA v2 上单独重训一个模型来评测 IID 性能,然后和 VQA-CP v2 上训练和评测出的 OOD 表现进行对比。这种为每种分布场景单独地训练一个模型不符合现实场景,并且使得 IID 和 OOD 的性能对比不具有参考价值。

我们在文中 2.2 节更细致地解释了这三种 issues 的原因和对 VQA 社区的不良影响。

值得一提的是,Damien Teney 是 VQA 任务的先驱研究者,曾获得 the 2017 VQA Challenge 的第一名,并提出 VQA 最广泛使用的 backbone 模型 UpDn [7]。在 Damien Teney 指出这些 issues 的前后几年间,已经有数十篇论文在 VQA-CP 上研究 VQA 的 debiasing 方法,并得以在顶级期刊或会议中发表。在 VQA-CP 上的 SOTA 不断被声明又不断被打败,一遍又一遍,却无人关注该评测基准是否健康。

对于这种现象,Damien Teney 在给笔者的邮件中写道, “It's depressing to see so much work that has been put into dataset-specific method that have almost no utility in the end.” (译:看到如此多的工作被投入到数据集特定的方法中,但最终几乎没有任何实用性,这令人沮丧。详见图 6)并在 twitter 中就此现象写道,“Let's keep questioning common assumptions and practices! 'Everybody does it' is rarely a good reason.” (译:我们应持续质疑常见的假设和实践!“从来如此,便对么?”。详见图 7)。



考虑了不同捷径的VQA评测基准VQA-VS

为了解决上述的两点限制,我们考虑了不同的捷径(Varying Shortcuts),构造并发布了一个新的 VQA 基准 VQA-VS,并且进一步规范了 OOD 评测流程。具体地,我们选择了包含基于语言的、基于视觉的和基于多模态的九种捷径来尽可能地包含不同类型的虚假关联。

对于每一个被选择的捷径,我们提出了一个基于互信息(mutual information)的方法来选择捷径特定概念(shortcut-specific concepts)。然后,我们利用这些 concepts 将所有样本分组,并通过基于香农熵(Shannon entropy)的方法引入不同的 distribution shifts,以构造面向九种捷径的 OOD 测试集。
VQA-VS 中构造 OOD 测试集时引入的 distribution shift 可避免 issue 1 。同时,除了 9 个 OOD 测试集外,VQA-VS 还提供了一个验证集和 IID 测试集以避免  issue 2  和  issue 3

2.1 合并和切分数据

▲ 图2 VQA-VS数据集的切分

图 2 展示了 VQA-VS 的数据划分。我们首先将 VQA v2 的训练集和验证集合并在一起,然后随机采样出其中的 70% 和 5% 的数据分别作为 VQA-VS 的训练集和验证集,剩下的 25% 数据作为 IID 测试集。随机采样的操作可以保证验证集和 IID 测试集遵循了和训练集相同的分布。

2.2 捷径的选择

通过考虑问题,图片和跨模态的重要元素,我们分别引导出基于语言的,基于视觉的和基于多模态的捷径,以尽可能多地覆盖捷径的类别。这些元素分别是问题词(Question Type, QT ),关键词(Keyword, KW ),关键词对(Keyword Pair, KWP ),问题类型和问题词的组合( QT+KW ),关键对象(Key Object,KO),关键对象对(Key Object Pair,KOP),问题词和关键对象的组合(KW+KO)以及问题词、关键词和关键对象的组合(QT+KW+KO)。这些因素很可能与答案形成虚假关联,并导致各种各样捷径。如:
  • 关于基于语言模态的 QT 捷径,答案 “black” 在训练集中总能正确回答问题词为 “what color” 的问题;关于 KW 捷径,关键词 “grass” 和答案 “green” 总是高频共现;
  • 关于基于视觉模态的 KO 捷径,图片中的 “grass” 区域和答案 “green” 也有着频繁的共现;
  • 而关于基于跨模态的 QT+KO 捷径,当问题词为 “what sport” 和图像中的 “rocket” 共同出现时,答案 “tennis” 总是正确的。

关于每种捷径更多的例子和解释可以参考文中 3.2 节。

2.3 捷径特定概念的选择

▲ 图3 每个样本被标上9个捷径特定概念

为了模拟不同捷径样本的分布,我们基于互信息为每一个样本分别标注了九种捷径特定概念(shortcut-specific concepts)。捷径特定概念可以被视为对应捷径的一个实例,代表着可能与答案关联最显著的信息。比如,问题 “what color is the banana?” 中,“what color” 是 QT 捷径的概念,“banana” 是 KW 捷径的概念。图 3 展示了更多捷径特定概念的例子。在下文中,我们详细阐述了确定每个捷径特定概念的过程。
  • QT:直接使用原始 VQA 数据集中的问题词前缀作为 QT 特定概念。

  • KW:给定一个 VQA 样本( ),我们通过以下公式测量答案 和问题 中每一个词 的(问题词除外)相互依赖程度:

其中, 分别表示包含 和它们的共现的样本的总数。 表示数据集的样本总数。更丰富的互信息意味着单词和答案之间的相关性更强。我们选择互信息值最高的单词作为此样本的 KW 概念。如图 3 所示,我们总能找到与问题答案最相关的关键词。
  • KWP:我们选择互信息最高的两个词作为 KWP 特定概念。
  • QT+KW:我们将 QT 和 KW 概念按顺序组合在一起,以获得给定样本的 QT+KW 特点概念。
  • KO/KOP/QT+KO:这些概念的确定方式和 KW/KWP/QT+KW 类似,不再赘述。
  • KW+KO/QT+KW+KO:通过组合一个样本相应的(QT、)KW 和 KO 概念,可获得其(QT+)KW+KO 特定概念。

2.4 OOD测试集的构建

Kervadec 等人 [8] 等人通过实验验证了稀有的(rare)VQA 样本是 OOD 样本,它们更适合评估 VQA 模型的鲁棒性。遵循他们,对于每种捷径,我们首先根据捷径特定概念将所有样本分组,然后从最不平衡的组中选出尾部样本作为 OOD 样本,最后合并所有选出来的 OOD 样本构成该捷径对应的 OOD 测试集。具体来说,共分为以下三步:

  • 对样本进行分组。如图 2 所示,我们首先将 IID 测试集复制 9 份,每一份对应一种捷径,然后我们将每份中所有的 IID 样本根据该捷径特定的概念分组。

  • 测量分组不平衡程度。当一个分组答案分布的熵越低,该分组越不平衡。首先,以 KW 捷径中第 n 个分组为例,我们按照以下公式计算其熵:

    其中, 表示答案为 的样本在该分组中所占的比例。 表示答案类别的数量。由于熵高度依赖于答案类别的数量,我们将其归一化:
    归一化后的熵表示该分组的答案分布和同维度的均匀分布( )有多接近。我们将归一化熵小于 0.9 的分组视为不平衡组。
  • 每一个不平衡的分组都呈长尾分布,我们将样本数少于所有答案类别平均样本数的 1.2 倍的答案类别视为稀有的,即这些答案类别下的所有样本为尾部样本。最后我们将所有不平衡分组中的尾部样本合并在一起得到该捷径对应的 OOD 测试集。最终,我们可以得到 9 个 OOD 测试集。



数据集分析

3.1 数据统计
▲ 表1 VQA-VS(粗体)和九个捷径的数据统计
表 1 表示了 VQA-VS 的数据统计,以及每个捷径的分组和样本统计。不同捷径的组总数差异显著(65~183683)。

3.2 答案分布的可视化

   

▲ 图4(左):训练集和OOD测试集的答案分布的对比;(右):不同分组下不同的OOD答案比例

图 4(左)显示,在相同概念的训练集和 OOD 测试集中,答案的分布显著不同。图 4(右)显示了 OOD 样本的选择过程,我们总是可以根据不同的分布以适当的比例动态地选择尾部样本。

3.3 捷径的相关性


▲ 图5(a)训练集所有头部划分之间的 Jaccard 相似系数。该值越高,两种捷径越相关。(b)所有 OOD 测试集两两之间的重合率。坐标(KO,QT)的方块表示 QT OOD 测试集中 KO 和 QT 重复样本所占的比例
头部划分在训练集中有着较高的占比,并且在模型训练中占主导地位,是模型学习到捷径的主要原因。因此,我们使用训练集中两条捷径的头部划分的相关性来分析两条捷路的相关性。特别地,如图 5(a)所示,QT 和 KO 捷径之间的 Jaccard Simliarity 系数明显较高。一个可能的解释是,问题类型和关键对象类型的标注之间有很强的关联。比如,问题类型 “who is” 和关键对象类型 “person” 经常共现。

3.4 OOD测试集之间重叠

直观地说,如果两个 OOD 测试集共享太多的样本,则无需在两个 OOT 测试集上单独评估模型。为了排除这种可能性并验证九个 OOD 测试集的必要性,我们计算所有 OOD 测试集中重复样本的数量,并计算相应的重合率。从图 5(b)中,我们发现大多数 OOD 测试集之间的符合率很低。虽然(KO,QT)的符合率高达 0.79,但(QT,KO)的重合度要低得多,仅为 0.49,这表明 KO 与 QT 相比具有不同的侧重点。



实验和分析


▲ 表2 VQA-VS和VQA-CP v2的对比


4.1 VQA-VS和VQA-CP v2的对比

VQA-CP v2 和 VQA-VS 中的 QT OOD 测试集是相似的,因为它们都是通过对问题词下的答案分布进行 distribution shift 构造出来的。如表 2 所示,我们发现模型在 VQA-VS 的 QT OOD 测试集上的性能与 VQA-CP v2 相比显著滞后,而在两个数据集上的 IID 性能相似。

这表明我们的 OOD 场景设置比 VQA-CP v2 更困难。特别地,LMH 和 SSL 在 VQA-CP v2 上能明显提升其主干模型 UpDn 的性能,但它们在 VQA-VS 的 OOD 测试集上却不起作用。这是因为它们严重依赖于对 VQA-CP v2 构造特点的利用(issue 1),而不是真正提高了模型的泛化能力和鲁棒性。

4.2 VQA-VS上的模型表现

由于我们解决了 issue 3,模型的 IID 和 OOD 性能在我们的数据集上是可比的,两者的性能差异可以作为评测模型鲁棒性的一个重要指标。

从表 2 中可以看出,所有模型在 IID 测试集上的精度均优于所有 OOD 测试集,且有较大的性能差异(6.46∼31.82)。这表明九种捷径都被模型从训练集中学到,说明语言优先不是唯一的捷径。此外,经典 debiasing 方法 LMH 及其变体均不能同时推广到所有 OOD 测试集。这说明基于集成的方法是脆弱的,依赖于对偏见特征的精心设计,是捷径特定的方案。

4.3 更好的跨模态表示有助于克服各种捷径

现有的 debiasing 方法会在克服语言偏见和正确回答问题之间进行权衡,即通过牺牲 IID 性能来提高 OOD 性能(表 2 和表 3 的右侧部分)。这是因为它们是为使用已知的 OOD 构造特点(issue 1)而精心设计的,这会损害跨模态表示。

最近的研究人员受到 VQA-CP v2 的鼓励,朝着这样的方向研究,这与真正的模型鲁棒性背道而驰。在 VQA-VS 上,正如预期的那样,跨模态预训练模型 LXMERT 以令人印象深刻的优势优于其他基础模型,因为它经过在大规模跨模态数据中的预训练,可以将文本和图像编码成更好的表示。

而在 VQA-CP v2 上却是相反的现象,即基于小模型 UpDn 的一系列 debiaisng 方法可以以绝对优势击败跨模态预训练模型。这是因为模型对 issue 1 的利用在 VQA-CP v2 上带来的收益要远大于更鲁棒的跨模态表示带来的收益。这一现象使得预训练模型在 VQA-CP v2 上毫无优势,也使得 VQA-CP v2 上的 SOTA 相较于被预训练模型霸榜的数据集更容易被刷新。然而,遗憾的是,VQA-CP v2 并不能验证模型的真实的鲁棒能力。  

▲ 表3 当前 SOTA debiasing 方法的表现

4.4 阻止模型学习频繁的样本可能会损害模型泛化能力

在 VQA-CP 上的 SOTA debiasing 方法(如 RuBi,LPF,LMH)倾向于阻止模型学习训练集中的频繁样本。如表3左侧所示,这些模型在我们的 IID 和 OOD 测试集(甚至在 QT 捷径上)均出现显著下降。

为了进一步分析,我们评估了两个具有不同 Gamma 的 LPF 模型,即 LPF-1 和 LPF-5。Gamma 是一个超参数,用于控制多大程度上阻止频繁样本的学习(请参阅它们在 VQA-CP v2 和 VQA v2 上的性能)。在 VQAVS 上,阻止程度更大的 LPF-5 的 IID 性能和 OOD 性能均严重落后于 LPF-1。这说明,阻止模型学习频繁的样本的去偏思路只是 fit 于 issue 1 的数据集特定方案。

4.5 模型选择策略的影响

▲ 表4 采用三种模型 checkpoint 选择策略的结果。a/b/c 分别表示使用 OOD 测试集 /OOD 验证集/IID验证集对 checkpoint 进行选择
为了探究 issue 2 对验证模型性能的影响,我们进行了详细的实验分析。从表 4 中,我们发现,当使用 OOD 测试集进行模型选择时,OOD 性能总能达到最佳,这是自适应过拟合(adaptive overfitting)的一种微妙形式 [6] 。同时,OOD 验证集选择的模型几乎赶上了 OOD 测试集选择的模型,因为它也违反了 OOD 分布在评估之前应该保持未知的标准。

相比之下,IID 验证集选择的模型表现相对较差。特别地,只有使用 OOD 测试集或 OOD 验证集进行模型选择,SSL 才能在 OOD 测试集上超越其主干模型 UpDn。这表明 SSL 并不鲁棒,并且证实了 SSL 对性能的提升来自于自适应过拟合。




总结

视觉问答(VQA)模型倾向于学习由数据集偏差形成的捷径解决方案,而不是预期解决方案。为了评估 VQA 模型在捷径学习之外的泛化能力,VQA-CP v2 数据集在给定问题类型的训练集和测试集之间引入了答案分布变换(distribution shift)。这样,模型无法使用训练集中的捷径在测试集上表现良好。

然而,VQA-CP v2 只考虑一种类型的捷径(从问题类型到答案),因此仍然不能保证模型依赖于预期方案,而不是特定于此捷径的解决方案。为了克服这一限制,我们提出了一个新的数据集,通过在多个 OOD 测试集中构造不同的 distribution shift 来考虑不同类型的捷径。

此外,我们克服了在使用 VQA-CP v2 时的三个令人不安的操作(例如,直接使用 OOD 测试集选择模型)并进一步标准化 OOD 评估流程。我们的评测基准为 VQA 中的捷径学习提供了更加严格和全面的测试平台。我们对最近的方法进行了基准测试,发现专门为特定捷径设计的方法无法同时推广到我们不同的 OOD 测试集。我们还系统地研究了各种捷径,并提供了一些有价值的发现(详见论文),这可能会促进 VQA 中捷径学习的探索。



同行评价


▲ 图6 Damien Teney的来信


该论文放在 arxiv 后一周左右,笔者收到了 Damien Teney 的来信,如图 6 所示,Damien Teney 肯定了我们的贡献,并认为我们很好地解决了他在 [6] 中指出的这些问题。同时,如图 7 所示,他在 Twitter 上对我们的工作进行了转发,并对这个社区范围内的自适应过拟合现象(community-wide adaptive overfitting)为研究者们总结了几点建议。


▲ 图7 Damien Teney在Twitter上对我们工作的转发和讨论





相关赛事

受 2022 CCF BDCI 大赛的邀请,我们将 VQA-VS 作为一道训练赛题发布了出去。   

▲ 图8 训练赛界面

为了方便 follow,该赛道提供了 baseline 代码框架和详细的数据集下载方式。欢迎大家在 VQA-VS 数据集上探究 VQA 模型真实的鲁棒能力。赛题的链接:
https://wap.datafountain.cn/competitions/613

参考文献

[1] Stanislaw Antol, Aishwarya Agrawal, Jiasen Lu, Margaret Mitchell, Dhruv Batra, C Lawrence Zitnick, and Devi Parikh. Vqa: Visual question answering. In ICCV 2015.
[2] Yash Goyal, Tejas Khot, Douglas Summers-Stay, Dhruv Batra, and Devi Parikh. 2017. Making the v in vqa matter: Elevating the role of image understanding in visual question answering. In CVPR 2017.
[3] Robert Geirhos, Jörn-Henrik Jacobsen, Claudio Michaelis, Richard Zemel, Wieland Brendel, Matthias Bethge, and Felix A Wichmann. Shortcut learning in deep neural networks. In Nature Machine Intelligence 2020.
[4] Aishwarya Agrawal, Dhruv Batra, Devi Parikh, and Aniruddha Kembhavi. Don’t just assume: Overcoming priors for visual question answering. In CVPR 2018.
[5] Christopher Clark, Mark Yatskar, and Luke Zettlemoyer. Don’t take the easy way out: Ensemble based methods for avoiding known dataset biases. In EMNLP 2019.
[6] Damien Teney, Kushal Kafle, Robik Shrestha, Ehsan Abbasnejad, Christopher Kanan, and Anton van den Hengel. On the value of out-of-distribution testing: An example of goodhart’s law. In NeurIPS 2020.
[7] Peter Anderson, Xiaodong He, Chris Buehler, Damien Teney, Mark Johnson, Stephen Gould, Lei Zhang. Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering. In CVPR 2018.
[8] Corentin Kervadec, Grigory Antipov, Moez Baccouche, and Christian Wolf. Roses are red, violets are blue... but should vqa expect them to? In CVPR 2021.



更多阅读



#投 稿 通 道#

 让你的文字被更多人看到 



如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。


总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 


PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。


📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算


📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿


△长按添加PaperWeekly小编



🔍


现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧


·

登录查看更多
2

相关内容

视觉问答(Visual Question Answering,VQA),是一种涉及计算机视觉和自然语言处理的学习任务。这一任务的定义如下: A VQA system takes as input an image and a free-form, open-ended, natural-language question about the image and produces a natural-language answer as the output[1]。 翻译为中文:一个VQA系统以一张图片和一个关于这张图片形式自由、开放式的自然语言问题作为输入,以生成一条自然语言答案作为输出。简单来说,VQA就是给定的图片进行问答。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【CVPR2022】语言作为查询的参考视频目标分割框架
专知会员服务
8+阅读 · 2022年4月27日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
15+阅读 · 2021年9月25日
专知会员服务
34+阅读 · 2021年6月16日
专知会员服务
21+阅读 · 2021年2月6日
【AAAI2021】信息瓶颈和有监督表征解耦
专知会员服务
20+阅读 · 2021年1月27日
近期必读的五篇 EMNLP 2020【反事实推理】相关论文和代码
专知会员服务
25+阅读 · 2020年11月23日
专知会员服务
123+阅读 · 2020年9月8日
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
34+阅读 · 2020年1月10日
AAAI2022 预训练中的多模态信息融合与表征探究
RUC AI Box
3+阅读 · 2022年3月15日
论文浅尝 - ISWC2021 | 当知识图谱遇上零样本视觉问答
开放知识图谱
1+阅读 · 2021年9月13日
多模态为什么比单模态好?第一份严谨证明来了!
夕小瑶的卖萌屋
1+阅读 · 2021年8月2日
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
A Survey on Data Augmentation for Text Classification
Arxiv
10+阅读 · 2021年2月26日
VIP会员
相关VIP内容
【CVPR2022】语言作为查询的参考视频目标分割框架
专知会员服务
8+阅读 · 2022年4月27日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
专知会员服务
15+阅读 · 2021年9月25日
专知会员服务
34+阅读 · 2021年6月16日
专知会员服务
21+阅读 · 2021年2月6日
【AAAI2021】信息瓶颈和有监督表征解耦
专知会员服务
20+阅读 · 2021年1月27日
近期必读的五篇 EMNLP 2020【反事实推理】相关论文和代码
专知会员服务
25+阅读 · 2020年11月23日
专知会员服务
123+阅读 · 2020年9月8日
近期必读的7篇 CVPR 2019【视觉问答】相关论文和代码
专知会员服务
34+阅读 · 2020年1月10日
相关基金
国家自然科学基金
0+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
2+阅读 · 2013年12月31日
国家自然科学基金
1+阅读 · 2012年12月31日
国家自然科学基金
2+阅读 · 2009年12月31日
国家自然科学基金
1+阅读 · 2009年12月31日
国家自然科学基金
0+阅读 · 2009年12月31日
Top
微信扫码咨询专知VIP会员