成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
谷歌、MIT「迭代共同认证」视频问答模型:SOTA性能,算力少用80%
2022 年 8 月 16 日
新智元
新智元报道
编辑:David
【新智元导读】
谷歌、MIT联合研究,视频问答模型计算效率提升一倍。
视频是一种无处不在的媒体内容源,涉及到人们日常生活的许多方面。
越来越多的现实世界的视频应用,如视频字幕、内容分析和视频问答(VideoQA),都依赖于能够将视频内容与文本或自然语言联系起来的模型。
其中,视频问答模型尤其具有挑战性,因为它需要同时掌握语义信息,比如场景中的目标,以及时间信息,比如事物如何移动和互动。这两种信息都必须在拥有特定意图的自然语言问题的背景下进行。
此外,由于视频有许多帧,处理全部的帧来学习时空信息,可能在计算上成本过高。
论文链接:
https://arxiv.org/pdf/2208.00934.pdf
为了解决这个问题,在「Video Question Answering with Iterative Video-Text Co-Tokenization」一文中,谷歌和MIT的研究人员介绍了一种视频-文本学习的新方法,称为「迭代共同标记」,能够有效地融合空间、时间和语言信息,用于视频问答的信息处理。
这种方法是多流的,用独立的骨干模型处理不同规模的视频,产生捕捉不同特征的视频表示,例如高空间分辨率或长时间的视频。
模型应用「共同认证」模块,从视频流与文本的融合中学习有效表示。模型计算效率很高,只需67GFLOPs,比以前的方法至少低了50%,同时比其他SOTA的模型有更好的性能。
视频-文本迭代
该模型的主要目标是从视频和文本(即用户问题)中产生特征,共同允许它们的相应输入进行互动。
第二个目标是以有效的方式做到这一点,这对视频来说非常重要,因为它们包含几十到几百帧的输入。
该模型学会了将视频-语言的联合输入标记为较小的标记集,以联合和有效地代表两种模式。在标记化时,研究人员使用两种模式来产生一个联合的紧凑表示,该表示被送入一个转换层以产生下一级的表示。
这里的一个挑战,也是跨模态学习中的典型问题,就是视频帧往往并不直接对应于相关的文本。研究人员通过增加两个可学习的线性层来解决这个问题,在标记化之前,统一视觉和文本特征维度。这样一来,研究人员就可以让视频和文本都能制约视频标记的学习方式。
此外,单一的标记化步骤不允许两种模式之间的进一步互动。为此,研究人员使用这个新的特征表示与视频输入特征互动,并产生另一组标记化的特征,然后将其送入下一个转化器层。
这个迭代过程中会创建新的特征或标记,表示对两种模式的联合表示的不断完善。最后,这些特征被输入到生成文本输出的解码器中。
按照视频质量评估的惯例,在对个别视频质量评估数据集进行微调之前,研究人员对模型进行预训练。
在这项工作中,研究人员使用基于语音识别的文本自动注释的视频,使用HowTo100M数据集,而不是在大型VideoQA数据集上预训练。这种较弱的预训练数据仍然使研究人员的模型能够学习视频-文本特征。
高效视频问答的实现
研究人员将视频语言迭代共同认证算法应用于三个主要的VideoQA基准,MSRVTT-QA、MSVD-QA和IVQA,并证明这种方法比其他最先进的模型取得了更好的结果,同时模型不至于过大。
另外,迭代式共同标记学习在视频-文本学习任务上对算力的需求也更低。
该模型只用67GFLOPS算力,是3D-ResNet视频模型和文本时所需算力(360GFLOP)的六分之一,是X3D模型效率的两倍多。并且生成了高度准确的结果,精度超过了最先进的方法。
多流视频输入
对
于VideoQA或其他一些涉及视频输入的任务,研
究人员发现,多流输入对于更准确地回答有关空间和时间关系的问题很重要。
研究人员利用三个不同分辨率和帧率的视频流:一个低分辨率、高帧率的输入视频流(每秒32帧,空间分辨率64x64,记作32x64x64);一个高分辨率、低帧率的视频(8x224x224);以及一个介于两者之间的(16x112x112)。
尽管有三个数据流需要处理的信息显然更多,但由于采用了迭代共同标记方法,获得了非常高效的模型。同时,这些额外的数据流允许提取最相关的信息。
例如,如下图所示,与特定活动相关的问题在分辨率较低但帧率较高的视频输入中会产生较高的激活,而与一般活动相关的问题可以从帧数很少的高分辨率输入中得到答案。
这种算法的另一个好处是,标记化会根据所问问题的不同而改变。
结论
研究人员提出了一种新的视频语言学习方法,它侧重于跨视频-文本模式的联合学习。
研究人员解决了视频问题回答这一重要而具有挑战性的任务。
研究人员的方法既高效又准确,尽管效率更高,但却优于目前最先进的模型。
谷歌研究人员的方法模型规模适度,可以通过更大的模型和数据获得进一步的性能改进。研究人员希望,这项工作能引发视觉语言学习方面的更多研究,以实现与基于视觉的媒体的更多无缝互动。
参考资料:
https://ai.googleblog.com/2022/08/efficient-video-text-learning-with.html
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
视频
关注
0
视频
NeurlPS 2022 | 深度双向语言-知识图谱预训练
专知会员服务
9+阅读 · 2022年11月28日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
13+阅读 · 2022年5月4日
【Google AI】多模态瓶颈Transformer(MBT):一种新的模态融合模型,Multimodal Bottleneck Transformer (MBT): A New Model for Modality Fusion
专知会员服务
56+阅读 · 2022年3月20日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
【ICLR2022】UniFormer:无缝集成 Transformer,更高效的时空表征学习框架
专知会员服务
49+阅读 · 2022年2月16日
【NeurIPS 2021】自我挖掘——视频问答中对样本进行孪生采样和推理
专知会员服务
10+阅读 · 2021年12月10日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
微软亚洲研究院新论文-《多模态预训练语言模型UniViLM》面向多模态理解和生成的统一视频和语言预训练模型
专知会员服务
107+阅读 · 2020年2月19日
【Google AI新论文】REALM:检索增强语言模型预训练,QA的SOTA提升4-16%准确性
专知会员服务
44+阅读 · 2020年2月12日
谷歌推出多轴注意力方法,既改进ViT又提升MLP
机器之心
0+阅读 · 2022年9月9日
CVPR 2022 Oral | 视频文本预训练新SOTA!港大&腾讯推出基于多项选择题的借口任务
CVer
0+阅读 · 2022年6月2日
用自洽性提升大模型推理能力,谷歌解答基准中75%数学问题,比GPT-3提升20%
机器之心
0+阅读 · 2022年4月12日
重磅!谷歌用扩散模型来生成视频了!刷新SOTA
CVer
1+阅读 · 2022年4月12日
视频也可以用扩散模型来生成了,效果很能打:新SOTA已达成 | 谷歌
量子位
1+阅读 · 2022年4月11日
谷歌提出MaskGIT:掩码生成图像Transformer
CVer
2+阅读 · 2022年3月21日
单一ViT模型执行多模态多任务,谷歌用协同训练策略实现多个SOTA
机器之心
1+阅读 · 2021年12月21日
豪取4个SOTA,谷歌魔改Transformer登NeurIPS 2021!一层8个token比1024个还好用
极市平台
0+阅读 · 2021年12月12日
Transformer大升级!谷歌、OpenAI联合推出分层模型,刷榜ImageNet32刷新SOTA
新智元
1+阅读 · 2021年11月14日
基于多源视频的大范围场景目标跟踪
国家自然科学基金
2+阅读 · 2015年12月31日
基于多准则场景缩减的“零停机”设备状态预测与维护方法研究
国家自然科学基金
0+阅读 · 2015年12月31日
多模态融合的大规模网络视频名人标注研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于多维度文本特征的社区问答答案质量评估研究
国家自然科学基金
0+阅读 · 2013年12月31日
面向企业的商品评论代表性意见提取策略研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于情感序列和情感选择的句子多维复合情感识别研究
国家自然科学基金
0+阅读 · 2012年12月31日
基于稀疏编码模型的深层学习神经网络
国家自然科学基金
7+阅读 · 2012年12月31日
大变形自由表面流动及流固耦合粒子模型与实验研究
国家自然科学基金
0+阅读 · 2011年12月31日
污染土壤中磷肥影响铜植物有效性机制研究
国家自然科学基金
0+阅读 · 2009年12月31日
基于视觉特性的高效视频编码研究
国家自然科学基金
0+阅读 · 2008年12月31日
A Data-driven Latent Semantic Analysis for Automatic Text Summarization using LDA Topic Modelling
Arxiv
0+阅读 · 2022年11月28日
GPT-3-driven pedagogical agents for training children's curious question-asking skills
Arxiv
0+阅读 · 2022年11月25日
Aggregated Text Transformer for Scene Text Detection
Arxiv
0+阅读 · 2022年11月25日
Gradient Estimation with Discrete Stein Operators
Arxiv
0+阅读 · 2022年11月23日
Autonomous Vision-based Rapid Aerial Grasping
Arxiv
0+阅读 · 2022年11月23日
Real-time Model Predictive Control and System Identification Using Differentiable Physics Simulation
Arxiv
0+阅读 · 2022年11月23日
Less is More: ClipBERT for Video-and-Language Learning via Sparse Sampling
Arxiv
10+阅读 · 2021年2月11日
Unifying Vision-and-Language Tasks via Text Generation
Arxiv
10+阅读 · 2021年2月4日
已删除
Arxiv
32+阅读 · 2020年3月23日
Notes on Deep Learning for NLP
Arxiv
22+阅读 · 2018年8月30日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
视频
问答
麻省理工学院
计算效率
SOTA
谷歌
相关VIP内容
NeurlPS 2022 | 深度双向语言-知识图谱预训练
专知会员服务
9+阅读 · 2022年11月28日
UTC: 用于视觉对话的任务间对比学习的统一Transformer
专知会员服务
13+阅读 · 2022年5月4日
【Google AI】多模态瓶颈Transformer(MBT):一种新的模态融合模型,Multimodal Bottleneck Transformer (MBT): A New Model for Modality Fusion
专知会员服务
56+阅读 · 2022年3月20日
【CVPR2022】三元组对比学习的视觉-语言预训练
专知会员服务
31+阅读 · 2022年3月3日
【ICLR2022】UniFormer:无缝集成 Transformer,更高效的时空表征学习框架
专知会员服务
49+阅读 · 2022年2月16日
【NeurIPS 2021】自我挖掘——视频问答中对样本进行孪生采样和推理
专知会员服务
10+阅读 · 2021年12月10日
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
【ICML2020】统一预训练伪掩码语言模型
专知会员服务
25+阅读 · 2020年7月23日
微软亚洲研究院新论文-《多模态预训练语言模型UniViLM》面向多模态理解和生成的统一视频和语言预训练模型
专知会员服务
107+阅读 · 2020年2月19日
【Google AI新论文】REALM:检索增强语言模型预训练,QA的SOTA提升4-16%准确性
专知会员服务
44+阅读 · 2020年2月12日
热门VIP内容
开通专知VIP会员 享更多权益服务
《人类-航空/航天机器人协作网络中的动态覆盖控制和估计》177页
《数字目标定位:人工智能、数据和军事情报》
从俄乌战争中汲取的地理空间情报教训
《国防和国家安全中的战术边缘物联网》最新45页
相关资讯
谷歌推出多轴注意力方法,既改进ViT又提升MLP
机器之心
0+阅读 · 2022年9月9日
CVPR 2022 Oral | 视频文本预训练新SOTA!港大&腾讯推出基于多项选择题的借口任务
CVer
0+阅读 · 2022年6月2日
用自洽性提升大模型推理能力,谷歌解答基准中75%数学问题,比GPT-3提升20%
机器之心
0+阅读 · 2022年4月12日
重磅!谷歌用扩散模型来生成视频了!刷新SOTA
CVer
1+阅读 · 2022年4月12日
视频也可以用扩散模型来生成了,效果很能打:新SOTA已达成 | 谷歌
量子位
1+阅读 · 2022年4月11日
谷歌提出MaskGIT:掩码生成图像Transformer
CVer
2+阅读 · 2022年3月21日
单一ViT模型执行多模态多任务,谷歌用协同训练策略实现多个SOTA
机器之心
1+阅读 · 2021年12月21日
豪取4个SOTA,谷歌魔改Transformer登NeurIPS 2021!一层8个token比1024个还好用
极市平台
0+阅读 · 2021年12月12日
Transformer大升级!谷歌、OpenAI联合推出分层模型,刷榜ImageNet32刷新SOTA
新智元
1+阅读 · 2021年11月14日
相关基金
基于多源视频的大范围场景目标跟踪
国家自然科学基金
2+阅读 · 2015年12月31日
基于多准则场景缩减的“零停机”设备状态预测与维护方法研究
国家自然科学基金
0+阅读 · 2015年12月31日
多模态融合的大规模网络视频名人标注研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于多维度文本特征的社区问答答案质量评估研究
国家自然科学基金
0+阅读 · 2013年12月31日
面向企业的商品评论代表性意见提取策略研究
国家自然科学基金
0+阅读 · 2013年12月31日
基于情感序列和情感选择的句子多维复合情感识别研究
国家自然科学基金
0+阅读 · 2012年12月31日
基于稀疏编码模型的深层学习神经网络
国家自然科学基金
7+阅读 · 2012年12月31日
大变形自由表面流动及流固耦合粒子模型与实验研究
国家自然科学基金
0+阅读 · 2011年12月31日
污染土壤中磷肥影响铜植物有效性机制研究
国家自然科学基金
0+阅读 · 2009年12月31日
基于视觉特性的高效视频编码研究
国家自然科学基金
0+阅读 · 2008年12月31日
相关论文
A Data-driven Latent Semantic Analysis for Automatic Text Summarization using LDA Topic Modelling
Arxiv
0+阅读 · 2022年11月28日
GPT-3-driven pedagogical agents for training children's curious question-asking skills
Arxiv
0+阅读 · 2022年11月25日
Aggregated Text Transformer for Scene Text Detection
Arxiv
0+阅读 · 2022年11月25日
Gradient Estimation with Discrete Stein Operators
Arxiv
0+阅读 · 2022年11月23日
Autonomous Vision-based Rapid Aerial Grasping
Arxiv
0+阅读 · 2022年11月23日
Real-time Model Predictive Control and System Identification Using Differentiable Physics Simulation
Arxiv
0+阅读 · 2022年11月23日
Less is More: ClipBERT for Video-and-Language Learning via Sparse Sampling
Arxiv
10+阅读 · 2021年2月11日
Unifying Vision-and-Language Tasks via Text Generation
Arxiv
10+阅读 · 2021年2月4日
已删除
Arxiv
32+阅读 · 2020年3月23日
Notes on Deep Learning for NLP
Arxiv
22+阅读 · 2018年8月30日
大家都在搜
RE-NET
笛卡尔
大型语言模型
全面综述
ETHZ博士论文
MoE
汽车智能化
palantir
智能推荐
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top