成为VIP会员查看完整内容
VIP会员码认证
首页
主题
发现
会员
服务
注册
·
登录
0
AI看图说话首超人类!微软认知AI团队提出视觉词表预训练超越Transformer
2020 年 10 月 19 日
THU数据派
来源:新智元
本文
约
2348
字
,建议阅读
5分钟
。
本文介绍
Azure上线了一个新的人工智能服务,能精准的说出图片中的内容。而背后的视觉词表技术,更是超越了基于Transformer的前辈们,拿到nocaps挑战赛冠军。
【导读】
能看图会说话的AI,表现还超过了人类?最近,Azure悄然上线了一个新的人工智能服务,能精准的说出图片中的内容。而背后的视觉词表技术,更是超越了基于Transformer的前辈们,拿到nocaps挑战赛冠军。
有没有发现,搜索出来的图片有时相关性很差?
现在很多搜索引擎都是基于图片的文本标签,但是我们的世界每天产生不计其数的照片,很多都没有标记直接传到了网上,给图片搜索带来了很多混乱。
如果系统能自动给图片加上精准的描述,图像搜索的效率将大为提高。
看图说话的AI:基于模板和Transformer都不尽如人意
看图说话(或者叫图像描述),近年来受到了很多关注,它可以自动生成图片描述。但是目前无论是学术界还是工业界,做的
效果都差强人意
。
看图说话系统
一方面需要计算机视觉进行图像的识别,另一方面需要自然语言来描述识别到的物体
。带标签的图片可以针对性训练,那如果出现了从未标注的新物体,系统是不是就失效了?
这个问题困扰了人们很久,即描述清楚一个新出现的东西。
人工智能领域验证一个模型的好坏,通常会用一个基准测试。比如NLP方向会用GLUE、SuperGLUE等,图像识别会用ImageNet等。
为了测试模型能否在没有训练数据的情况下完成看图说话,nocaps应运而生。
nocaps可以衡量模型能否准确描述未出现过的物体。
传统的看图说话方法主要有两种:一种是模板生成,一种是基于 Transformer 的图像文本交互预训练。
模板生成方法,在简单场景下可以使用,但无法捕捉深层次的图像文本关系,而基于Transformer的模型又需要海量的标注数据,所以不适合nocaps。
为解决这些问题,微软认知服务团队的研究人员提出了一种名为
视觉词表预训练
(Visual Vocabulary Pre-training,简称VIVO)的解决方案。
无需配对图文数据,VIVO看图说话夺冠nocaps首次超越人类
VIVO可以在没有文本标签的数据上进行文本和图像的多模态预训练,摆脱了对配对图文数据的依赖,可以直接利用ImageNet等数据集的类别标签。借助VIVO,模型可以学习到物体的视觉外表和语义之间的关系,建立视觉词表。
这个视觉词表是啥呢?其实就是一个图像和文本的联合特征空间,在这个特征空间中,语义相近的词会聚类到一起,如金毛和牧羊犬,手风琴和乐器等。
预训练建好词表后,模型只需在有少量共同物体的配对图文的数据上进行微调
,模型就能自动生成通用的模板语句,使用时,即使出现没见过的词,也能从容应对,相当于把图片和描述的各部分解耦了。
所以
VIVO既能利用预训练强大的物体识别能力,也能够利用模板的通用性
,从而应对新出现的物体。
Azure AI 认知服务首席技术官
黄学东
解释说,视觉词表的预训练类似于让孩子们先用一本图画书来阅读,这本图画书将单个单词与图像联系起来,比如一个苹果的图片下面有个单词apple,一只猫的图片下面有个单词cat。
视觉词表的预训练本质上就是训练系统完成这种动作记忆。
目前,VIVO 在 nocaps 挑战中取得了 SOTA效果,并首次超越人类表现。
VIVO取得成功可不仅仅是挑战赛的SOTA,目前已经有了实际应用。
看图说话SOTA已上线,AI不能一直处于灰色的迭代
据世界卫生组织统计,各年龄段视力受损的人数估计有2.85亿人,其中3900万人是盲人。
实力受损的用户想要获取图片和视频中的信息,就要依靠自动生成的图片描述或字幕(或者进一步转化为语音),他们非常相信这些自动生成的描述,不管字幕是否有意义。
「理想情况下,每个人都应该在文档、网络、社交媒体中给图片添加描述,因为这样可以让盲人访问内容并参与对话。」但是,这很不现实,很多图片都没有对应的文本。
Azure AI 认知服务公司首席技术官黄学东说: 「
看图说话是计算机视觉的核心能力之一,可以提供广泛的服务
」。
现在VIVO看图说话的能力已经集成到了Azure AI中,任何人都可以将它集成到自己的视觉AI应用中。
黄学东认为, 把VIVO的突破带到 Azure 上,为更广泛的客户群服务,不仅是研究上的突破,更重要的是将这一突破转化为 Azure 上的产品所花费的时间。
基于VIVO的小程序Seeing AI在苹果应用商店已经可以使用了,Azure也已经上线了免费API,供盲人或者视障人士免费使用。如果再加上Azure的翻译服务,看图说话可以支持80多种语言。
的确,有太多的实验室SOTA技术倒在了灰色的不断迭代中,没能完成它最初的使命。
看图说话只是认知智能的一小步,受古登堡印刷机启发开创新魔法
近年来,微软一直在寻求超越现有技术的人工智能。
作为 Azure 认知服务的首席技术官,黄学东所在的团队一直在探索,如何更全面、更人性化地来学习和理解这个世界。
他认为要想获得更好的认知能力,三个要素至关重要,单语言文本(X)、音频或视觉等感觉信号(Y)和多语言(Z)。
在这三者的交汇处,有一种新魔法ーー XYZ-Code,可以创造出更强大的人工智能,能够更好地听、说、看和理解人类。
「
我们相信 XYZ-Code正在实现我们的长期愿景: 跨领域、跨模式和跨语言学习
。我们的目标是建立预先训练好的模型,这些模型可以学习大范围的下游人工智能任务的表示,就像今天人类所做的那样。」
黄学东团队从德国发明家约翰内斯·古登堡那里获得灵感,他在1440年发明了印刷机,使人类能够快速、大量地分享知识。作为历史上最重要的发明之一,古登堡的印刷机彻底改变了社会进化的方式。
古登堡和他发明的印刷机
在今天的数字时代,
认知智能的愿景也是开发一种能够像人一样学习和推理的技术,对各种情况和意图做出精准推断,进而做出合理的决策
。
在过去的五年里,我们已经在人工智能的很多领域实现了人类的平等地位,包括
语音识别对话、机器翻译、问答对话、机器阅读理解和看图说话
。
这五个突破让我们更有信心实现人工智能的飞跃,XYZ-Code将成为多感官和多语言学习的重要组成部分,最终让人工智能更像人类。
正如古登堡的印刷机革命性地改变了通信的过程,认知智能将帮助我们实现人工智能的伟大复兴。
看图说话体验链接:
https://apps.apple.com/us/app/seeing-ai/id999062298
——
EN
D
——
登录查看更多
点赞并收藏
0
暂时没有读者
0
权益说明
本文档仅做收录索引使用,若发现您的权益受到侵害,请立即联系客服(微信: zhuanzhi02,邮箱:bd@zhuanzhi.ai),我们会尽快为您处理
相关内容
视觉词表
关注
0
【EMNLP2020】自然语言分类任务的自监督元学习
专知会员服务
29+阅读 · 2020年9月18日
【ECCV2020】基于场景图分解的自然语言描述生成
专知会员服务
23+阅读 · 2020年9月3日
【神经语言生成:形式化,方法与评价,70页pdf】
专知会员服务
35+阅读 · 2020年8月8日
【DeepMind】CrossTransformers: 空间感知的小样本迁移
专知会员服务
39+阅读 · 2020年7月26日
新杀器来了!Facebook AI提出DETR:用Transformers来进行端到端的目标检测
专知会员服务
50+阅读 · 2020年5月28日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
【CVPR2020-Facebook AI】单样本自适应域脸生成,One-Shot Domain Adaptation
专知会员服务
28+阅读 · 2020年4月6日
【CVPR2020-Oral】用于任务感知的持续学习的条件信道门控网络
专知会员服务
20+阅读 · 2020年4月2日
微软亚洲研究院新论文-《多模态预训练语言模型UniViLM》面向多模态理解和生成的统一视频和语言预训练模型
专知会员服务
107+阅读 · 2020年2月19日
【Google AI新论文】REALM:检索增强语言模型预训练,QA的SOTA提升4-16%准确性
专知会员服务
44+阅读 · 2020年2月12日
基于BERT的ASR纠错
深度学习自然语言处理
8+阅读 · 2020年7月16日
CVPR 2020 | 看图说话之随心所欲:细粒度可控的图像描述自动生成
AI科技评论
14+阅读 · 2020年3月16日
【Google AI新论文】REALM:检索增强语言模型预训练,QA的SOTA提升4-16%准确性
专知
12+阅读 · 2020年2月12日
2019最佳预训练模型:非暴力美学,1/4算力超越RoBERTa
机器之心
6+阅读 · 2019年11月9日
RoBERTa中文预训练模型,你离中文任务的「SOTA」只差个它
机器之心
40+阅读 · 2019年9月5日
微软亚研提出VL-BERT:通用的视觉-语言预训练模型
机器之心
15+阅读 · 2019年9月3日
【学界】何恺明团队新作ResNext:Instagram图片预训练,挑战ImageNet新精度
GAN生成式对抗网络
4+阅读 · 2019年6月26日
ACL 2019 | 基于知识增强的语言表示模型,多项NLP任务表现超越BERT
PaperWeekly
8+阅读 · 2019年6月3日
MirrorGAN出世!浙大等提出文本-图像新框架,刷新COCO纪录
新智元
3+阅读 · 2019年3月16日
【AAAI 2018】腾讯 AI Lab 11篇论文解读:图像描述、NMT 模型、图卷积神经网络、DNN优化等
新智元
6+阅读 · 2018年1月29日
German's Next Language Model
Arxiv
0+阅读 · 2020年12月3日
Pre-Trained Image Processing Transformer
Arxiv
2+阅读 · 2020年12月1日
Molecular representation learning with language models and domain-relevant auxiliary tasks
Arxiv
0+阅读 · 2020年11月26日
Pre-Training with Whole Word Masking for Chinese BERT
Arxiv
11+阅读 · 2019年6月19日
Investigating the Successes and Failures of BERT for Passage Re-Ranking
Arxiv
3+阅读 · 2019年5月5日
Cross-Modal Self-Attention Network for Referring Image Segmentation
Arxiv
18+阅读 · 2019年4月9日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Arxiv
4+阅读 · 2019年1月9日
Visual-textual Attention Driven Fine-grained Representation Learning
Arxiv
3+阅读 · 2018年4月26日
End-to-End Dense Video Captioning with Masked Transformer
Arxiv
14+阅读 · 2018年4月3日
VIP会员
自助开通(推荐)
客服开通
详情
相关主题
视觉词表
词表
Transformer
预训练
Microsoft Azure
黄学东
相关VIP内容
【EMNLP2020】自然语言分类任务的自监督元学习
专知会员服务
29+阅读 · 2020年9月18日
【ECCV2020】基于场景图分解的自然语言描述生成
专知会员服务
23+阅读 · 2020年9月3日
【神经语言生成:形式化,方法与评价,70页pdf】
专知会员服务
35+阅读 · 2020年8月8日
【DeepMind】CrossTransformers: 空间感知的小样本迁移
专知会员服务
39+阅读 · 2020年7月26日
新杀器来了!Facebook AI提出DETR:用Transformers来进行端到端的目标检测
专知会员服务
50+阅读 · 2020年5月28日
【ACL2020-Allen AI】预训练语言模型中的无监督域聚类
专知会员服务
23+阅读 · 2020年4月7日
【CVPR2020-Facebook AI】单样本自适应域脸生成,One-Shot Domain Adaptation
专知会员服务
28+阅读 · 2020年4月6日
【CVPR2020-Oral】用于任务感知的持续学习的条件信道门控网络
专知会员服务
20+阅读 · 2020年4月2日
微软亚洲研究院新论文-《多模态预训练语言模型UniViLM》面向多模态理解和生成的统一视频和语言预训练模型
专知会员服务
107+阅读 · 2020年2月19日
【Google AI新论文】REALM:检索增强语言模型预训练,QA的SOTA提升4-16%准确性
专知会员服务
44+阅读 · 2020年2月12日
热门VIP内容
开通专知VIP会员 享更多权益服务
《人类-航空/航天机器人协作网络中的动态覆盖控制和估计》177页
《数字目标定位:人工智能、数据和军事情报》
从俄乌战争中汲取的地理空间情报教训
《国防和国家安全中的战术边缘物联网》最新45页
相关资讯
基于BERT的ASR纠错
深度学习自然语言处理
8+阅读 · 2020年7月16日
CVPR 2020 | 看图说话之随心所欲:细粒度可控的图像描述自动生成
AI科技评论
14+阅读 · 2020年3月16日
【Google AI新论文】REALM:检索增强语言模型预训练,QA的SOTA提升4-16%准确性
专知
12+阅读 · 2020年2月12日
2019最佳预训练模型:非暴力美学,1/4算力超越RoBERTa
机器之心
6+阅读 · 2019年11月9日
RoBERTa中文预训练模型,你离中文任务的「SOTA」只差个它
机器之心
40+阅读 · 2019年9月5日
微软亚研提出VL-BERT:通用的视觉-语言预训练模型
机器之心
15+阅读 · 2019年9月3日
【学界】何恺明团队新作ResNext:Instagram图片预训练,挑战ImageNet新精度
GAN生成式对抗网络
4+阅读 · 2019年6月26日
ACL 2019 | 基于知识增强的语言表示模型,多项NLP任务表现超越BERT
PaperWeekly
8+阅读 · 2019年6月3日
MirrorGAN出世!浙大等提出文本-图像新框架,刷新COCO纪录
新智元
3+阅读 · 2019年3月16日
【AAAI 2018】腾讯 AI Lab 11篇论文解读:图像描述、NMT 模型、图卷积神经网络、DNN优化等
新智元
6+阅读 · 2018年1月29日
相关论文
German's Next Language Model
Arxiv
0+阅读 · 2020年12月3日
Pre-Trained Image Processing Transformer
Arxiv
2+阅读 · 2020年12月1日
Molecular representation learning with language models and domain-relevant auxiliary tasks
Arxiv
0+阅读 · 2020年11月26日
Pre-Training with Whole Word Masking for Chinese BERT
Arxiv
11+阅读 · 2019年6月19日
Investigating the Successes and Failures of BERT for Passage Re-Ranking
Arxiv
3+阅读 · 2019年5月5日
Cross-Modal Self-Attention Network for Referring Image Segmentation
Arxiv
18+阅读 · 2019年4月9日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context
Arxiv
4+阅读 · 2019年1月9日
Visual-textual Attention Driven Fine-grained Representation Learning
Arxiv
3+阅读 · 2018年4月26日
End-to-End Dense Video Captioning with Masked Transformer
Arxiv
14+阅读 · 2018年4月3日
大家都在搜
智能推荐
大模型
大型语言模型
全面综述
ETHZ博士论文
MoE
汽车智能化
palantir
PRML
出海产品从 0 到 1 该怎么做
Top
提示
微信扫码
咨询专知VIP会员与技术项目合作
(加微信请备注: "专知")
微信扫码咨询专知VIP会员
Top