Knowledge is acquired by humans through experience, and no boundary is set between the kinds of knowledge or skill levels we can achieve on different tasks at the same time. When it comes to Neural Networks, that is not the case, the major breakthroughs in the field are extremely task and domain specific. Vision and language are dealt with in separate manners, using separate methods and different datasets. In this work, we propose to use knowledge acquired by benchmark Vision Models which are trained on ImageNet to help a much smaller architecture learn to classify text. After transforming the textual data contained in the IMDB dataset to gray scale images. An analysis of different domains and the Transfer Learning method is carried out. Despite the challenge posed by the very different datasets, promising results are achieved. The main contribution of this work is a novel approach which links large pretrained models on both language and vision to achieve state-of-the-art results in different sub-fields from the original task. Without needing high compute capacity resources. Specifically, Sentiment Analysis is achieved after transferring knowledge between vision and language models. BERT embeddings are transformed into grayscale images, these images are then used as training examples for pre-trained vision models such as VGG16 and ResNet Index Terms: BERT, Convolutional Neural Networks, Domain Adaptation, image classification, Natural Language Processing, t-SNE, text classification, Transfer Learning


翻译:人类通过经验获得知识, 并且没有分界线地区分我们在同一时间可以实现的不同任务的知识或技能水平。 在神经网络方面, 情况并非如此, 实地的主要突破是极其艰巨的任务和特定领域。 视野和语言以不同的方式处理, 使用不同的方法和不同的数据集。 在这项工作中, 我们提议使用通过基准愿景模型获得的知识, 在图像网络上培训, 帮助一个小得多的结构学习分类文本。 在将IMDB数据集中包含的文本数据转换为灰色比例图像之后, 对不同领域和传输学习方法进行了分析。 尽管不同数据集提出了挑战, 却实现了有希望的成果。 这项工作的主要贡献是一种新颖的方法, 将语言和愿景上的大型预先培训模型与愿景联系起来, 以在最初任务的不同子领域实现最新结果。 不需要高的校正能力资源。 具体地说, 在将视觉模型和语言模型之间的知识转换为灰色比例级图像后, 感官分析是完成的。 BER 嵌入式模型和转移为灰色级图像, 这些图像是用来作为升级前的图像 。 Do train 。

0
下载
关闭预览

相关内容

专知会员服务
43+阅读 · 2020年12月18日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
153+阅读 · 2019年10月12日
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Type-augmented Relation Prediction in Knowledge Graphs
Learning Embedding Adaptation for Few-Shot Learning
Arxiv
16+阅读 · 2018年12月10日
VIP会员
相关VIP内容
专知会员服务
43+阅读 · 2020年12月18日
因果图,Causal Graphs,52页ppt
专知会员服务
247+阅读 · 2020年4月19日
Keras François Chollet 《Deep Learning with Python 》, 386页pdf
专知会员服务
153+阅读 · 2019年10月12日
相关资讯
Hierarchically Structured Meta-learning
CreateAMind
26+阅读 · 2019年5月22日
Transferring Knowledge across Learning Processes
CreateAMind
28+阅读 · 2019年5月18日
强化学习的Unsupervised Meta-Learning
CreateAMind
17+阅读 · 2019年1月7日
无监督元学习表示学习
CreateAMind
27+阅读 · 2019年1月4日
Unsupervised Learning via Meta-Learning
CreateAMind
42+阅读 · 2019年1月3日
meta learning 17年:MAML SNAIL
CreateAMind
11+阅读 · 2019年1月2日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
17+阅读 · 2018年12月24日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
【学习】Hierarchical Softmax
机器学习研究会
4+阅读 · 2017年8月6日
Top
微信扫码咨询专知VIP会员