Document layout comprises both structural and visual (eg. font-sizes) information that is vital but often ignored by machine learning models. The few existing models which do use layout information only consider textual contents, and overlook the existence of contents in other modalities such as images. Additionally, spatial interactions of presented contents in a layout were never really fully exploited. To bridge this gap, we parse a document into content blocks (eg. text, table, image) and propose a novel layout-aware multimodal hierarchical framework, LAMPreT, to model the blocks and the whole document. Our LAMPreT encodes each block with a multimodal transformer in the lower-level and aggregates the block-level representations and connections utilizing a specifically designed transformer at the higher-level. We design hierarchical pretraining objectives where the lower-level model is trained similarly to multimodal grounding models, and the higher-level model is trained with our proposed novel layout-aware objectives. We evaluate the proposed model on two layout-aware tasks -- text block filling and image suggestion and show the effectiveness of our proposed hierarchical architecture as well as pretraining techniques.


翻译:文件布局既包括结构信息(如字体大小),也包括结构信息和视觉信息(如字体大小),这种信息至关重要,但往往被机器学习模式所忽视。使用布局信息的少数现有模式只考虑文本内容,忽视了其他模式中的内容,例如图像。此外,布局中显示的内容的空间互动从未真正得到充分利用。为了缩小这一差距,我们将一份文件分析成内容块(如文本、表格、图像),并提议一个具有新颖版版布局的多式联运等级框架(LAMPreT)来模拟区块和整个文件。我们的LAMPreT在较低层次用多式联运变压器对每个区块进行编码,并在较高层次使用专门设计的变压器汇总区块表示和连接。我们设计了等级前训练目标,低级模型在其中受到类似于多式联运地基模型的培训,而高级模型则以我们拟议的新版布局认识目标(LAMPreT)来进行示范。我们评价了拟议的两个布局-文字填充格和图像建议,并显示我们拟议的等级结构的有效性以及培训前技术。

1
下载
关闭预览

相关内容

专知会员服务
36+阅读 · 2021年5月15日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
“CVPR 2020 接受论文列表 1470篇论文都在这了
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
招募 | 哈工大讯飞联合实验室实习生招募中!
AI科技评论
6+阅读 · 2018年3月25日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Arxiv
1+阅读 · 2021年5月29日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
5+阅读 · 2019年8月22日
VIP会员
相关VIP内容
专知会员服务
36+阅读 · 2021年5月15日
FlowQA: Grasping Flow in History for Conversational Machine Comprehension
专知会员服务
28+阅读 · 2019年10月18日
相关资讯
“CVPR 2020 接受论文列表 1470篇论文都在这了
Hierarchically Structured Meta-learning
CreateAMind
25+阅读 · 2019年5月22日
计算机 | CCF推荐期刊专刊信息5条
Call4Papers
3+阅读 · 2019年4月10日
Unsupervised Learning via Meta-Learning
CreateAMind
41+阅读 · 2019年1月3日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
disentangled-representation-papers
CreateAMind
26+阅读 · 2018年9月12日
Hierarchical Disentangled Representations
CreateAMind
4+阅读 · 2018年4月15日
招募 | 哈工大讯飞联合实验室实习生招募中!
AI科技评论
6+阅读 · 2018年3月25日
gan生成图像at 1024² 的 代码 论文
CreateAMind
4+阅读 · 2017年10月31日
Top
微信扫码咨询专知VIP会员