基于 BERT 的问答系统

2020 年 1 月 3 日 TensorFlow
本文介绍了 TensorFlow Lite 中的问答模型,这是一个 基于所 给段落的内容回答问题的预训练模型。



使用入门

如果您刚接触 TensorFlow Lite,并应用在 Android,我们建议您探索以下可帮助您入门的示例应用。


Android 示例

如果您使用 Android 以外的平台,或者已经熟悉 TensorFlow Lite API,则可以下载我们的入门问答模型

  • TensorFlow Lite API
    https://tensorflow.google.cn/api_docs/python/tf/lite

  • 入门问答模型
    https://github.com/tensorflow/examples/tree/master/lite/examples/bert_qa/android


下载入门模型以及术语表
  • https://storage.googleapis.com/download.tensorflow.org/models/tflite/bert_qa/mobilebert_qa_vocab.zip



工作方式

预训练模型BERT用SQuAD 1.1 数据集上微调 (fine-tune) 训练所得的模型,可以创建一个基于自然语言处理的问答系统。


BERT 或 Bidirectional Encoder Representations from Transformers 是一种预训练语言表征方法,可在多项自然语言处理任务上获得非常出色的结果。

  • BERT
    https://github.com/google-research/bert


此应用使用压缩版 BERT(即 MobileBERT),不仅运行速度提高 4 倍,而且模型大小减小为原来的 1/4。


SQuAD 或 Stanford Question Answering Dataset 是一个阅读理解数据集,包含来自维基百科的文章和一套针对每篇文章的问答对。

  • SQuAD
    https://rajpurkar.github.io/SQuAD-explorer/


此模型将一段文章和一个问题作为输入,然后返回文章中最有可能回答问题的句段。模型需要半复合预处理,包括词条化和 BERT 论文 中介绍并在示例应用中实现的后处理步骤。

  • 论文
    https://arxiv.org/abs/1810.04805



性能基准

性能基准数据由此处介绍的工具生成。

  • 此处介绍
    https://tensorflow.google.cn/lite/performance/benchmarks

  • Mobile Bert
    https://storage.googleapis.com/download.tensorflow.org/models/tflite/bert_qa/mobilebert_qa_vocab.zip

* 使用 4 线程。

** iPhone 上使用 2 线程以获得最佳性能结果。



示例输出

Passage (Input)

Google LLC is an American multinational technology company that specializes in Internet-related services and products, which include online advertising technologies, search engine, cloud computing, software, and hardware. It is considered one of the Big Four technology companies, alongside Amazon, Apple, and Facebook.


Google was founded in September 1998 by Larry Page and Sergey Brin while they were Ph.D. students at Stanford University in California. Together they own about 14 percent of its shares and control 56 percent of the stockholder voting power through supervoting stock. They incorporated Google as a California privately held company on September 4, 1998, in California. Google was then reincorporated in Delaware on October 22, 2002. An initial public offering (IPO) took place on August 19, 2004, and Google moved to its headquarters in Mountain View, California, nicknamed the Googleplex. In August 2015, Google announced plans to reorganize its various interests as a conglomerate called Alphabet Inc. Google is Alphabet's leading subsidiary and will continue to be the umbrella company for Alphabet's Internet interests. Sundar Pichai was appointed CEO of Google, replacing Larry Page who became the CEO of Alphabet.


Question (Input)

Who is the CEO of Google?


Answer (Output)

Sundar Pichai



阅读更多关于 BERT 的内容
  • Bert:用于语言理解的深度双向转换器预训练 (论文)
    https://arxiv.org/abs/1810.04805

  • Bert 的开源实现
    https://github.com/google-research/bert




登录查看更多
3

相关内容

自动问答(Question Answering, QA)是指利用计算机自动回答用户所提出的问题以满足用户知识需求的任务。不同于现有搜索引擎,问答系统是信息服务的一种高级形式,系统返回用户的不再是基于关键词匹配排序的文档列表,而是精准的自然语言答案。近年来,随着人工智能的飞速发展,自动问答已经成为倍受关注且发展前景广泛的研究方向。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
BERT进展2019四篇必读论文
专知会员服务
67+阅读 · 2020年1月2日
【Google论文】ALBERT:自我监督学习语言表达的精简BERT
专知会员服务
23+阅读 · 2019年11月4日
生成式对抗网络GAN异常检测
专知会员服务
115+阅读 · 2019年10月13日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
ELECTRA:超越BERT,19年最佳NLP预训练模型
新智元
6+阅读 · 2019年11月6日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
用TensorFlow开发问答系统
机器学习研究会
7+阅读 · 2017年11月27日
论文动态 | 基于知识图谱的问答系统关键技术研究 #02
开放知识图谱
10+阅读 · 2017年8月6日
Arxiv
5+阅读 · 2019年10月31日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
11+阅读 · 2019年6月19日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
8+阅读 · 2019年3月21日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
Arxiv
4+阅读 · 2018年5月14日
VIP会员
相关资讯
ELECTRA:超越BERT,19年最佳NLP预训练模型
新智元
6+阅读 · 2019年11月6日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
使用 Bert 预训练模型文本分类(内附源码)
数据库开发
102+阅读 · 2019年3月12日
NLP - 基于 BERT 的中文命名实体识别(NER)
AINLP
466+阅读 · 2019年2月10日
用TensorFlow开发问答系统
机器学习研究会
7+阅读 · 2017年11月27日
论文动态 | 基于知识图谱的问答系统关键技术研究 #02
开放知识图谱
10+阅读 · 2017年8月6日
相关论文
Arxiv
5+阅读 · 2019年10月31日
Arxiv
4+阅读 · 2019年9月5日
Arxiv
11+阅读 · 2019年6月19日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
8+阅读 · 2019年3月21日
Knowledge Based Machine Reading Comprehension
Arxiv
4+阅读 · 2018年9月12日
Arxiv
4+阅读 · 2018年5月14日
Top
微信扫码咨询专知VIP会员