谷歌开源NLP模型可视化工具LIT,模型训练不再「黑箱」

2020 年 8 月 28 日 计算机视觉战队

计算机视觉研究院专栏

作者:Edison_G

深度学习模型的训练就像是「黑箱操作」,知道输入是什么、输出是什么,但中间过程就像个黑匣子,这使得研究人员可能花费大量时间找出模型运行不正常的原因。假如有一款可视化的工具,能够帮助研究人员更好地理解模型行为,这应该是件非常棒的事。

近日,Google 研究人员发布了一款语言可解释性工具 (Language Interpretability Tool, LIT),这是一个开源平台,用于可视化和理解自然语言处理模型。

  • 论文地址:https://arxiv.org/pdf/2008.05122.pdf

  • 项目地址:https://github.com/PAIR-code/lit

LIT 重点关注模型行为的核心问题,包括:为什么模型做出这样的预测?什么时候性能不佳?在输入变化可控的情况下会发生什么?LIT 将局部解释、聚合分析和反事实生成集成到一个流线型的、基于浏览器的界面中,以实现快速探索和错误分析。

该研究支持多种 自然语言处理 任务,包括探索情感分析的反事实、度量共指系统中的性别偏见,以及探索 文本生成 中的局部行为。
此外 LIT 还支持多种模型,包括分类、seq2seq 和结构化预测模型。并且它具备高度可扩展性,可通过声明式、框架无关的 API 进行扩展。
相关 demo,参见视频:

可以针对新颖的工作流程进行重新配置,并且这些组件是独立的,可移植的,且易于实现。
用户界面
LIT 位于一个单页 web 应用中,由多个工具栏和包含多个独立模块的主体部分组成。如果模块适用于当前模型和数据集,它们将自动显示。例如,显示分类结果的模块仅在模型返回 MulticlassPreds 时显示。

LIT 用户界面

LIT 的布局设计图。
功能

LIT 通过基于浏览器的用户界面(UI)支持各种调试工作流。功能包括:

  • 局部解释:通过模型预测的显著图、注意力和丰富可视化图来执行。

  • 聚合分析:包括自定义度量指标、切片和装箱(slicing and binning),以及嵌入空间的可视化。

  • 反事实生成:通过手动编辑或生成插件进行反事实推理,动态地创建和评估新示例。

  • 并排模式:比较两个或多个模型,或基于一对示例的一个模型。

  • 高度可扩展性:可扩展到新的模型类型,包括分类、回归、span 标注,seq2seq 和语言建模。 

  • 框架无关:与 TensorFlow、PyTorch 等兼容。

下面我们来看 LIT 的几个主要模块:

探索数据集:用户可以使用不同的标准跨模块(如数据表和嵌入模块)交互式地探索数据集,从而旋转、缩放和平移 PCA 或 UMAP 投影,以探索集群和全局结构。

比较模型:通过在全局设置控件中加载多个模型,LIT 可以对它们进行比较。然后复制显示每个模型信息的子模块,以便于在两个模型之间进行比较。其他模块(如嵌入模块和度量模块)同时得到更新,以显示所有模型的最新信息。

比较数据点:切换到选择工具栏中的「Compare datapoints」按钮,使 LIT 进入数据点比较模式。在这种模式下,主数据点选择作为参考数据点,并且在后续设置中都会以其为参考点进行比较。参考数据点在数据表中以蓝色边框突出显示。

其他模块的具体细节,参见:https://github.com/PAIR-code/lit/blob/main/docs/user_guide.md
看了上面的介绍,你是不是迫不及待地想要上手试试这个炫酷的可视化工具?下面我们来看它的安装过程和示例。
安装教程
下载软件包并进行 Python 环境配置,代码如下:
git clone https://github.com/PAIR-code/lit.git ~/lit# Set up Python environmentcd ~/litconda env create -f environment.ymlconda activate lit-nlpconda install cudnn cupti  # optional, for GPU supportconda install -c pytorch pytorch  # optional, for PyTorch# Build the frontendcd ~/lit/lit_nlp/clientyarn && yarn build
安装并配置好环境,就可以体验工具包中自带的示例。
示例
1. 情绪分类示例
代码如下:
cd ~/litpython -m lit_nlp.examples.quickstart_sst_demo --port=5432
情绪分类示例是基于斯坦福情感树库微调 BERT-tiny 模型,在 GPU 上不到 5 分钟即可完成。训练完成后,它将在开发集上启动 LIT 服务器。
2. 语言建模类示例
要想探索预训练模型(BERT 或 GPT-2)的预测结果,运行以下代码:
cd ~/litpython -m lit_nlp.examples.pretrained_lm_demo --models=bert-base-uncased \  --port=5432
更多的示例请参考目录:../lit_nlp/examples。
此外,该项目还提供了添加自己模型和数据的方法。通过创建定制的 demo.py 启动器,用户可以轻松地用自己的模型运行 LIT,类似于上述示例目录../lit_nlp/examples。
完整的添加过程,参见: https://github.com/PAIR-code/lit/blob/main/docs/python_api.md#adding-models-and-data
参考链接:
  1. http://www.iibrand.com/news/202008/1719096.html

  2. https://github.com/PAIR-code/lit/blob/main/docs/user_guide.md

  3. https://github.com/PAIR-code/lit/blob/main/docs/python_api.md#adding-models-and-data

  4. https://medium.com/syncedreview/google-introduces-nlp-model-understanding-tool-ab840b456be3
我们开创“ 计算机视觉协会 ”知识星球一年有余,也得到很多同学的认可,我们定时会推送实践型内容与大家分享,在星球里的同学可以随时提问,随时提需求,我们都会及时给予回复及给出对应的答复。

如果想加入我们“ 计算机视觉研究院 ”,请扫二维码加入我们。我们会按照你的需求将你拉入对应的学习群!
计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重” 研究 “。之后我们会针对相应领域分享实践过程,让大家真正体会 摆脱理论 的真实场景,培养爱动手编程爱动脑思考的习惯!
计算机视觉研究院


长按扫描维码关注我们

EDC.CV
登录查看更多
1

相关内容

【2020新书】预训练Transformer模型的文本排序
专知会员服务
61+阅读 · 2020年10月18日
【牛津大学博士论文】解释深度神经网络,134页pdf
专知会员服务
215+阅读 · 2020年10月8日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
一文读懂最强中文NLP预训练模型ERNIE
AINLP
25+阅读 · 2019年10月22日
基于知识图谱的文本挖掘 - 超越文本挖掘
专知
38+阅读 · 2019年8月18日
【GitHub】BERT模型从训练到部署全流程
专知
34+阅读 · 2019年6月28日
将Python用于NLP:Pattern 库简介
Python程序员
15+阅读 · 2019年6月7日
各种NLP操作难实现?谷歌开源序列建模框架Lingvo
机器之心
4+阅读 · 2019年2月26日
最有趣的机器学习可视化图集
AI前线
5+阅读 · 2018年10月8日
Calibration of Pre-trained Transformers
Arxiv
0+阅读 · 2020年10月15日
Arxiv
0+阅读 · 2020年10月9日
Talking-Heads Attention
Arxiv
15+阅读 · 2020年3月5日
VIP会员
相关资讯
一文读懂最强中文NLP预训练模型ERNIE
AINLP
25+阅读 · 2019年10月22日
基于知识图谱的文本挖掘 - 超越文本挖掘
专知
38+阅读 · 2019年8月18日
【GitHub】BERT模型从训练到部署全流程
专知
34+阅读 · 2019年6月28日
将Python用于NLP:Pattern 库简介
Python程序员
15+阅读 · 2019年6月7日
各种NLP操作难实现?谷歌开源序列建模框架Lingvo
机器之心
4+阅读 · 2019年2月26日
最有趣的机器学习可视化图集
AI前线
5+阅读 · 2018年10月8日
Top
微信扫码咨询专知VIP会员