In the last few years, three major topics received increased interest: deep learning, NLP and conversational agents. Bringing these three topics together to create an amazing digital customer experience and indeed deploy in production and solve real-world problems is something innovative and disruptive. We introduce a new Portuguese financial domain language representation model called BERTa\'u. BERTa\'u is an uncased BERT-base trained from scratch with data from the Ita\'u virtual assistant chatbot solution. Our novel contribution is that BERTa\'u pretrained language model requires less data, reached state-of-the-art performance in three NLP tasks, and generates a smaller and lighter model that makes the deployment feasible. We developed three tasks to validate our model: information retrieval with Frequently Asked Questions (FAQ) from Ita\'u bank, sentiment analysis from our virtual assistant data, and a NER solution. All proposed tasks are real-world solutions in production on our environment and the usage of a specialist model proved to be effective when compared to Google BERT multilingual and the DPRQuestionEncoder from Facebook, available at Hugging Face. The BERTa\'u improves the performance in 22% of FAQ Retrieval MRR metric, 2.1% in Sentiment Analysis F1 score, 4.4% in NER F1 score and can also represent the same sequence in up to 66% fewer tokens when compared to "shelf models".


翻译:在过去几年里,三个主要议题受到越来越多的关注:深层次的学习、NLP和谈话代理人。将这三个主题结合起来,以创造惊人的数字客户经验,并实际在生产和解决现实世界问题中部署,是创新和破坏性的。我们引入了一个新的葡萄牙金融域语言代表模式,名为BERTa\'u。BERTa\'u是一个非案例的BERT数据库,从头开始,用Ita\'u 虚拟助理聊天室解决方案的数据进行感应分析。我们的新贡献是,BERTa\'u预先培训的语言模型需要较少的数据,在三项NLP任务中达到最新艺术表现,并产生一个更小、更轻的模型。我们开发了三个任务来验证我们的模型:用Ita\'u银行的常见问题检索信息,从我们的虚拟助理数据中进行情绪分析,以及NER解决方案。所有拟议的任务都是我们环境中生产的真实世界模式,使用专家模型证明,与Google BERT多语种和DPR Vender Encoder相比是有效的,在22的FPR1 RUDSBrieal AS deal Procial AS,也代表了22的F Rup的F Rupriebriew Ex的Briew Ex Excial Excial 1 Excial Sapplement,在Facebook上改进了22的Brippres Brial 1,在F Rus dr drup 1 drupal 1,在22 Basal Stal 1,在Facebook上,在22 Bropplyment 1 drupal 1 drupment 1 drupal Strippal 1,在22的BAbbal Stribal 1,在22 Bal Stribal Stribal Stal 1,在Facebook上,在22 dia 1 Stal Stal Stal Stal Stal Stabal Stal Stal Stal 1到22的BAbal Stal Stal Stabal dia上可以使用。

0
下载
关闭预览

相关内容

ACM/IEEE第23届模型驱动工程语言和系统国际会议,是模型驱动软件和系统工程的首要会议系列,由ACM-SIGSOFT和IEEE-TCSE支持组织。自1998年以来,模型涵盖了建模的各个方面,从语言和方法到工具和应用程序。模特的参加者来自不同的背景,包括研究人员、学者、工程师和工业专业人士。MODELS 2019是一个论坛,参与者可以围绕建模和模型驱动的软件和系统交流前沿研究成果和创新实践经验。今年的版本将为建模社区提供进一步推进建模基础的机会,并在网络物理系统、嵌入式系统、社会技术系统、云计算、大数据、机器学习、安全、开源等新兴领域提出建模的创新应用以及可持续性。 官网链接:http://www.modelsconference.org/
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
专知会员服务
123+阅读 · 2020年9月8日
BERT进展2019四篇必读论文
专知会员服务
66+阅读 · 2020年1月2日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
已删除
将门创投
8+阅读 · 2019年6月13日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Github项目推荐 | awesome-bert:BERT相关资源大列表
AI研习社
27+阅读 · 2019年2月26日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Arxiv
4+阅读 · 2019年2月18日
VIP会员
相关VIP内容
【NeurIPS 2020】融入BERT到并行序列模型
专知会员服务
25+阅读 · 2020年10月15日
专知会员服务
123+阅读 · 2020年9月8日
BERT进展2019四篇必读论文
专知会员服务
66+阅读 · 2020年1月2日
ExBert — 可视化分析Transformer学到的表示
专知会员服务
31+阅读 · 2019年10月16日
机器学习入门的经验与建议
专知会员服务
92+阅读 · 2019年10月10日
最新BERT相关论文清单,BERT-related Papers
专知会员服务
52+阅读 · 2019年9月29日
相关资讯
RoBERTa中文预训练模型:RoBERTa for Chinese
PaperWeekly
57+阅读 · 2019年9月16日
已删除
将门创投
8+阅读 · 2019年6月13日
BERT/Transformer/迁移学习NLP资源大列表
专知
19+阅读 · 2019年6月9日
Github项目推荐 | awesome-bert:BERT相关资源大列表
AI研习社
27+阅读 · 2019年2月26日
A Technical Overview of AI & ML in 2018 & Trends for 2019
待字闺中
16+阅读 · 2018年12月24日
Top
微信扫码咨询专知VIP会员