您的位置: 怀柔信息港 > 时尚

中文NLP开源工具箱来了支持6大任务略

发布时间:2020-10-18 01:44:30
中文NLP开源工具箱来了!支持6大任务,面向工业运用 | 资源

铜灵 发自 凹非寺

对开发者来讲,又有一个新的NLP工具箱可以使用了,代号PaddleNLP,目前已开源。

在这个基于百度深度学习平台飞桨(PaddlePaddle)开发的工具箱里,装有大量工业级中文NLP开源工具与预训练模型。

这个工具箱里的工具全面,共支持的6大NLP任务,包括文本分类、文本匹配、序列标注、文本生成、语义表示与语言模型和其他复杂任务等。

除全面,PaddleNLP的效果也还不错。比如基于百度海量搜索数据,PaddleNLP训练了的语义匹配模型在真实FAQ问答场景中,比基于字面的类似度方法AUC提升5%以上。

不管你在聊天机器人、智能客服、新闻推荐、信息检索、浏览理解还是机器翻译等场景,PaddleNLP都能一次性满足你的需求。

飞桨表示,手握PaddleNLP,就能将NLP领域的多种模型用一套同享骨架代码实现,减少开发者在开发进程中的重复工作。能方便开发者灵活插拔尝试多种网络结构,并且让应用快速到达工业级效果。

具体来看用法。

1、文本分类

文本情感分析

情感是人类的一种高级智能行动,为了辨认文本的情感偏向,需要深入的语义建模。另外,不同领域(如餐饮、体育)在情感的表达各不相同,因此需要有大规模覆盖各个领域的数据进行模型训练。为此,可以通过基于深度学习的语义模型和大规模数据发掘解决上述两个问题。

百度研发的中文特点情感偏向分析模型(Sentiment Classification,简称Senta)针对带有主观描写的中文文本,可自动判断该文本的情感极性种别并给出相应的置信度。

情感类型分为积极、消极。情感偏向分析能够帮助企业理解用户消费习惯、分析热点话题和危机舆情监控,为企业提供有益的决策支持。

基于开源情感偏向分类数据集ChnSentiCorp评测结果以下表所示,另外,PaddleNLP还开源了百度基于海量数据训练好的模型,该模型在ChnSentiCorp数据集上fine-tune以后(基于开源模型进行Finetune的方法详见Github),可以得到更好的效果。

BOW(Bag Of Words)模型,是一个非序列模型,使用基本的全连接结构。 CNN(Convolutional Neural Networks),是一个基础的序列模型,能处理变长序列输入,提取局部区域以内的特点。 GRU(Gated Recurrent Unit),序列模型,能够较好地解决序列文本中长距离依赖的问题。 LSTM(Long Short Term Memory),序列模型,能够较好地解决序列文本中长距离依赖的问题。 BI-LSTM(Bidirectional Long Short Term Memory),序列模型,采取双向LSTM结构,更好地捕获句子中的语义特点。 ERNIE(Enhanced Representation through kNowledge IntEgration),百度自研基于海量数据和先验知识训练的通用文本语义表示模型,并基于此在情感偏向分类数据集上进行fine-tune取得。 ERNIE+BI-LSTM,基于ERNIE语义表示对接上层BI-LSTM模型,并基于此在情感偏向分类数据集上进行Fine-tune取得。

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/sentiment_classification

对话情绪辨认

对话情绪识别适用于聊天、客服等多个场景,能够帮助企业更好地掌控对话质量、改进产品的用户交互体验,也能分析客服服务质量、着落人工质检本钱。

对话情绪辨认(Emotion Detection,简称EmoTect),专注于辨认智能对话场景中用户的情绪,针对智能对话场景中的用户文本,自动判断该文本的情绪种别并给出相应的置信度,情绪类型分为积极、消极、中性。

基于百度自建测试集(包括闲谈、客服)和nlpcc2014微博情绪数据集评测效果以下表所示,另外,PaddleNLP还开源了百度基于海量数据训练好的模型,该模型在聊天对话语料上fine-tune以后,可以得到更好的效果。

BOW:Bag Of Words,是一个非序列模型,使用基本的全连接结构。 CNN:浅层CNN模型,能够处理变长的序列输入,提取一个局部区域之内的特点。 TextCNN:多卷积核CNN模型,能够更好地捕捉句子局部相关性。 LSTM:单层LSTM模型,能够较好地解决序列文本中长距离依赖的问题。 BI-LSTM:双向单层LSTM模型,采取双向LSTM结构,更好地捕获句子中的语义特点。 ERNIE:百度自研基于海量数据和先验知识训练的通用文本语义表示模型,并基于此在对话情绪分类数据集上进行fine-tune取得。

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/emotion_detection

2、文本匹配

短文本语义匹配

百度自主研发的短文本语义匹配语义匹配框架(SimilarityNet, SimNet)是一个计算短文本类似度的框架,可以根据用户输入的两个文本,计算出类似度得分。

SimNet 在语义表示上沿袭了隐式连续向量表示的方式,但对语义匹配问题在深度学习框架下进行了 End-to-End 的建模,将point-wise与 pair-wise两种有监督学习方式全部统一在一个整体框架内。

在实际运用场景下,将海量的用户点击行动数据转化为大规模的弱标记数据,在网页搜索任务上的初次使用即展现出极大威力,带来了相关性的提升。

SimNet框架在百度各产品上广泛应用,主要包括BOW、CNN、RNN、MMDNN等核心网络结构情势,提供语义类似度计算训练和预测框架,适用于信息检索、新闻推荐、智能客服等多个运用场景,帮助企业解决语义匹配问题。

基于百度海量搜索数据,PaddleNLP训练了一个SimNet-BOW-Pairwise语义匹配模型,在一些真实的FAQ问答场景中,该模型效果比基于字面的类似度方法AUC提升5%以上。

基于百度自建测试集(包括聊天、客服等数据集)和语义匹配数据集(LCQMC)进行评测,效果如下表所示。

LCQMC数据集以Accuracy为评测指标,而pairwise模型的输出为类似度,因此采取0.958作为分类阈值,相比于基线模型中网络结构同等复杂的CBOW模型(准确率为0.737),BOW_Pairwise的准确率提升为0.7532。

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/similarity_net

3、序列标注

词法分析

百度自主研发中文特点模型词法分析任务(Lexical Analysis of Chinese),输入是一个字符串,而输出是句子中的词边界和词性、实体种别。

序列标注是词法分析的经典建模方式。LAC使用基于 GRU 的网络结构学习特征,将学习到的特征接入 CRF 解码层完成序列标注。

CRF解码层本质上是将传统 CRF 中的线性模型换成了非线性神经网络,基于句子级别的似然概率,因此能够更好的解决标记偏置问题。LAC能整体性地完成中文分词、词性标注、专名辨认任务。

基于自建的数据集上对分词、词性标注、专名辨认进行整体的评估效果,效果以下表所示。另外,在飞桨开放的语义表示模型 ERNIE 上 finetune,并比较基线模型、BERT finetuned 和 ERNIE finetuned 的效果,可以看出会有显著的提升。

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/lexical_analysis

4、文本生成

机器翻译

机器翻译(machine translation, MT)是利用计算机将一种自然语言(源语言)转换为另一种自然语言(目标语言)的进程,输入为源语言句子,输出为相应的目标语言的句子。

Transformer 是论文 「Attention Is All You Need 」中提出的用以完成机器翻译(machine translation, MT)等序列到序列(sequence to sequence, Seq2Seq)学习任务的一种全新网络结构。

其一样使用了 Seq2Seq 任务中典型的编码器-解码器(Encoder-Decoder)的框架结构,但相较于此前广泛使用的循环神经网络(Recurrent Neural Network, RNN),其完全使用注意力(Attention)机制来实现序列到序列的建模。

基于公然的 WMT’16 EN-DE 数据集训练 Base、Big 两种配置的Transformer 模型后,在相应的测试集上进行评测,效果以下表所示。

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/neural_machine_translation/transformer

5、语义表示与语言模型

语言表示工具箱

BERT 是一个迁移能力很强的通用语义表示模型, 以 Transformer 为网络基本组件,以双向 Masked Language Model和 Next Sentence Prediction 为训练目标,通过预训练得到通用语义表示,再结合简单的输出层,应用到下游的 NLP 任务,在多个任务上取得了 SOTA 的结果。

ELMo(Embeddings from Language Models) 是重要的通用语义表示模型之一,以双向 LSTM 为网路基本组件,以 Language Model 为训练目标,通过预训练得到通用的语义表示,将通用的语义表示作为 Feature 迁移到下游 NLP 任务中,会显著提升下游任务的模型性能。

PaddleNLP发布了基于百科类数据训练的预训练模型。

百度自研的语义表示模型ERNIE 通过建模海量数据中的词、实体及实体关系,学习真实世界的语义知识。相较于 BERT 学习原始语言信号,ERNIE直接对先验语义知识单元进行建模,增强了模型语义表示能力。

这里举个例子:

Learnt by BERT :哈 [mask] 滨是 [mask] 龙江的省会,[mask] 际冰 [mask] 文化名城。

Learnt by ERNIE:[mask] [mask] [mask] 是黑龙江的省会,国际 [mask] [mask] 文化名城。

在 BERT 模型中,我们通过『哈』与『滨』的局部共现,便可判断出『尔』字,模型没有学习与『哈尔滨』相干的任何知识。而 ERNIE 通过学习词与实体的表达,使模型能够建模出『哈尔滨』与『黑龙江』的关系,学到『哈尔滨』是 『黑龙江』的省会和『哈尔滨』是个冰雪城市。

训练数据方面,除百科类、资讯类中文语料外,ERNIE 还引入了论坛对话类数据,利用 DLM(Dialogue Language Model)建模 Query-Response 对话结构,将对话 Pair 对作为输入,引入 Dialogue Embedding 标识对话的角色,利用 Dialogue Response Loss 学习对话的隐式关系,进一步提升模型的语义表示能力。

ERNIE在自然语言推断,语义类似度,命名实体辨认,情感分析,问答匹配多项NLP中文任务上效果。

https://github.com/PaddlePaddle/LARK/tree/develop/ERNIE

https://github.com/PaddlePaddle/LARK/tree/develop/BERT

https://github.com/Paddl杨七明依然很平静ePaddle/LARK/tree/develop/ELMo

语言模型

基于LSTM的语言模型任务是给定一个输入词序列(中文分词、英文tokenize),计算其PPL(语言模型困惑度,用户表示句子的流利程度),基于循环神经网络语言模型的介绍可以参阅论文「Recurrent Neural Network Regularization」。

相对传统的方法,基于循环神经网络的方法能够更好的解决稀疏词的问题。此任务采取了序列任务经常使用的RNN网络,实现了一个两层的LSTM网络,然后LSTM的结果去预测下一个词出现的几率。

在small、meidum、large三个不同配置情况的ppl比较以下表所示。

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/language_model

6、复杂任务

对话模型工具箱

Auto Dialogue Evaluation

对话自动评估模块主要用于评估开放领域对话系统的回复质量,能够帮助企业或个人快速评估对话系统的回复质量,减少人工评估本钱。

1)在无标注数据的情况下,利用负采样训练匹配模型作为评估工具,实现对多个对话系统回复质量排序;

2)利用少许标注数据(特定对话系统或场景的人工打分),在匹配模型基础上进行微调,可以显著提高该对话系统或场景的评估效果。

以四个不同的对话系统(seq2seq_naive/seq2seq_att/keywords/human)为例,使用对话自动评估工具进行自动评估。

1)无标注数据情况下,直接使用预训练好的评估工具进行评估; 在四个对话系统上,自动评估打分和人工评估打分spearman相关系数,以下表所示。

2)对四个系统平均得分排序:

3)利用少量标注数据微调后,自动评估打分和人工打分spearman相关系数,以下表所示。

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/dialogue_model_toolkit/auto_dialogue_evaluation

Deep Attention Matching Network

深度注意力机制模型是开放领域多轮对话匹配模型。根据多轮对话历史和候选回复内容,排序出适合的回复。

多轮对话匹配任务输入是多轮对话历史和候选回复,输出是回复匹配得分,根据匹配得分排序,更多内容请参阅论文Multi-Turn Response Selection for Chatbots with Deep Attention Matching Network。

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/dialogue_model_toolkit/deep_attention_matching

对话通用理解模型DGU

对话相干的任务中,Dialogue System常常需要根据场景的变化去解决多种多样的任务。任务的多样性(意图辨认、槽位解析、DA识别、DST等等),和领域训练数据的希少,给Dialogue System的研究和运用带来了巨大的困难和挑战,要使得dialogue system得到更好的发展,需要开发一个通用的对话理解模型。基于BERT的对话通用理解模块(DGU:Dialogue General Understanding),通过实验表明,使用base-model(BERT)并结合常见的学习范式,在几近全部对话理解任务上取得比肩乃至超越各个领域业内的模型的效果,展现了学习一个通用对话理解模型的巨大潜力。

DGU针对数据集开发了相干的模型训练进程,支持分类,多标签分类,序列标注等任务,用户可针对自己的数据集,进行相干的模型定制

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/dialogue_model_toolkit/dialogue_general_understanding

人机对话是人工智能(AI)中重要的话题之一,近年来遭到学术界和工业界的广泛关注。目前,对话系统仍然处于起步阶段,通常是被动地进行交谈,并且更多地将他们的言论作为回应而不是他们自己的倡议,这与人与人的谈话不同。

因此, 百度在一个名为知识驱动对话的新对话任务上设置了这个比赛,其中机器基于构建的知识图与人交谈。它旨在测试机器进行类似人类对话的能力。

这是提供基于检索和基于生成的基线系统。 这两个系统都是由PaddlePaddle(百度深度学习框架)和Pytorch(Facebook深度学习框架)实现的。 两个系统的性能以下表所示。

https://github.com/baidu/knowledge-driven-dialogue/tree/master

在机器浏览理解(MRC)任务中,会给定一个问题(Q)和一个或多个段落(P)/文档(D),然后利用机器在给定的段落中寻觅正确答案(A),即Q + P or D => A. 机器浏览理解(MRC)是自然语言处理(NLP)中的关键任务之一,需要机器对语言有深入的理解才能找到正确的答案。

基于PaddlePaddle的浏览理解升级了经典的阅读理解BiDAF模型,去掉了char级别的embedding,在预测层中使用了pointer network,并且参考了R-NET中的一些网络结构,效果上有了提升(在DuReader2.0验证集、测试集的表现见下表)。

DuReader是一个大规模、面向真实运用、由人类生成的中文阅读理解数据集。DuReader聚焦于真实世界中的不限定领域的问答任务。相较于其他阅读理解数据集,DuReader的优势包括:

问题来自于真实的搜索日志

面向真实应用场景

https://github.com/PaddlePaddle/models/tree/develop/PaddleNLP/reading_comprehension

ps:给大家推荐一个GPU福利-Tesla V100免费算力!配合PaddleHub能让模型原地起飞~扫码下方二维码申请~

作者系网易新闻·网易号“各有态度”签约作者

猜你会喜欢的
猜你会喜欢的