【机器学习】朴素贝叶斯

2019 年 12 月 11 日 深度学习自然语言处理

点击上方,选择星标置顶,每天给你送干货

阅读大概需要10分钟

跟随小博主,每天进步一丢丢


转载自:AI小白入门


本文介绍了朴素贝叶斯模型,朴素贝叶斯(几乎所有的概率模型)的核心假设:特征之间的条件概率相互独立。以垃圾邮件分类问题为例,分析了朴素贝叶斯模型的两种应用场景:1)先验分布和条件概率分布都为一元伯努利分布,2)先验分布为一元伯努利分布,条件概率分布为多元伯努利分布。分别对应词袋子表示中两种常用的方法: one-hot表示,编号表示(词频表示)。



作者 | 文杰

编辑 | yuquanle




朴素贝叶斯


A、朴素贝叶斯

朴素贝叶斯模型也是一个典型的生成模型,一般用来处理离散值数据(伯努利分布导致)。其核心假设是特征之间的条件概率是相互独立的。同样由贝叶斯公式有:


下面以垃圾邮件分类介绍两类问题的朴素贝叶斯模型:

垃圾邮件分类任务是一个基本文本分类任务,涉及到NLP的初步知识-文本的One-hot表示。由于机器学习模型通常是一个数学模型,而非数值型属性是不能直接处理,所以一般对邮件的特征进行编码。首先将所有的邮件中出现的词统计出来作为一个词典,并对每一个词进行编码向量化(即词序)。一封邮件对应的One-hot表示如下:


其中 表示第 封邮件, 表示词典中的第 个词,如果第 个词在第 封邮件中出现则 ,反之为 。可以看出这种表示忽略了文本的大量信息,上下文信息,词出现的次数等。

由上面的公式有,一封邮件是垃圾邮件的概率可以表示为下式:


其中似然函数 为在垃圾邮件下产生 的条件概率, 为垃圾邮件的先验概率, 对于所有样本都是一致,近似忽略。

由朴素贝叶斯的条件概率独立性假设有条件概率如下:



其中 表示第 个特征。所以,对于一封邮件属于哪一类的概率为都有:


邮件之间独立,所以目标函数最大化所有邮件属于各自类的概率为:


从上式可以看出朴素贝叶斯的参数是 ,即所有邮件类别的先验,以及在某一类下出现某个词的概率。由极大似然估计参数值即为其期望。


其中 表示类别,对应垃圾邮件分类取值为 表示第 个特征, 表示特征的取值。由于垃圾邮件中采用one-hot编码,所以 的取值为 表示出现。当以上参数确定之后,对于一封新的邮件,根据估计的参数和贝叶斯公式求得样本属于哪一类的概率。最后一封邮件属于哪一类的概率参数表示如下:


one-hot编码比较特殊:



于所有类的概率加和为 ,垃圾邮件为二分类,所以邮件属于概率大于 的那一类。

为了使模型更具普适性,考虑到当某一特征没有在训练集中出现过,即某一个单词在某一类下没有出现过,或者某一单词在某一类下都出现过(意味着不出现的条件概率为0)。但不能说该单词在这一类下的条件概率为0。又或者在所有类中都未出现(即原始训练集中没有的词,而词典中有的词,即词典不依赖于训练集)。当来一个新样本时,如果不做处理,那么只要有一个分量的概率为0,由于特征之间的条件概率独立,连乘形式只要有一个为0,即整个概率为0,无意义。

拉普拉斯平滑:


其中
为第 个特征分量 的可能取值数。


B、N元多项分布模型


同样,上述贝叶斯模型中只考虑单词是否出现,即单词特征 服从伯努利分布,样本 服从n次独立的伯努利分布。而忽略了一个单词可能出现次数对邮件分类的影响。假设要统计某一单词出现的次数,那么有 多项分布。只考虑单词是否出现的贝叶斯模型叫multi-variate Bernoulli event model,后者叫multinational event model。

同样以邮件分类问题介绍multinational event model,在之前的模型中,我们首先建立词典,并且特征向量长度为词典长度,并且从词典出发,对于邮件出现过的单词,在对应词典的位置标记为 ,反之标记为 产生一个特征向量 。而multinational event model则从邮件出发,表示邮件中第 个单词,其值表示第 个单词在字典中出现的位置,那么 的取值则有 ,其中V表示字典长度。这样一封邮件可以表示为 表示第 封邮件的长度。这相当于掷一枚有V面的骰子 次,将观测值记录下来形成一封邮件。假设出现某一点的情况与第几次掷无关,也就是单词在邮件中出现的位置无关,而且每一次投掷都是独立的,即单词之间出现的事件是独立的。

文档的表示:

  1. one-hot表示



  1. 编号表示


可以看出两者方式的样本表示不同之处在于一个以词典维度对邮件中的词是否出现进行 编码,一个是以邮件维度对邮件中的词在词典中的编号进行编码,这就导致了两者表示的维度不同,特征服从的分布也不同。

一封邮件属于垃圾邮件的概率由贝叶斯公式有:


其中 似然函数,在垃圾邮件下产生 的条件概率, 为垃圾邮件的先验概率, 对于所有样本都是一致,近似忽略。

由朴素贝叶斯的条件概率独立性假设有条件概率如下:


其中 。同样最大化似然函数:


其中 表示第 封邮件的长度。所以上式中的参数有 。由最大似然估计有:


其中 无关,我们需要求的是 所有可能的取值。

最后一封邮件属于哪一类的概率参数表示如下:


其中 表示邮件第 个词在词典中的编号。

one-hot表示和编号表示:

两种表示最大的差别在于包含的语义信息,one-hot表示信息不够丰富,只有 ,所以需要高的维度,而编号表示信息相对丰富,维度低。然而on-hot表示是可以直接度量两个样本之间的相似性的( 表示是否存在,有语义意义的),而编号表示则不能直接度量两个样本之间的相似性(在词典中的编号是无语义的),但是可以把编号表示放回到集合中去度量两个样本的重合度。所以编号表示可以看作是one-hot的一种低维表示。



代码实战




int trainNB(Matrix X,Matrix Y)//训练函数的实现,注意对参数进行平滑处理
 
{
 //类,特征,特征取值
 bayes.pY.initMatrix(CLASS_SUM,1,0,"ss");//两类初始化为2行的列向量
 bayes.pX_1Y.initMatrix(CLASS_SUM,X.col,0,"ss");//X_1Y表示在Y下X=1的概率,反之X=0的概率为1-
 bayes.pX.initMatrix(X.col,1,0,"ss");//
   int i,j,k;
 for(k=0; k<bayes.pX_1Y.row; k++)
 {
 for(i=0; i<bayes.pX_1Y.col; i++)
 {
 bayes.pX_1Y.data[k][i]=1;//平滑处理,默认出现一次,后期归一化时把特征向量的长度也考虑进去,这里的平滑是指每一类字典与整个字典的,未涉及测试
 //样本中的未登入词
 }
 }
 for(i=0; i<X.row; i++)
 {
 if(Y.data[i][0]==0)
 {
 bayes.pY.data[0][0]++;
 for(j=0; j<X.col; j++)
 {
 bayes.pX_1Y.data[0][j]+=X.data[i][j];
 }
 }
 else 
 {
 bayes.pY.data[1][0]++;
 for(j=0; j<X.col; j++)
 {
 bayes.pX_1Y.data[1][j]+=X.data[i][j];
 }
 }
 }
 for(i=0; i<X.col; i++)
 {
 //所有类下x各个特征分量出现的概率
 //bayes.pX.data[i][0]=(bayes.pX_1Y.data[0][i]-1) + (bayes.pX_1Y.data[1][i]-1) + 1;
 //bayes.pX.data[i][0]/=bayes.pY.data[0][0] + bayes.pY.data[1][0] + 2;
   //某一类下x各个特征分量出现的概率
 bayes.pX_1Y.data[0][i]/=bayes.pY.data[0][0] + 2;
 bayes.pX_1Y.data[1][i]/=bayes.pY.data[1][0] + 2;
   bayes.pX.data[i][0] = (bayes.pX_1Y.data[0][i] + bayes.pX_1Y.data[1][i])/2;
 }
 //计算出PY两类的概率
 for(k=0; k<bayes.pY.row; k++)
 {
 bayes.pY.data[k][0]/=X.row;
 }
 cout<<"pY="<<bayes.pY.data[0][0]<<endl;
   for(k=0; k<bayes.pX_1Y.row; k++)
 {
 for(i=0; i<bayes.pX_1Y.col; i++)
 {
 cout<<bayes.pX_1Y.data[k][i]<<" & ";
 }
 cout<<"---";
 }
 }



详细代码:

https://github.com/myazi/myLearn/blob/master/Bayes.cpp




让更多的人知道你“在看”
登录查看更多
3

相关内容

朴素贝叶斯法是基于贝叶斯定理与特征条件独立假设的分类方法。对于给定的训练数据集,首先基于“特征条件独立”的假设学习输入/输出的联合概率分布。然后基于此模型,对给定输入x,利用贝叶斯定理求后验概率最大的y。 朴素贝叶斯实现简单,学习与预测的效率都很高,是一种常用的方法。
【经典书】机器学习:贝叶斯和优化方法,1075页pdf
专知会员服务
404+阅读 · 2020年6月8日
机器学习速查手册,135页pdf
专知会员服务
341+阅读 · 2020年3月15日
【经典书】精通机器学习特征工程,中文版,178页pdf
专知会员服务
356+阅读 · 2020年2月15日
WSDM 2020教程《深度贝叶斯数据挖掘》,附257页PPT下载
专知会员服务
156+阅读 · 2020年2月7日
一文读懂贝叶斯分类算法(附学习资源)
大数据文摘
12+阅读 · 2017年12月14日
【深度】从朴素贝叶斯到维特比算法:详解隐马尔科夫模型
算法与数学之美
7+阅读 · 2017年11月25日
基于概率论的分类方法:朴素贝叶斯
Python开发者
8+阅读 · 2017年11月9日
朴素贝叶斯和贝叶斯网络算法及其R语言实现
R语言中文社区
10+阅读 · 2017年10月2日
机器学习(13)之最大熵模型详解
机器学习算法与Python学习
7+阅读 · 2017年8月24日
详解基于朴素贝叶斯的情感分析及Python实现
AI研习社
9+阅读 · 2017年7月12日
从逻辑回归到最大熵模型
夕小瑶的卖萌屋
4+阅读 · 2017年7月11日
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Bivariate Beta LSTM
Arxiv
5+阅读 · 2019年10月7日
Arxiv
26+阅读 · 2018年9月21日
Arxiv
7+阅读 · 2018年1月10日
VIP会员
相关资讯
一文读懂贝叶斯分类算法(附学习资源)
大数据文摘
12+阅读 · 2017年12月14日
【深度】从朴素贝叶斯到维特比算法:详解隐马尔科夫模型
算法与数学之美
7+阅读 · 2017年11月25日
基于概率论的分类方法:朴素贝叶斯
Python开发者
8+阅读 · 2017年11月9日
朴素贝叶斯和贝叶斯网络算法及其R语言实现
R语言中文社区
10+阅读 · 2017年10月2日
机器学习(13)之最大熵模型详解
机器学习算法与Python学习
7+阅读 · 2017年8月24日
详解基于朴素贝叶斯的情感分析及Python实现
AI研习社
9+阅读 · 2017年7月12日
从逻辑回归到最大熵模型
夕小瑶的卖萌屋
4+阅读 · 2017年7月11日
相关论文
A Survey on Bayesian Deep Learning
Arxiv
63+阅读 · 2020年7月2日
Bivariate Beta LSTM
Arxiv
5+阅读 · 2019年10月7日
Arxiv
26+阅读 · 2018年9月21日
Arxiv
7+阅读 · 2018年1月10日
Top
微信扫码咨询专知VIP会员