竞赛圈   > 分类算法之朴素贝叶斯(NaiveBayes)

本文由 程SIR说 授权发布,版权所有归作者,转载请联系作者!

    我个人认为,在数据挖掘领域,分类算法是最为重要。它根据以往的数据来对新的数据做预测。垃圾邮件判断,潜在用户挖掘等都会用到分类算法。今天把总结朴素贝叶斯算法的学习心得。

#Bayes是谁#

    Thomas Bayes,英国数学家。约1701年出生于伦敦,做过神甫。1742年成为英国皇家学会会员。1761年4月7日逝世。贝叶斯在数学方面主要研究概率论。他首先将归纳推理法用于概率论基础理论,并创立了贝叶斯统计理论,对于统计决策函数、统计推断、统计的估算等做出了贡献。

#Bayes定理#

通俗来说就是:

已知事件B的发生概率P(B)

已知在事件B已经发生的情况下,事件A发生的概率P(A|B)

则可根据Bayes定理,计算事件A发生的条件下,事件B发生的概率P(B|A)。

计算方法为:

P(B|A)=P(A|B)× P(B)/ P(A)

#NaiveBayes分类算法实例#

门诊部一共就诊了6位患者,情况如下:

这时,来了第七位患者,一位“打喷嚏的工人”,请推断他得了啥病。

这就是一个分类问题。现状把所有患者分成了三类“感冒”“过敏”“脑震荡”,我们的目的是把“打喷嚏的工人”分到这三类中的一类中。具体做法为:根据Bayes定理,计算这个“打喷嚏的工人”患三种疾病的概率。

解释:

‘&’项可以分成两个,是因为“症状”变量和“职业”变量是相互独立的,没什么联系

感冒的有3个,其中打喷嚏的2个,所以P(打喷嚏|感冒)=2/3

感冒的有3个,其中工人1个,所以P(工人|感冒)=1/3

一共六个人,感冒3个,所以P(感冒)=1/2

一共六个人,打喷嚏的3个,所以P(打喷嚏)=1/2

一共六个人,其中工人2个,所以P(工人)=1/3

按照这个方法,计算“打喷嚏的工人”另外两种疾病的概率;

可见,“打喷嚏的工人”患感冒概率66.7%,初步判断应该是感冒。但是一般的分类器都要根据具体业务设置阈值,对于人命关天的事,最好严格一些,比如95%以上才做出判断,那么这里最好的答案应该是“机器无法判断,建议去让医生看看”。

#补充说明#

算法叫做朴素贝叶斯(NaiveBayes),是因为算法是在太简单了

‘&’能分开两个概率相乘是因为变量的独立性,如果不独立的话,这样计算会有误差

分母项 P(打喷嚏)× P(工人)在每次计算中都一样,可以只互相比较分子计算的结果作出判断

例子中最初的6个病人的数据叫做训练集

#训练集样本较小情况下的概率调整#

P(打喷嚏|过敏)和P(工人|过敏)分别为1,0,实际中不可能是这样的,因为没有什么是一定不发生,也没有什么100%发生。出现这种情况是因为我们的样本太少,如果样本足够多,概率会相对靠谱。

在起步阶段,样本就是很少,为了避免0,1这种极端概率,需要人为做一些数学变换。比如,对过敏来说,每个症状的初始概率都为50%,当来了一个过敏病人,如果出现打喷嚏,那么P(打喷嚏|过敏)的概率就提升一点点,反之如果不打喷嚏,则P(打喷嚏|过敏)的概率就下降一点点。这样使得每一个概率都变得在(0,1)之间平滑变化,对其他的变量也这样处理。在《Programming Collective Intelligence》这本书中给出了这个变换的公式,我套用到过敏来说就是:

所以,在上例中计算第二种疾病的时候,如果用调整后的概率结果如下:

#连续变量处理#

对于上例来说,不论是职业还是症状,都是离散变量,也就是取值数有限,这样都可以通过数个数的方式来计算概率(古典概率模型),但是如果出现连续型变量就不能靠数个数了,比如身高,可以有175cm 176cm 176.1cm 176.11cm,无穷尽……

处理方式一:离散化

身高来说,可以就精确到cm,那么基于现实世界从40cm(婴儿)到230cm(姚明)基本就够用了,可以数个数。要么就分段【小于100cm】【100-150cm】【150-180cm】……这样也可以。

处理方式二:利用变量的分布来计算概率

一般来说自然界中的大部分变量都是符合正态分布的,正态分布是一个钟型曲线,概率意义是,一次实验取到均值附近概率最大,去到远离均值的值的概率越来越小。那么可以计算样本的均值和标准差,利用Z值【(实际值-均值)/标准差】,查标准正态分布表,查出取到每个样本值的概率。

当然,如果明确知道变量属于某个其他分布,如泊松分布,那么就直接用分布函数求概率即可。

#数学表达以备装B之需#

朴素贝叶斯分类的正式定义如下:


0条评论

分享

0条评论
意见反馈
关注微信公众号 关注微信公众号

扫一扫分享给周围朋友