贝叶斯分类算法中的那个公式怎么解释?度.百.科.里的“贝叶斯分类算法”,文章最后有个公式,不懂,P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]不要复制粘贴

来源:学生作业帮助网 编辑:作业帮 时间:2024/04/27 19:45:37
贝叶斯分类算法中的那个公式怎么解释?度.百.科.里的“贝叶斯分类算法”,文章最后有个公式,不懂,P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]不要复制粘贴

贝叶斯分类算法中的那个公式怎么解释?度.百.科.里的“贝叶斯分类算法”,文章最后有个公式,不懂,P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]不要复制粘贴
贝叶斯分类算法中的那个公式怎么解释?
度.百.科.里的“贝叶斯分类算法”,文章最后有个公式,不懂,
P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]
不要复制粘贴

贝叶斯分类算法中的那个公式怎么解释?度.百.科.里的“贝叶斯分类算法”,文章最后有个公式,不懂,P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)]不要复制粘贴
1.收集大量的垃圾邮件和非垃圾邮件,建立垃圾邮件集和非垃圾邮件集.2.提取邮件主题和邮件体中的独立字符串,例如 ABC32,¥234等作为TOKEN串并统计提取出的TOKEN串出现的次数即字频.按照上述的方法分别处理垃圾邮件集和非垃圾邮件集中的所有邮件.3.每一个邮件集对应一个哈希表,hashtable_good对应非垃圾邮件集而hashtable_bad对应垃圾邮件集.表中存储TOKEN串到字频的映射关系.4.计算每个哈希表中TOKEN串出现的概率P=(某TOKEN串的字频)/(对应哈希表的长度).5.综合考虑hashtable_good和hashtable_bad,推断出当新来的邮件中出现某个TOKEN串时,该新邮件为垃圾邮件的概率.数学表达式为:A 事件 ---- 邮件为垃圾邮件; t1,t2 …….tn 代表 TOKEN 串 则 P ( A|ti )表示在邮件中出现 TOKEN 串 ti 时,该邮件为垃圾邮件的概率.设 P1 ( ti ) = ( ti 在 hashtable_good 中的值) P2 ( ti ) = ( ti 在 hashtable_ bad 中的值) 则 P ( A|ti ) =P2 ( ti ) /[ ( P1 ( ti ) +P2 ( ti ) ] ; 6.建立新的哈希表hashtable_probability存储TOKEN串ti到P(A|ti)的映射 7.至此,垃圾邮件集和非垃圾邮件集的学习过程结束.根据建立的哈希表 hashtable_probability可以估计一封新到的邮件为垃圾邮件的可能性.当新到一封邮件时,按照步骤2,生成TOKEN串.查询hashtable_probability得到该TOKEN 串的键值.假设由该邮件共得到N个TOKEN 串,t1,t2…….tn,hashtable_probability中对应的值为 P1 ,P2 ,……PN ,P(A|t1 ,t2,t3……tn) 表示在邮件中同时出现多个TOKEN串t1,t2……tn时,该邮件为垃圾邮件的概率.由复合概率公式可得 P(A|t1 ,t2,t3……tn)=(P1*P2*……PN)/[P1*P2*……PN+(1-P1)*(1-P2)*……(1-PN)] 当 P(A|t1 ,t2,t3……tn) 超过预定阈值时,就可以判断邮件为垃圾邮件.

朴素贝叶斯算法 设每个数据样本用一个n维特征向量来描述n个属性的值,即:X={x1,x2,…,xn},假定有m个类,分别用C1, C2,…,Cm表示。给定一个未知的数据样本X(即没有类标号),若朴素贝叶斯分类法将未知的样本X分配给类Ci,则一定是 P(Ci|X)>P(Cj|X) 1≤j≤m,j≠i 根据贝叶斯定理 由于P(X)对于所有类为常数,最大化后验概率P(Ci|X)可转化为最...

全部展开

朴素贝叶斯算法 设每个数据样本用一个n维特征向量来描述n个属性的值,即:X={x1,x2,…,xn},假定有m个类,分别用C1, C2,…,Cm表示。给定一个未知的数据样本X(即没有类标号),若朴素贝叶斯分类法将未知的样本X分配给类Ci,则一定是 P(Ci|X)>P(Cj|X) 1≤j≤m,j≠i 根据贝叶斯定理 由于P(X)对于所有类为常数,最大化后验概率P(Ci|X)可转化为最大化先验概率P(X|Ci)P(Ci)。如果训练数据集有许多属性和元组,计算P(X|Ci)的开销可能非常大,为此,通常假设各属性的取值互相独立,这样 先验概率P(x1|Ci),P(x2|Ci),…,P(xn|Ci)可以从训练数据集求得。 根据此方法,对一个未知类别的样本X,可以先分别计算出X属于每一个类别Ci的概率P(X|Ci)P(Ci),然后选择其中概率最大的类别作为其类别。 朴素贝叶斯算法成立的前提是各属性之间互相独立。当数据集满足这种独立性假设时,分类的准确度较高,否则可能较低。另外,该算法没有分类规则输出。 (2) TAN算法 TAN算法通过发现属性对之间的依赖关系来降低NB中任意属性之间独立的假设。它是在NB网络结构的基础上增加属性对之间的关联(边)来实现的。 实现方法是:用结点表示属性,用有向边表示属性之间的依赖关系,把类别属性作为根结点,其余所有属性都作为它的子节点。通常,用虚线代表NB所需的边,用实线代表新增的边。属性Ai与Aj之间的边意味着属性Ai对类别变量C的影响还取决于属性Aj的取值。 这些增加的边需满足下列条件:类别变量没有双亲结点,每个属性有一个类别变量双亲结点和最多另外一个属性作为其双亲结点。 找到这组关联边之后,就可以计算一组随机变量的联合概率分布如下: 其中∏Ai代表的是Ai的双亲结点。由于在TAN算法中考虑了n个属性中(n-1)个两两属性之间的关联性,该算法对属性之间独立性的假设有了一定程度的降低,但是属性之间可能存 在更多其它的关联性仍没有考虑,因此其适用范围仍然受到限制。

收起