机器学习-朴素贝叶斯过滤垃圾邮件

article/2025/10/4 8:36:00

一、朴素贝叶斯实现垃圾邮件分类的原理

什么是朴素贝叶斯算法:用贝叶斯定理来预测一个未知类别的样本属于各个类别的可能性,选择可能性最大的一个类别作为该样本的最终类别。

用这个算法处理垃圾邮件就可以理解为:用贝叶斯定理来预测一封由若干个单词组成的不知道是否为垃圾邮件的邮件,它是垃圾邮件或是正常邮件的可能性,如果算法预测出垃圾邮件的可能性更高,那这封邮件就是垃圾邮件,反之为正常邮件。

二、贝叶斯定理

贝叶斯定理告诉我们如何交换条件概率中的条件与结果,即如果已知 P(X|Y),要求 P(Y|X):

P(Y∣X)=P(X∣Y)P(Y)​/P(X)

P(Y):先验概率。P(Y∣X):后验概率。P(X∣Y) :条件概率,又叫似然概率,一般是通过历史数据统计得到。

三、 朴素贝叶斯分类

朴素贝叶斯分类通过训练集学习联合概率分布,其实就是学习先验概率分布和条件概率分布。

其中先验概率分布为:

 

 条件概率分布为:

于是可以通过条件概率公式得出联合概率分布 ,

朴素贝叶斯算法对条件概率做了条件独立性的假设。由于这是一个较强的假设,朴素贝叶斯算法也由此得名。具体地,条件独立性假设是:

 后验概率根据贝叶斯定理进行计算:

 再将条件独立性假设代入上面的式子,得到了朴素贝叶斯分类的基本公式:

拉普拉斯修正

在用朴素贝叶斯分类判断文本类别的时候,要计算多个概率的乘积。如果样本中的某些单词不在词汇表中出现,则连乘后概率为0,无法进行判断。因此我们在计算概率的时要用拉普拉斯修正,公式如下:

 

四、实现垃圾邮件过滤

实现垃圾邮件过滤的步骤

收集数据:提供文本文件。

预处理数据:将文本文件解析成词条向量。

分析数据:检查词条确保解析的正确性。

训练:计算不同的独立特征的条件概率。

测试,计算错误率:计算错误率。

邮件数据集

ham_email文件夹下包含二十条正常邮件信息,spam_email文件夹下面包含二十条垃圾文件信息 。

加载数据集

def createVocabList(dataSet):vocabSet = set([])  # set集合元素不重复for document in dataSet:vocabSet = vocabSet | set(document)  # 取并集return list(vocabSet)

 数据预处理

def setOfWords2Vec(vocabList, inputSet):returnVec = [0] * len(vocabList)  # 创建一个其中所含元素都为0的向量for word in inputSet:  if word in vocabList:  # 如果词条存在于词汇表中,则置1returnVec[vocabList.index(word)] = 1else:print("the word: %s is not in my Vocabulary!" % word)return returnVec  # 返回文档向量

朴素贝叶斯函数训练

def trainNB0(trainMatrix, trainCategory):numTrainDocs = len(trainMatrix)  numWords = len(trainMatrix[0])  pAbusive = sum(trainCategory) / float(numTrainDocs)  # 文档属于垃圾邮件类的概率p0Num = np.ones(numWords)p1Num = np.ones(numWords)  # 词条出现数初始为1,拉普拉斯平滑p0Denom = 2.0p1Denom = 2.0  # 分母初始为2 ,拉普拉斯平滑for i in range(numTrainDocs):if trainCategory[i] == 1:  # 统计属于侮辱类的条件概率所需的数据p1Num += trainMatrix[i]p1Denom += sum(trainMatrix[i])else:  # 统计属于非侮辱类的条件概率所需的数据,即P(w0|0),P(w1|0),P(w2|0)···p0Num += trainMatrix[i]p0Denom += sum(trainMatrix[i])p1Vect = np.log(p1Num / p1Denom)p0Vect = np.log(p0Num / p0Denom)  return p0Vect, p1Vect, pAbusive  # 返回属于正常邮件类的条件概率数组,属于侮辱垃圾邮件类的条件概率数组,文档属于垃圾邮件类的概率

分类函数

def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):p1 = sum(vec2Classify * p1Vec) + np.log(pClass1)p0 = sum(vec2Classify * p0Vec) + np.log(1.0 - pClass1)if p1 > p0:return 1else:return 0

测试朴素贝叶斯分类器,交叉验证

def spamTest():docList = []classList = []fullText = []for i in range(1, 21):  # 遍历20个txt文件wordList = textParse(open('email/spam_email/%d.txt' % i, 'r').read())  docList.append(wordList)fullText.append(wordList)classList.append(1)  # 标记垃圾邮件,1表示垃圾文件wordList = textParse(open('email/ham_email/%d.txt' % i, 'r').read())  docList.append(wordList)fullText.append(wordList)classList.append(0)  # 标记正常邮件,0表示正常文件vocabList = createVocabList(docList)  trainingSet = list(range(40))testSet = []  for i in range(6):  # 从40个邮件中,随机挑选出34个作为训练集,6个做测试集randIndex = int(random.uniform(0, len(trainingSet)))  testSet.append(trainingSet[randIndex])  del (trainingSet[randIndex])  trainMat = []trainClasses = []  # 创建训练集矩阵和训练集类别标签系向量for docIndex in trainingSet:  # 遍历训练集trainMat.append(setOfWords2Vec(vocabList, docList[docIndex]))  trainClasses.append(classList[docIndex]) p0V, p1V, pSpam = trainNB0(np.array(trainMat), np.array(trainClasses))  # 训练朴素贝叶斯模型errorCount = 0  # 错误分类计数for docIndex in testSet:  # 遍历测试集wordVector = setOfWords2Vec(vocabList, docList[docIndex])  # 测试集的词集模型if classifyNB(np.array(wordVector), p0V, p1V, pSpam) != classList[docIndex]:  # 如果分类错误errorCount += 1  # 错误计数加1print("分类错误的测试集:", docList[docIndex])print('错误率:%.2f%%' % (float(errorCount) / len(testSet) * 100))

运行结果

 全部代码

# -*- coding: UTF-8 -*-
import numpy as np
import re
import randomdef createVocabList(dataSet):vocabSet = set([])  for document in dataSet:vocabSet = vocabSet | set(document)  # 取并集return list(vocabSet)def setOfWords2Vec(vocabList, inputSet):returnVec = [0] * len(vocabList)  for word in inputSet:  if word in vocabList: returnVec[vocabList.index(word)] = 1else:print("the word: %s is not in my Vocabulary!" % word)return returnVec  # 返回文档向量def bagOfWords2VecMN(vocabList, inputSet):returnVec = [0] * len(vocabList)  for word in inputSet:  if word in vocabList:  returnVec[vocabList.index(word)] += 1return returnVec  # 返回词袋模型def trainNB0(trainMatrix, trainCategory):numTrainDocs = len(trainMatrix)  # 计算训练的文档数目numWords = len(trainMatrix[0])  # 计算每篇文档的词条数pAbusive = sum(trainCategory) / float(numTrainDocs)  # 文档属于垃圾邮件类的概率p0Num = np.ones(numWords)p1Num = np.ones(numWords)  # 创建numpy.ones数组,词条出现数初始化为1,拉普拉斯平滑p0Denom = 2.0p1Denom = 2.0  # 分母初始化为2 ,拉普拉斯平滑for i in range(numTrainDocs):if trainCategory[i] == 1: p1Num += trainMatrix[i]p1Denom += sum(trainMatrix[i])else:  p0Num += trainMatrix[i]p0Denom += sum(trainMatrix[i])p1Vect = np.log(p1Num / p1Denom)p0Vect = np.log(p0Num / p0Denom)  return p0Vect, p1Vect, pAbusive  def classifyNB(vec2Classify, p0Vec, p1Vec, pClass1):p1 = sum(vec2Classify * p1Vec) + np.log(pClass1)p0 = sum(vec2Classify * p0Vec) + np.log(1.0 - pClass1)if p1 > p0:return 1else:return 0def textParse(bigString):  # 将字符串转换为字符列表listOfTokens = re.split(r'\W*', bigString)  # 将特殊符号作为切分标志进行字符串切分,即非字母、非数字return [tok.lower() for tok in listOfTokens if len(tok) > 2]  # 除了单个字母,例如大写的I,其它单词变成小写def spamTest():docList = []classList = []fullText = []for i in range(1, 21):  wordList = textParse(open('email/spam_email/%d.txt' % i, 'r').read())  docList.append(wordList)fullText.append(wordList)classList.append(1)  # 标记垃圾邮件,1表示垃圾文件wordList = textParse(open('email/ham_email/%d.txt' % i, 'r').read()) docList.append(wordList)fullText.append(wordList)classList.append(0)  # 标记正常邮件,0表示正常文件vocabList = createVocabList(docList) trainingSet = list(range(40))testSet = []  for i in range(6):  # 从40个邮件中,随机挑选出34个作为训练集,6个做测试集randIndex = int(random.uniform(0, len(trainingSet)))  testSet.append(trainingSet[randIndex])  del (trainingSet[randIndex])  trainMat = []trainClasses = []  for docIndex in trainingSet:  trainMat.append(setOfWords2Vec(vocabList, docList[docIndex]))  trainClasses.append(classList[docIndex])  p0V, p1V, pSpam = trainNB0(np.array(trainMat), np.array(trainClasses))  errorCount = 0  # 错误分类计数for docIndex in testSet:  # 遍历测试集wordVector = setOfWords2Vec(vocabList, docList[docIndex])  # 测试集的词集模型if classifyNB(np.array(wordVector), p0V, p1V, pSpam) != classList[docIndex]:  # 如果分类错误errorCount += 1  # 错误计数加1print('错误率:%.2f%%' % (float(errorCount) / len(testSet) * 100))if __name__ == '__main__':spamTest()


http://chatgpt.dhexx.cn/article/K8Ov9s8D.shtml

相关文章

机器学习项目(一)——垃圾邮件的过滤技术

一、垃圾邮件过滤技术项目需求与设计方案 二、数据的内容分析 (1、是否为垃圾邮件的标签,spam——是垃圾邮件;ham——不是垃圾邮件) (2、邮件的内容分析——主要包含:发件人、收件人、发件时间以及邮件的内…

多线程的闭锁和栅栏

多线程的闭锁和栅栏 JAVA并发包中有三个类用于同步一批线程的行为,分别是闭锁(Latch),信号灯(Semaphore)和栅栏(CyclicBarrier)。这里我们主要来介绍一下: 闭锁&#x…

分布式锁(Distributed Lock)理论介绍

在多线程环境中,线程之间通常使用互斥锁实现共享资源的独占访问。在多进程环境,特别是分布式环境,常使用分布式锁来实现共享资源的独占访问。简单来说,分布式锁就是指在分布式环境下,通过加解锁实现多节点对共享资源的…

迟滞电路 平稳欠压和过压闭锁

下述的等式假设比较器输入端的输入偏置电流为0,而示例只考虑了电阻比,而未考虑绝对值。比较器输入同时具有输入失调电压(VOS)、参考误差(也可以与VOS合并),以及输入偏置电流或漏电流(ILK)。如果分压器偏置电流&#xf…

偏向锁

流程讲解 当JVM启用了偏向锁模式(JDK6以上默认开启),新创建对象的Mark Word中的Thread Id为0,说明此时处于可偏向但未偏向任何线程,也叫做匿名偏向状态(anonymously biased)。 偏向锁逻辑 1.线程A第一次访问同步块时&…

什么是间隙锁?

什么是间隙锁? 间隙锁是一个在索引记录之间的间隙上的锁。 间隙锁的作用 保证某个间隙内的数据在锁定情况下不会发生任何变化。比如mysql默认隔离级别下的可重复读(RR)。 当使用唯一索引来搜索唯一行的语句时,不需要间隙锁定。如下面语句的id列有唯一索引,此时只会对id值…

锁消除、锁粗化、偏向锁、适应性锁

文章目录 锁消除锁粗化偏向锁适应性锁 锁消除 锁消除是JIT编译器对内部锁实现的一种优化。JIT可以借助逃逸分析来判断同步块的锁对象是否只是被一个线程访问,如果是的话,则在编译期间不生成内部锁的申请与释放对应的机器码,即消除了锁的使用…

多线程并发之CountDownLatch(闭锁)使用详解

专题相关文章: 从内存可见性看Volatile、原子变量和CAS算法 多线程并发之CountDownLatch(闭锁)使用详解 多线程并发之显示锁Lock与其通信方式Condition源码解读 多线程并发之读写锁(ReentranReadWriteLock&ReadWriteLock)使用详解 多线程并发之线程池Executor与…

【ABAQUS】什么是剪切闭锁?剪切闭锁会导致什么?

“完全积分”是指当单元具有规则形状时,对单元刚度矩阵中的多项式项进行精确积分所需的高斯点数。对于六面体和四边形元素,“规则形状”意味着边缘是直的,并以直角相交,任何边缘节点都位于边缘的中点。 完全积分的线性元素在每个…

电力“五防”闭锁系统

(转载) 电力“五防”闭锁系统 随着电子技术在各个行业领域的飞速发展,电力的“五防”也将发生革命性的转变。现代电力系统规模不断扩大,从而促使电压的等级也得到了进一步提高。为了使电力系统的安全稳定运行能够得以充分保障&am…

【LB-1A 100V电压回路断相闭锁继电器】

系列型号 LB-1A电压回路断相闭锁继电器 LB-1A闭锁继电器 1 用途 LB-1A型电压回路断相闭锁继电器(以下简称继电器)是在交流电压回路断线而可能引起继电保护误动作时,对继电保护进行闭锁。该继电器用于中性点非直接接地系统中。 2 结构与工作原…

间隙锁

一.几个基本概念 行锁:给某一行加的锁间隙锁:就是两个值之间的间隙。为了解决幻读问题,InnoDB 只好引入新的锁,也就是 间隙锁 (Gap Lock)。间隙锁Gap,左右都是开区间,间隙锁行锁合称next-key lock,每个 next-key lock…

闭锁,信号量,栅栏

1. 闭锁(countDownLatch) 1.1. 作用: 相当于一扇门,在闭锁到达结束状态之前,这扇门是关着的,所以的线程都不允许通过,当闭锁到达结束状态,这扇门打开并允许所有的线程通过。在…

visio 2010激活教程

一、下载office2010toolkit.zip 若下载链接失效,手动搜索office2010toolkit http://ys-c.ys168.com/605279628/o4W138W45JIPI5SiuWf5/office2010toolkit.zip二、激活 激活过程中需要关闭office套件

Microsoft Visio Professional 2013 安装步骤

1.打开解压后的文件夹,点击setup.exe安装 2.勾选我接受此协议的条款,继续 3.点击立即安装 4.安装完成,关闭。 5.打开第一步解压的文件夹中破解文件夹,鼠标右键以管理员身份运行 6.点击激活office2013VL 7.激活完成 Microsoft Visi…

激活Visio2013

最近需要用Visio,由于密钥过期了,也不知道怎么重新输密钥,于是网上搜索,终于找到了一个方法。 KMSpico工具,安装完后直接打开点击左边红色按钮就可以了。如图: 最后附上工具链接https://pan.baidu.com/s/1…

机器学习十大算法之-CART分类决策树、回归树和模型树

转载(http://blog.163.com/zhoulili1987619126/blog/static/35308201201542731455261/) Classification And Regression Tree(CART)是决策树的一种,并且是非常重要的决策树,属于Top Ten Machine Learning Algorithm。顾名思义&…

决策树入门以及树模型的参数选择

决策树及树模型的参数选择 决策树的基本概念 在数据结构中树是一个重要的数据结构,这里树被我们根据分支起到一个决策的作用。什么是决策?通俗的说就是判断或者决定,我们引用周志华的西瓜书中的例子:这是一个好瓜吗?当…

gbdt、xgb、lgb决策树模型

目录 1.决策树1.1 CART分类树1.2 CART回归树 2.gbdt3.xgboost4.lightgbm5.模型对比6.参考文献 本文主要对决策树、gbdt、xgboost、lightgbm、catboost进行简述和整理,包括模型原理、优劣性等内容 1.决策树 决策树是一种通过对历史数据进行测算,对新数据…