垃圾邮件过滤挑战

article/2025/10/4 8:00:10

垃圾邮件过滤挑战

随着网络应用的逐渐发展,电子邮件成为人们日常工作生活中不可分割的一部分。与此同时,垃圾邮件的问题困扰着许多电子邮件的使用者,它们不仅为电子邮件的使用者带来阅读负担,更占用了有限的邮箱空间。为此本研究提出了一种基于多层感知机的邮件分类方法,用于对未知邮件进行分类处理,检测识别出垃圾邮件。

目标问题:解决垃圾邮件罗过滤的二分类问题
数据集包括3017邮件,训练集包括2082封正常,935封垃圾,数据集在本文最后
在这里插入图片描述

TF-IDF模块

TF-IDF是一种字频统计方法,适合用来解决分类问题,主要用于评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。如果某个单词在一篇文章中出现的频率TF高,并且在其他文章中很少出现,则认为此词或者短语具有很好的类别区分能力。在将文本数据转化成特征向量的过程,比较常用的文本特征表示法为词袋法,即不考虑词语出现的顺序,每个出现过的词汇单独作为一列特征,这些不重复的特征词汇集合为词表,每一个文本都可以在很长的词表上统计出一个很多列的特征向量, 如果每个文本都出现的词汇,一般被标记为“停用词”不计入特征向量。本文使用SKlearn机器学习库中TfidfVectorizer方法,相较于CountVectorizer,TfidfVectorizer除了考量某词汇在文本出现的频率,还关注包含这个词汇的所有文本的数量。能够削减高频没有意义的词汇出现带来的影响, 挖掘更有意义的特征。

MLP多层感知机模块

MLP是最常见的前馈人工神经网络模型,除了输入输出层,它中间可以有多个隐层,最简单的MLP只含一个隐层,即三层的结构。多层感知机层与层之间是全连接的。多层感知机最底层是输入层,中间是隐藏层,最后是输出层。 假设向输入层中输入一个n维向量,就有n个神经元,回归函数为softmax。隐藏层的神经元与输入层是全连接的,假设输入层用向量X表示,则隐藏层的输出就是f(W1X+b1),W1是权重(也叫连接系数),b1是偏置,函数f 可以是常用的sigmoid函数或者tanh函数。输出层的输出就是softmax(W2X1+b2),X1表示隐藏层的输出f(W1X+b1)。因此,MLP所有的参数就是各个层之间的连接权重以及偏置,本文项目设置的多层感知器参数如下:激活函数为默认relu函数;优化器选择 lbfgs(quasi-Newton方法的优化器 )用来优化权重;alpha设置为1e-5;隐藏层个数为2,每层各有50个神经元;最大迭代次数为100。

源码

import os
import re
from html import unescape
from re import T
import numpy as np
from sklearn.feature_extraction.text import CountVectorizer, TfidfVectorizer
from sklearn.model_selection import train_test_split
from sklearn.naive_bayes import MultinomialNB
from sklearn.neural_network import MLPClassifier
from sklearn.metrics import accuracy_score, precision_score, recall_score, f1_score, classification_reportdef html_div(html):text = re.sub('<head.*?>.*?</head>', '', html, flags=re.M | re.S | re.I)text = re.sub('<a\s.*?>', ' HYPERLINK ', text, flags=re.M | re.S | re.I)text = re.sub('<.*?>', '', text, flags=re.M | re.S)text = re.sub(r'(\s*\n)+', '\n', text, flags=re.M | re.S)return unescape(text)def main(cv=1):path_spam = 'C:/cmail/trainspam/'path_ham = 'C:/cmail/trainham/'path_test = 'C:/cmail/test/'dataset_x_train = []dataset_y_train = []dataset_file_train = []for filename in list(os.listdir(path_spam)):f = open(path_spam + filename, encoding='ISO-8859-1')cont = f.read()content = html_div(cont)dataset_x_train.append(content)dataset_y_train.append(1)dataset_file_train.append(filename)for filename in list(os.listdir(path_ham)):f = open(path_ham + filename, encoding='ISO-8859-1')cont = f.read()content = html_div(cont)dataset_x_train.append(content)dataset_y_train.append(0)dataset_file_train.append(filename)dataset_x = np.array(dataset_x_train)dataset_y = np.array(dataset_y_train)dataset_file = np.array(dataset_file_train)x_train_data, y_train_data, file_train_data = dataset_x, dataset_y, dataset_filedataset_x_test = []dataset_file_test = []for filename in list(os.listdir(path_test)):f = open(path_test + filename, encoding='ISO-8859-1')cont = f.read()content = html_div(cont)dataset_x_test.append(content)dataset_file_test.append(filename)dataset_x_test = np.array(dataset_x)dataset_file_test = np.array(dataset_file)x_test_data, file_test_data = dataset_x_test, dataset_file_testvectorizer = TfidfVectorizer(min_df=2, max_df=0.6, ngram_range=(1, 2), stop_words='english',strip_accents='unicode', norm='l2')# max_df:可以设置为范围在[0.0 1.0]的float,也可以设置为没有范围限制的int,默认为1.0。这个参数的作用是作为一个阈值,当构造语料库的关键词集的时候,如果某个词的document frequence大于max_df,这个词不会被当作关键词。如果这个参数是float,则表示词出现的次数与语料库文档数的百分比,如果是int,则表示词出现的次数。如果参数中已经给定了vocabulary,则这个参数无效。# min_df:类似于max_df,不同之处在于如果某个词的document frequence小于min_df,则这个词不会被当作关键词。# ngram_range:例如ngram_range(min,max),是指将text分成min,min+1,min+2,.........max 个不同的词组。比如 '我 爱 中国' 中ngram_range(1,3)之后可得到'我'  '爱'  '中国'  '我 爱'  '爱 中国' 和'我 爱 中国',如果是ngram_range (1,1) 则只能得到单个单词'我'  '爱'和'中国'。# stop_words:设置停用词,设为english将使用内置的英语停用词#train_x_vec = vectorizer.fit_transform(x_train_data)test_x_vec = vectorizer.transform(x_test_data)acc = 0.0# 分割测试集测试模型准确率train_x, test_x, train_y, test_y = train_test_split(train_x_vec, y_train_data, test_size=0.2)mlp = MLPClassifier(solver='lbfgs', alpha=1e-5, hidden_layer_sizes=(50, 50), random_state=0, max_iter=100)mlp.fit(train_x_vec, y_train_data)prediction_mlp = mlp.predict(test_x_vec)# mlp.fit(train_x, train_y)# prediction_mlp_test = mlp.predict(test_x)acc = format(accuracy_score(test_y, prediction_mlp))print('acc: ', format(accuracy_score(test_y, prediction_mlp)))# 文件写入for i in range(len(x_test_data)):with open('C:/cmail//re.txt', 'a', encoding='ISO-8859-1') as f:if int(prediction_mlp[i]) == 0:text = 'ham ' + file_test_data[i]else:text = 'spam ' + file_test_data[i]f.write(text + '\n')return accif __name__ == '__main__':# 十折交叉验证 训练集四一开# n = 1# avg_acc = 0.0# for i in range(1, n + 1):#    print('cv {}:'.format(i))#    b_acc = main(i)#    avg_acc = avg_acc + float(b_acc)# avg_acc /= n# print('avg acc:'.avg_acc)

数据集链接

邮件数据集
链接:https://pan.baidu.com/s/1ncsf4SiqMc0bfGpgKvzOvw
提取码:spwd


http://chatgpt.dhexx.cn/article/JUBiiCKV.shtml

相关文章

基于C#的机器学习--垃圾邮件过滤

在这一章&#xff0c;我们将建立一个垃圾邮件过滤分类模型。我们将使用一个包含垃圾邮件和非垃圾邮件的原始电子邮件数据集&#xff0c;并使用它来训练我们的ML模型。我们将开始遵循上一章讨论的开发ML模型的步骤。这将帮助我们理解工作流程。 在本章中&#xff0c;我们将讨论以…

基于内容的垃圾邮件过滤

1 引言 电子邮件&#xff08;E-mail&#xff09;以其方便、快捷、低成本的独特魅力成为人们日常生活中不可缺少的通信手段之一。但电子邮件给人们带来极大便利的同时&#xff0c;也日益显示出其负面影响&#xff0c;那就是我们每天收到的邮件中有很大一部分是那种“不请自来”…

朴素贝叶斯——垃圾邮件过滤

文章目录 利用朴素贝叶斯进行文档分类1、获取数据集2、切分文本3、构建词表和分类4、构建分类器5、测试算法 利用朴素贝叶斯进行垃圾邮件过滤1、导入数据集2、垃圾邮件预测 总结 利用朴素贝叶斯进行文档分类 1、获取数据集 下载数据集&#xff0c;获取到一些邮件文档。其中ha…

贝叶斯算法:垃圾邮件过滤

准备 100封邮件&#xff0c;50封垃圾邮件和50封正常邮件参考 : 贝叶斯算法原理 程序过程解释 垃圾邮件分类的数学基础是贝叶斯推断(bayesian inference)。整个程序过程主要有以下几个部分构成&#xff1a; step 1 : 提取邮件并处理 1、使用 TDirectory.GetFiles(xPat…

毕业设计-基于深度学习的垃圾邮件过滤系统的设计与实现

目录 前言 课题背景和意义 实现技术思路 实现效果图样例 前言 &#x1f4c5;大四是整个大学期间最忙碌的时光,一边要忙着备考或实习为毕业后面临的就业升学做准备,一边要为毕业设计耗费大量精力。近几年各个学校要求的毕设项目越来越难,有不少课题是研究生级别难度的,对本科…

机器学习:朴素贝叶斯算法与垃圾邮件过滤

简介 贝叶斯算法是由英国数学家托马斯贝叶斯提出的&#xff0c;这个算法的提出是为了解决“逆向概率”的问题。首先我们先来解释下正向概率与逆向概率的含义&#xff1a; 正向概率&#xff1a;假设一个箱子里有5个黄色球和5个白色球&#xff0c;随机从箱子里拿出一个球&#…

朴素贝叶斯算法--垃圾邮件过滤

文章目录 一、朴素贝叶斯概述1、贝叶斯决策理论2、条件概率3、朴素贝叶斯4、朴素贝叶斯一般过程 二、朴素贝叶斯算法--垃圾邮件1、准备数据&#xff1a;从文本中构建词向量2、训练算法&#xff1a;从词向量计算概率3、测试算法&#xff1a;根据现实情况修改分类器5、垃圾邮件分…

机器学习-朴素贝叶斯过滤垃圾邮件

一、朴素贝叶斯实现垃圾邮件分类的原理 什么是朴素贝叶斯算法&#xff1a;用贝叶斯定理来预测一个未知类别的样本属于各个类别的可能性,选择可能性最大的一个类别作为该样本的最终类别。 用这个算法处理垃圾邮件就可以理解为&#xff1a;用贝叶斯定理来预测一封由若干个单词组成…

机器学习项目(一)——垃圾邮件的过滤技术

一、垃圾邮件过滤技术项目需求与设计方案 二、数据的内容分析 &#xff08;1、是否为垃圾邮件的标签&#xff0c;spam——是垃圾邮件&#xff1b;ham——不是垃圾邮件&#xff09; &#xff08;2、邮件的内容分析——主要包含&#xff1a;发件人、收件人、发件时间以及邮件的内…

多线程的闭锁和栅栏

多线程的闭锁和栅栏 JAVA并发包中有三个类用于同步一批线程的行为&#xff0c;分别是闭锁&#xff08;Latch&#xff09;&#xff0c;信号灯&#xff08;Semaphore&#xff09;和栅栏&#xff08;CyclicBarrier&#xff09;。这里我们主要来介绍一下&#xff1a; 闭锁&#x…

分布式锁(Distributed Lock)理论介绍

在多线程环境中&#xff0c;线程之间通常使用互斥锁实现共享资源的独占访问。在多进程环境&#xff0c;特别是分布式环境&#xff0c;常使用分布式锁来实现共享资源的独占访问。简单来说&#xff0c;分布式锁就是指在分布式环境下&#xff0c;通过加解锁实现多节点对共享资源的…

迟滞电路 平稳欠压和过压闭锁

下述的等式假设比较器输入端的输入偏置电流为0&#xff0c;而示例只考虑了电阻比&#xff0c;而未考虑绝对值。比较器输入同时具有输入失调电压(VOS)、参考误差&#xff08;也可以与VOS合并&#xff09;&#xff0c;以及输入偏置电流或漏电流(ILK)。如果分压器偏置电流&#xf…

偏向锁

流程讲解 当JVM启用了偏向锁模式&#xff08;JDK6以上默认开启&#xff09;&#xff0c;新创建对象的Mark Word中的Thread Id为0&#xff0c;说明此时处于可偏向但未偏向任何线程&#xff0c;也叫做匿名偏向状态(anonymously biased)。 偏向锁逻辑 1.线程A第一次访问同步块时&…

什么是间隙锁?

什么是间隙锁? 间隙锁是一个在索引记录之间的间隙上的锁。 间隙锁的作用 保证某个间隙内的数据在锁定情况下不会发生任何变化。比如mysql默认隔离级别下的可重复读(RR)。 当使用唯一索引来搜索唯一行的语句时,不需要间隙锁定。如下面语句的id列有唯一索引,此时只会对id值…

锁消除、锁粗化、偏向锁、适应性锁

文章目录 锁消除锁粗化偏向锁适应性锁 锁消除 锁消除是JIT编译器对内部锁实现的一种优化。JIT可以借助逃逸分析来判断同步块的锁对象是否只是被一个线程访问&#xff0c;如果是的话&#xff0c;则在编译期间不生成内部锁的申请与释放对应的机器码&#xff0c;即消除了锁的使用…

多线程并发之CountDownLatch(闭锁)使用详解

专题相关文章&#xff1a; 从内存可见性看Volatile、原子变量和CAS算法 多线程并发之CountDownLatch(闭锁)使用详解 多线程并发之显示锁Lock与其通信方式Condition源码解读 多线程并发之读写锁(ReentranReadWriteLock&ReadWriteLock)使用详解 多线程并发之线程池Executor与…

【ABAQUS】什么是剪切闭锁?剪切闭锁会导致什么?

“完全积分”是指当单元具有规则形状时&#xff0c;对单元刚度矩阵中的多项式项进行精确积分所需的高斯点数。对于六面体和四边形元素&#xff0c;“规则形状”意味着边缘是直的&#xff0c;并以直角相交&#xff0c;任何边缘节点都位于边缘的中点。 完全积分的线性元素在每个…

电力“五防”闭锁系统

&#xff08;转载&#xff09; 电力“五防”闭锁系统 随着电子技术在各个行业领域的飞速发展&#xff0c;电力的“五防”也将发生革命性的转变。现代电力系统规模不断扩大&#xff0c;从而促使电压的等级也得到了进一步提高。为了使电力系统的安全稳定运行能够得以充分保障&am…

【LB-1A 100V电压回路断相闭锁继电器】

系列型号 LB-1A电压回路断相闭锁继电器 LB-1A闭锁继电器 1 用途 LB-1A型电压回路断相闭锁继电器&#xff08;以下简称继电器&#xff09;是在交流电压回路断线而可能引起继电保护误动作时&#xff0c;对继电保护进行闭锁。该继电器用于中性点非直接接地系统中。 2 结构与工作原…