机器学习项目(一)——垃圾邮件的过滤技术

article/2025/10/4 8:34:01

一、垃圾邮件过滤技术项目需求与设计方案





二、数据的内容分析

(1、是否为垃圾邮件的标签,spam——是垃圾邮件;ham——不是垃圾邮件)


(2、邮件的内容分析——主要包含:发件人、收件人、发件时间以及邮件的内容)



三、需求分析、模型选择与架构




四、数据清洗

(一)·代码中应用的知识点

(1)字典的get()函数


(2)os.listdir()



(二)数据清洗代码

#!/usr/bin/env python
# -*- coding:utf-8 -*-
# Author:ZhengzhengLiuimport os#1、索引文件(分类标签)读取,该文件中分为两列
#第一列:分类标签是否为垃圾邮件(是:spam、否:ham);
# 第二列:存放邮件对应文件夹路径,两列之间通过空格分割
def read_index_file(file_path):type_dict = {"spam":"1","ham":"0"}      #用字典存放垃圾邮件的分类标签index_file = open(file_path)index_dict = {}try:for line in index_file:  # 按行循环读取文件arr = line.split(" ")  # 用“空格”进行分割#pd.read_csv("full/index",sep=" ")      #pandas来写与上面等价if len(arr) == 2:       #分割完之后如果长度是2key,value = arr     ##分别将spam  ../data/178/129赋值给key与value#添加到字段中value = value.replace("../data","").replace("\n","")    #替换# 字典赋值,字典名[键]=值,lower()将所有的字母转换成小写index_dict[value] = type_dict[key.lower()]      #finally:index_file.close()return index_dict#2、邮件的文件内容数据读取
def read_file(file_path):# 读操作,邮件数据编码为"gb2312",数据读取有异常就ignore忽略file = open(file_path,"r",encoding="gb2312",errors="ignore")content_dict = {}try:is_content = Falsefor line in file:  # 按行读取line = line.strip()  # 每行的空格去掉用strip()if line.startswith("From:"):content_dict["from"] = line[5:]elif line.startswith("To:"):content_dict["to"] = line[3:]elif line.startswith("Date:"):content_dict["data"] = line[5:]elif not line:# 邮件内容与上面信息存在着第一个空行,遇到空行时,这里标记为True以便进行下面的邮件内容处理# line文件的行为空时是False,不为空时是Trueis_content = True# 处理邮件内容(处理到为空的行时接着处理邮件的内容)if is_content:if "content" in content_dict:content_dict["content"] += lineelse:content_dict["content"] = linefinally:file.close()return content_dict#3、邮件数据处理(内容的拼接,并用逗号进行分割)
def process_file(file_path):content_dict = read_file(file_path)#进行处理(拼接),get()函数返回指定键的值,指定键的值不存在用指定的默认值unkown代替result_str = content_dict.get("from","unkown").replace(",","").strip()+","result_str += content_dict.get("to","unkown").replace(",","").strip()+","result_str += content_dict.get("data","unkown").replace(",","").strip()+","result_str += content_dict.get("content","unkown").replace(",","").strip()return result_str#4、开始进行数据处理——函数调用
## os.listdir    返回指定的文件夹包含的文件或文件夹包含的名称列表
index_dict = read_index_file('../data/full/index')
list0 = os.listdir('../data/data')      #list0是范围为[000-215]的列表
# print(list0)
for l1 in list0:    # l1:循环000--215l1_path = '../data/data/' + l1      #l1_path   ../data/data/215print('开始处理文件夹:' + l1_path)list1 = os.listdir(l1_path)     #list1:['000', '001', '002', '003'....'299']# print(list1)write_file_path = '../data/process01_' + l1with open(write_file_path, "w", encoding='utf-8') as writer:for l2 in list1:  # l2:循环000--299l2_path = l1_path + "/" + l2  # l2_path   ../data/data/215/000# 得到具体的文件内容后,进行文件数据的读取index_key = "/" + l1 + "/" + l2  # index_key:  /215/000if index_key in index_dict:# 读取数据content_str = process_file(l2_path)# 添加分类标签(0、1)也用逗号隔开content_str += "," + index_dict[index_key] + "\n"# 进行数据输出writer.writelines(content_str)# 再合并所有第一次构建好的内容
with open('../data/result_process01', 'w', encoding='utf-8') as writer:for l1 in list0:file_path = '../data/process01_' + l1print("开始合并文件:" + file_path)with open(file_path, encoding='utf-8') as file:for line in file:writer.writelines(line)

(三)邮件存放路径框架与各步骤运行结果









最后运行的结果:



五、特征工程

(一)邮件服务器处理


知识点应用:





#!/usr/bin/env python
# -*- coding:utf-8 -*-
# Author:ZhengzhengLiuimport re
import time
import numpy as np
import pandas as pd
import matplotlib as mpl
import matplotlib.pyplot as plt## 设置字符集,防止中文乱码
mpl.rcParams['font.sans-serif']=[u'simHei']
mpl.rcParams['axes.unicode_minus']=False# 1、文件数据读取
df = pd.read_csv("../data/result_process01",sep=",",header=None,names=["from","to","date","content","label"])
# print(df.head())#2(1)、特征工程1 =>提取发件人和收件人的邮件服务器地址
def extract_email_server_address(str1):it = re.findall(r"@([A-Za-z0-9]*\.[A-Za-z0-9\.]+)",str(str1))result = ""if len(it)>0:result = it[0]if not result:result = "unknown"return resultdf["to_address"] = pd.Series(map(lambda str:extract_email_server_address(str),df["to"]))
df["from_address"] = pd.Series(map(lambda str:extract_email_server_address(str),df["from"]))
# print(df.head(2))#2(2)、特征工程1 =>查看邮件服务器的数量
print("=================to address================")
print(df.to_address.value_counts().head(5))
print("总邮件接收服务器类别数量为:"+str(df.to_address.unique().shape))print("=================from address================")
print(df.from_address.value_counts().head(5))
print("总邮件接收服务器类别数量为:"+str(df.from_address.unique().shape))from_address_df = df.from_address.value_counts().to_frame()
len_less_10_from_adderss_count = from_address_df[from_address_df.from_address<=10].shape
print("发送邮件数量小于10封的服务器数量为:"+str(len_less_10_from_adderss_count))



(二)时间属性处理


#3、特征工程2 =>邮件的时间提取
def extract_email_date(str1):if not isinstance(str1,str):  #判断变量是否是str类型str1 = str(str1)    #str类型的强转str_len = len(str1)week = ""hour = ""# 0表示:上午[8,12];1表示:下午[13,18];2表示:晚上[19,23];3表示:凌晨[0,7]time_quantum = ""if str_len < 10:#unknownweek = "unknown"hour = "unknown"time_quantum ="unknown"passelif str_len == 16:# 2005-9-2 上午10:55rex = r"(\d{2}):\d{2}"  # \d  匹配任意数字,这里匹配10:55it = re.findall(rex,str1)if len(it) == 1:hour = it[0]else:hour = "unknown"week = "Fri"time_quantum = "0"passelif str_len == 19:# Sep 23 2005 1:04 AMweek = "Sep"hour = "01"time_quantum = "3"passelif str_len == 21:# August 24 2005 5:00pmweek = "Wed"hour = "17"time_quantum = "1"passelse:#匹配一个字符开头,+表示至少一次  \d 表示数字   ?表示可有可无  *? 非贪婪模式rex = r"([A-Za-z]+\d?[A-Za-z]*) .*?(\d{2}):\d{2}:\d{2}.*"it = re.findall(rex,str1)if len(it) == 1 and len(it[0]) == 2:week = it[0][0][-3]hour = it[0][1]int_hour = int(hour)if int_hour < 8:time_quantum = "3"elif int_hour < 13:time_quantum = "0"elif int_hour < 19:time_quantum = "1"else:time_quantum = "2"passelse:week = "unknown"hour = "unknown"time_quantum = "unknown"week = week.lower()hour = hour.lower()time_quantum = time_quantum.lower()return (week,hour,time_quantum)#数据转换
data_time_extract_result = list(map(lambda st:extract_email_date(st),df["date"]))
df["date_week"] = pd.Series(map(lambda t:t[0],data_time_extract_result))
df["date_hour"] = pd.Series(map(lambda t:t[1],data_time_extract_result))
df["date_time_quantum"] = pd.Series(map(lambda t:t[2],data_time_extract_result))
print(df.head(2))print("=======星期属性字段描述======")
print(df.date_week.value_counts().head(3))
print(df[["date_week","label"]].groupby(["date_week","label"])["label"].count())print("=======小时属性字段描述======")
print(df.date_hour.value_counts().head(3))
print(df[['date_hour', 'label']].groupby(['date_hour', 'label'])['label'].count())print("=======时间段属性字段描述======")
print(df.date_hour.value_counts().head(3))
print(df[["date_time_quantum","label"]].groupby(["date_time_quantum","label"])["label"].count())#添加是否有时间
df["has_date"] = df.apply(lambda c: 0 if c["date_week"] == "unknown" else 1,axis=1)
print(df.head(2))




(三)邮件内容分词——jieba分词



#4、特征工程之三 => jieba分词操作#将文本类型全部转换为str类型,然后进行分词操作
df["content"] = df["content"].astype("str")'''
#1、jieba分词的重点在于:自定义词典
#2、jieba添加分词字典,jieba.load_userdict("userdict.txt"),字典格式为:单词 词频(可选的) 词性(可选的)
#   词典构建方式:一般都是基于jieba分词之后的效果进行人工干预
#3、添加新词、删除词   jieba.add_word("")   jieba.del_word("")    
#4、jieba.cut: def cut(self, sentence, cut_all=False, HMM=True)
#   sentence:需要分割的文本,cut_all:分割模式,分为精准模式False、全分割True,HMM:新词可进行推测
#5、长文本采用精准分割,短文本采用全分割模式
#   一般在短文本处理过程中还需要考虑词性,并且还可能将分割好的单词进行组合
#   词性需要导入的包:import jieba.posseg
'''
df["jieba_cut_content"] = list(map(lambda st:" ".join(jieba.cut(st)),df["content"]))    #分开的词用空格隔开
print(df.head(2))

运行结果为:


注意内容:



(四)邮件信息量/长度对是否为垃圾邮件的影响


(1)应用知识点——groupby()技术

详细参照链接:http://www.jianshu.com/p/2d49cb87626b


在数据分析中,我们往往需要在将数据拆分,在每一个特定的组里进行运算。比如根据教育水平和年龄段计算某个城市的工作人口的平均收入。pandas中的groupby提供了一个高效的数据的分组运算。我们通过一个或者多个分类变量数据拆分,然后分别在拆分以后的数据上进行需要的计算。

       

#5、特征工程之四 =>邮件长度对是否是垃圾邮件的影响
def process_content_length(lg):if lg < 10:return 0elif lg <= 100:return 1elif lg <= 500:return 2elif lg <= 1000:return 3elif lg <= 1500:return 4elif lg <= 2000:return 5elif lg <= 2500:return 6elif lg <= 3000:return 7elif lg <= 4000:return 8elif lg <= 5000:return 9elif lg <= 10000:return 10elif lg <= 20000:return 11elif lg <= 30000:return 12elif lg <= 50000:return 13else:return 14df["content_length"] = pd.Series(map(lambda st:len(st),df["content"]))
df["content_length_type"] = pd.Series(map(lambda st:process_content_length(st),df["content_length"]))
#按照邮件长度类别和标签进行分组groupby,抽取这两列数据相同的放到一起,
# 用agg和内置函数count聚合不同长度邮件分贝是否为垃圾邮件的数量,
# reset_insex:将对象重新进行索引的构建
df2 = df.groupby(["content_length_type","label"])["label"].agg(["count"]).reset_index()
#label == 1:是垃圾邮件,对长度和数量进行重命名,count命名为c1
df3 = df2[df2.label == 1][["content_length_type","count"]].rename(columns={"count":"c1"})
df4 = df2[df2.label == 0][["content_length_type","count"]].rename(columns={"count":"c2"})
df5 = pd.merge(df3,df4)  #数据集的合并,pandas.merge可依据一个或多个键将不同DataFrame中的行连接起来df5["c1_rage"] = df5.apply(lambda r:r["c1"]/(r["c1"]+r["c2"]),axis=1)   #按行进行统计
df5["c2_rage"] = df5.apply(lambda r:r["c2"]/(r["c1"]+r["c2"]),axis=1)
print(df5.head())#画图
plt.plot(df5["content_length_type"],df5["c1_rage"],label=u"垃圾邮件比例")
plt.plot(df5["content_length_type"],df5["c2_rage"],label=u"正常邮件比例")
plt.xlabel(u"邮件长度标记")
plt.ylabel(u"邮件比例")
plt.grid(True)
plt.legend(loc=0)
plt.savefig("垃圾和正常邮件比例.png")
plt.show()

运行结果:


(五)添加信号量

#6、特征工程之五 ==> 添加信号量
def precess_content_sema(x):if x>10000:return 0.5/np.exp(np.log10(x)-np.log10(500))+np.log(abs(x-500)+1)-np.log(abs(x-10000))+1else:return 0.5/np.exp(np.log10(x)-np.log10(500))+np.log(abs(x-500)+1)+1a = np.arange(1,20000)
plt.plot(a,list(map(lambda t:precess_content_sema(t),a)),label=u"信息量")
plt.grid(True)
plt.legend(loc=0)
plt.savefig("信息量.png")
plt.show()df["content_sema"] = list(map(lambda st:precess_content_sema(st),df["content_length"]))
print(df.head(2))
#查看列名称
print(df.dtypes)#获取需要的列,drop删除不需要的列
df.drop(["from","to","date","content","to_address","from_address","date_week","date_hour","date_time_quantum","content_length","content_length_type"],1,inplace=True)
print(df.info())
print(df.head())#结果输出到CSV文件中
df.to_csv("../data/result_process02",encoding="utf-8",index=False)

运行结果:

              




六、模型效果评估


#!/usr/bin/env python
# -*- coding:utf-8 -*-
# Author:ZhengzhengLiuimport time
import numpy as np
import pandas as pd
import matplotlib as mpl
import matplotlib.pyplot as pltfrom sklearn.feature_extraction.text import CountVectorizer,TfidfVectorizer
from sklearn.model_selection import train_test_split
from sklearn.decomposition import TruncatedSVD  #降维
from sklearn.naive_bayes import BernoulliNB     #伯努利分布的贝叶斯公式
from sklearn.metrics import f1_score,precision_score,recall_score## 设置字符集,防止中文乱码
mpl.rcParams['font.sans-serif']=[u'simHei']
mpl.rcParams['axes.unicode_minus']=False#1、文件数据读取
df = pd.read_csv("../data/result_process02",encoding="utf-8",sep=",")
#如果有nan值,进行上删除操作
df.dropna(axis=0,how="any",inplace=True)    #删除表中含有任何NaN的行
print(df.head())
print(df.info())#2、数据分割
x_train,x_test,y_train,y_test = train_test_split(df[["has_date","jieba_cut_content","content_sema"]],df["label"],test_size=0.2,random_state=0)
print("训练数据集大小:%d" %x_train.shape[0])
print("测试数据集大小:%d" %x_test.shape[0])
print(x_train.head())#3、开始模型训练
#3.1、特征工程,将文本数据转换为数值型数据
transformer = TfidfVectorizer(norm="l2",use_idf=True)
svd = TruncatedSVD(n_components=20)     #奇异值分解,降维
jieba_cut_content = list(x_train["jieba_cut_content"].astype("str"))
transformer_model = transformer.fit(jieba_cut_content)
df1 = transformer_model.transform(jieba_cut_content)
svd_model = svd.fit(df1)
df2 = svd_model.transform(df1)data = pd.DataFrame(df2)
print(data.head())
print(data.info())#3.2、数据合并
data["has_date"] = list(x_train["has_date"])
data["content_sema"] = list(x_train["content_sema"])
print("========数据合并后的data信息========")
print(data.head())
print(data.info())t1 = time.time()
nb = BernoulliNB(alpha=1.0,binarize=0.0005) #贝叶斯分类模型构建
model = nb.fit(data,y_train)
t = time.time()-t1
print("贝叶斯模型构建时间为:%.5f ms" %(t*1000))#4.1 对测试数据进行转换
jieba_cut_content_test = list(x_test["jieba_cut_content"].astype("str"))
data_test = pd.DataFrame(svd_model.transform(transformer_model.transform(jieba_cut_content_test)))
data_test["has_date"] = list(x_test["has_date"])
data_test["content_sema"] = list(x_test["content_sema"])
print(data_test.head())
print(data_test.info())#4.2 对测试数据进行测试
y_predict = model.predict(data_test)#5、效果评估
print("准确率为:%.5f" % precision_score(y_test,y_predict))
print("召回率为:%.5f" % recall_score(y_test,y_predict))
print("F1值为:%.5f" % f1_score(y_test,y_predict))


运行结果:


           

                






http://chatgpt.dhexx.cn/article/QKBHMFty.shtml

相关文章

多线程的闭锁和栅栏

多线程的闭锁和栅栏 JAVA并发包中有三个类用于同步一批线程的行为&#xff0c;分别是闭锁&#xff08;Latch&#xff09;&#xff0c;信号灯&#xff08;Semaphore&#xff09;和栅栏&#xff08;CyclicBarrier&#xff09;。这里我们主要来介绍一下&#xff1a; 闭锁&#x…

分布式锁(Distributed Lock)理论介绍

在多线程环境中&#xff0c;线程之间通常使用互斥锁实现共享资源的独占访问。在多进程环境&#xff0c;特别是分布式环境&#xff0c;常使用分布式锁来实现共享资源的独占访问。简单来说&#xff0c;分布式锁就是指在分布式环境下&#xff0c;通过加解锁实现多节点对共享资源的…

迟滞电路 平稳欠压和过压闭锁

下述的等式假设比较器输入端的输入偏置电流为0&#xff0c;而示例只考虑了电阻比&#xff0c;而未考虑绝对值。比较器输入同时具有输入失调电压(VOS)、参考误差&#xff08;也可以与VOS合并&#xff09;&#xff0c;以及输入偏置电流或漏电流(ILK)。如果分压器偏置电流&#xf…

偏向锁

流程讲解 当JVM启用了偏向锁模式&#xff08;JDK6以上默认开启&#xff09;&#xff0c;新创建对象的Mark Word中的Thread Id为0&#xff0c;说明此时处于可偏向但未偏向任何线程&#xff0c;也叫做匿名偏向状态(anonymously biased)。 偏向锁逻辑 1.线程A第一次访问同步块时&…

什么是间隙锁?

什么是间隙锁? 间隙锁是一个在索引记录之间的间隙上的锁。 间隙锁的作用 保证某个间隙内的数据在锁定情况下不会发生任何变化。比如mysql默认隔离级别下的可重复读(RR)。 当使用唯一索引来搜索唯一行的语句时,不需要间隙锁定。如下面语句的id列有唯一索引,此时只会对id值…

锁消除、锁粗化、偏向锁、适应性锁

文章目录 锁消除锁粗化偏向锁适应性锁 锁消除 锁消除是JIT编译器对内部锁实现的一种优化。JIT可以借助逃逸分析来判断同步块的锁对象是否只是被一个线程访问&#xff0c;如果是的话&#xff0c;则在编译期间不生成内部锁的申请与释放对应的机器码&#xff0c;即消除了锁的使用…

多线程并发之CountDownLatch(闭锁)使用详解

专题相关文章&#xff1a; 从内存可见性看Volatile、原子变量和CAS算法 多线程并发之CountDownLatch(闭锁)使用详解 多线程并发之显示锁Lock与其通信方式Condition源码解读 多线程并发之读写锁(ReentranReadWriteLock&ReadWriteLock)使用详解 多线程并发之线程池Executor与…

【ABAQUS】什么是剪切闭锁?剪切闭锁会导致什么?

“完全积分”是指当单元具有规则形状时&#xff0c;对单元刚度矩阵中的多项式项进行精确积分所需的高斯点数。对于六面体和四边形元素&#xff0c;“规则形状”意味着边缘是直的&#xff0c;并以直角相交&#xff0c;任何边缘节点都位于边缘的中点。 完全积分的线性元素在每个…

电力“五防”闭锁系统

&#xff08;转载&#xff09; 电力“五防”闭锁系统 随着电子技术在各个行业领域的飞速发展&#xff0c;电力的“五防”也将发生革命性的转变。现代电力系统规模不断扩大&#xff0c;从而促使电压的等级也得到了进一步提高。为了使电力系统的安全稳定运行能够得以充分保障&am…

【LB-1A 100V电压回路断相闭锁继电器】

系列型号 LB-1A电压回路断相闭锁继电器 LB-1A闭锁继电器 1 用途 LB-1A型电压回路断相闭锁继电器&#xff08;以下简称继电器&#xff09;是在交流电压回路断线而可能引起继电保护误动作时&#xff0c;对继电保护进行闭锁。该继电器用于中性点非直接接地系统中。 2 结构与工作原…

间隙锁

一.几个基本概念 行锁&#xff1a;给某一行加的锁间隙锁&#xff1a;就是两个值之间的间隙。为了解决幻读问题&#xff0c;InnoDB 只好引入新的锁&#xff0c;也就是 间隙锁 (Gap Lock)。间隙锁Gap,左右都是开区间&#xff0c;间隙锁行锁合称next-key lock,每个 next-key lock…

闭锁,信号量,栅栏

1. 闭锁&#xff08;countDownLatch&#xff09; 1.1. 作用&#xff1a; 相当于一扇门&#xff0c;在闭锁到达结束状态之前&#xff0c;这扇门是关着的&#xff0c;所以的线程都不允许通过&#xff0c;当闭锁到达结束状态&#xff0c;这扇门打开并允许所有的线程通过。在…

visio 2010激活教程

一、下载office2010toolkit.zip 若下载链接失效&#xff0c;手动搜索office2010toolkit http://ys-c.ys168.com/605279628/o4W138W45JIPI5SiuWf5/office2010toolkit.zip二、激活 激活过程中需要关闭office套件

Microsoft Visio Professional 2013 安装步骤

1.打开解压后的文件夹&#xff0c;点击setup.exe安装 2.勾选我接受此协议的条款&#xff0c;继续 3.点击立即安装 4.安装完成&#xff0c;关闭。 5.打开第一步解压的文件夹中破解文件夹&#xff0c;鼠标右键以管理员身份运行 6.点击激活office2013VL 7.激活完成 Microsoft Visi…

激活Visio2013

最近需要用Visio&#xff0c;由于密钥过期了&#xff0c;也不知道怎么重新输密钥&#xff0c;于是网上搜索&#xff0c;终于找到了一个方法。 KMSpico工具&#xff0c;安装完后直接打开点击左边红色按钮就可以了。如图&#xff1a; 最后附上工具链接https://pan.baidu.com/s/1…

机器学习十大算法之-CART分类决策树、回归树和模型树

转载&#xff08;http://blog.163.com/zhoulili1987619126/blog/static/35308201201542731455261/&#xff09; Classification And Regression Tree(CART)是决策树的一种&#xff0c;并且是非常重要的决策树&#xff0c;属于Top Ten Machine Learning Algorithm。顾名思义&…

决策树入门以及树模型的参数选择

决策树及树模型的参数选择 决策树的基本概念 在数据结构中树是一个重要的数据结构&#xff0c;这里树被我们根据分支起到一个决策的作用。什么是决策&#xff1f;通俗的说就是判断或者决定&#xff0c;我们引用周志华的西瓜书中的例子&#xff1a;这是一个好瓜吗&#xff1f;当…

gbdt、xgb、lgb决策树模型

目录 1.决策树1.1 CART分类树1.2 CART回归树 2.gbdt3.xgboost4.lightgbm5.模型对比6.参考文献 本文主要对决策树、gbdt、xgboost、lightgbm、catboost进行简述和整理&#xff0c;包括模型原理、优劣性等内容 1.决策树 决策树是一种通过对历史数据进行测算&#xff0c;对新数据…

树模型与线性模型的融合模型(Python实现)

目录 一、树模型与线性模型的融合模型 二、Python sklearn实现GBDTLR融合模型 一、树模型与线性模型的融合模型 树模型GBDT原理&#xff1a;https://blog.csdn.net/woniu201411/article/details/83114226 线性模型LR原理&#xff1a;https://blog.csdn.net/woniu201411/art…