Hands-on-data-analysis 动手数据分析

article/2025/10/13 1:10:48

动手数据分析笔记

第一章

第一节 数据载入及初步观察

数据载入

df = pd.read_csv('file_path')df2 = pd.read_table('file_path')
read_csv 函数

见CSDN 博客: https://blog.csdn.net/weixin_39175124/article/details/79434022

问:read_csv 和 read_table 区别?
函数说明
read_csv从文件、URL、文件型对象中加载带分隔符的数据。默认分隔符为逗号
read_table从文件、URL、文件型对象中加载带分隔符的数据。默认分隔符为制表符(’\t’)
read_fwf读取定宽列格式数据(也就说,没有分隔符)
read_clipboard读取剪贴板中的数据,可以看作read_table的剪贴板,在将网页转换为表格时很有用。
问:什么是逐块读取?为什么要逐块读取呢?
chunker = pd.read_csv('train.csv', chunksize=1000)

chunksize参数可以进行逐块加载。经测试,它的本质就是将文本分成若干块,每次处理chunksize行的数据,最终返回一个TextParser对象

chunker = pd.read_csv("data.csv",chunksize=5)for piece in chunker:print(type(piece))#<class 'pandas.core.frame.DataFrame'>print(len(piece))

查看数据基本信息

相关函数
函数说明
df.info()df.info():查看索引、数据类型和内存信息
df.head(m)查看表格前m行数据
df.tail(n)查看表格后n行数据
df.isnull().head()判断数据是否为空,有空的地方返回True, 其余地方返回False
df.shape()查看数据列数和行数
df.describe()查看数值型列的汇总统计
df["列名"].unique()得到Series中的唯一值数组
df["列名"].value_counts()计算各值出现的次数
df.apply(pd.value_counts)唯一值,及其计数

预修改数据

函数
函数说明
df = pd.read_csv('url', names=[''], ``index_col='', header=0)通过names,修改表头,index_col为行标签,header=0 ,以第0行为表头
df.insert(i,'c','data')在第i个位置,c为列名,data为数据
df['C'] = data在最后一列, C为列名,data为数据

保存数据

函数
函数说明
df.to_csv('train_chinese.csv')在工作目录下新建一个’train_chinese.csv’文件 (修改后的)

第二节 Pandas基础

Pandas 中的两种数据类型

DateFrame

二维的表格型数据结构,可以将DataFrame理解为Series的容器。

例:

df = {'Years':[2001,2002,2003,2004,2005],'boold':[true,false,true,true,false],'strd':'1','2','3','4','5'}
Series

一维数组,与Numpy中的一维array类似。二者与Python基本的数据结构List也很相近。Series如今能保存不同种数据类型,字符串、boolean值、数字等都能保存在Series中。

例:

sdata = {'boold':true,'year':2002,'strd':'Series'}

操作数据

任务函数
查看每一列的项(查看表头)df.columns
查看某一列df['列名'].head()/ df.列名.head()
删除某行df.drop(['行名','行名'])
df.drop(df.index[0], inplace=True) #删除第一行
df.drop(df.index[0:3], inplace=True) #删除前三行
删除某列del df[A] #就地修改
df = df.drop(['B', 'C'], axis=1) #不会就地修改,创建副本返回
df.drop(['B', 'C'], axis=1, inplace=True)#就地修改
df.drop(df.columns[0], axis=1, inplace=True) # 删除第1列
隐藏某列df.drop(['PassengerId','Name','Age','Ticket'],axis=1).head()
筛选操作(通过名称筛选)df.loc["行1","行2"] df.loc[:,"列1":"列2"] df.loc[:,["列名"]]
df[df.年龄 > 20].head() #筛选楚年龄大于20的并展示
筛选操作 (通过序号)df.iloc[[100,105,108],2:5] #筛选行编号,列编号
布尔筛选& --> and | --> or ~ --> not #逻辑符号对应
df [ (条件1) 逻辑符号 (条件二) 逻辑符号 (条件三)]
df[df.年龄>20,["年龄"]] #筛选出年龄大于二十,只显示年龄字段
重置索引reset_index(drop=True) #drop=True 不保留原来index
reindex 参数说明

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FVE2u03z-1627401371817)(https://i.loli.net/2020/08/18/VoMRsav6qWArX9h.png)]

第三节 探索性数据分析

了解数据

数据排序
函数说明
df.sort_index(axis=0)对行索引升序排列
df.sort_index(axis=1, ascending=False)对列索引降序排列
df['列名'].sort_values()按值对Series进行排序
df.sort_values(by=['列名1','列名2'])根据某列的值进行排序
df['列名'].rank(methods='' , ascending=True)Series对原数据进行平均排名
df.rank(axis='columns')在列上进行平均排名
rank函数methods参数

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-5WqC7rCd-1627401371819)(https://i.loli.net/2020/08/18/9uNFM4WBxPnIDSG.png)]

对于泰坦尼克号数据,数据与存活率的思考
#对家庭成员进行分析
family = df['堂兄第/妹个数']+df['父母与小孩个数']
df.insert(6,'家庭人数', family)
df.head()
df.sort_values(by=["家庭人数"],ascending = False).head(10)
plt.plot(plttest["家庭人数"],plttest["是否幸存"],'ko--')

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-nNXYqQKU-1627401371820)(/home/xingyu/.config/Typora/typora-user-images/image-20200817225613356.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-A7I9OXOo-1627401371822)(https://i.loli.net/2020/08/18/YWXvxJE4Q9gz8q2.png)]

  1. 票价越高且年龄较小的,基本全部存活
  2. 家庭人数越多,存活率几乎为0

第二章

第一节 数据清洗及特征处理

数据处理

缺失值处理
缺失值观察
函数说明
df.isnull()
df.isnull().sum()[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-8mXo5BaF-1627401373038)(https://i.loli.net/2020/08/20/MyChYLmnGec8Ro1.png)]
df.info()[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3WD7fLhB-1627401373040)(https://i.loli.net/2020/08/20/1RWodQNxCpaElmt.png)]
处理缺失值
函数说明
df.dropna()根据各标签的值中是否存在缺失数据对轴标签进行过滤,可通过阈值调节对确实值的容忍度
df.fillna()用指定值或插值方法(ffill or bfill) 填充缺失数据
df.isnull()返回一个含有布尔值的对象,这些布尔值表示哪些值是缺失值/NA, 该对象的类型与源类型一样
notnullisnull的否定式
dropna()

参数:

axis: default 0指行,1为列

how: {‘any’, ‘all’}, default ‘any’指带缺失值的所有行;'all’指清除全是缺失值的

thresh: int,保留含有int个非空值的行

subset: 对特定的列进行缺失值删除处理

inplace: 这个很常见,True表示直接在原数据上更改

fillna()

参数 :

inplace: True of False

method : {‘pad’, ‘ffill’,‘backfill’, ‘bfill’, None}, default None

pad/ffill:用前一个非缺失值去填充该缺失值

backfill/bfill:用下一个非缺失值填充该缺失值

None:指定一个值去替换缺失值(缺省默认这种方式)

limit:限制填充个数

axis:修改填充方向

问:检索空缺值用np.nan要比用None好,这是为什么?
type(np.nan)  # <class 'float'>
type(None)    #<class 'NoneType'>

数值列读取数据后,空缺值的数据类型为float64所以用None一般索引不到,比较的时候最好用np.nan

对年龄(Age)缺失值处理

对年龄采用均值处理:

df['Age'].fillna(df['Age'].describe()['mean'], inplace = True)
对舱位(Cabin)处理

查看舱位基本信息

import matplotlib.pyplot as plt
x = list(k_Cabin['Cabin'].unique())
y =[]
Cabin_k = np.array([df.Cabin.isnull() & df.Survived == 1])
for i in x:tmp = 0all_people = k_Cabin['Cabin'][k_Cabin['Cabin'] == i].count()arrived_people = k_Cabin['Cabin'][(k_Cabin.Cabin == i) & (k_Cabin.Survived == 1)].count()y.append(arrived_people / all_people)
x.append('No Cabin')
y.append(np.sum(Cabin_k !=0) / Cabin_k.shape[1])
plt.plot(x,y)
plt.ylabel('Survived rate')
plt.show()

综上,客舱缺失值是无舱位,属正常现象。

客舱除T客舱外,其余存活率均维持在0.6上下,但T客舱只有一人,所以客舱无需考虑。

无客舱人数出

计算无客舱人数存活率踩坑

初步思路

#初步思路
df.Cabin[df.Cabin.isnull() & df.Survived == 1].count()
##得出结果 0     发现数据为NaN时,count()得出结果始终为0

@型 from KDD🍻的帮助下,

[df.Cabin.isnull() & df.Survived == 1],结果为长度为1的list
想到拆分list, 采用np.split(), 将list转为np.array,发现转为np.array时,直接可拆分数组。

最终结果

Cabin_k = np.array([df.Cabin.isnull() & df.Survived == 1])
print(np.sum(Cabin_k != 0))
重复值处理
函数说明
df['列名'].value_counts()查看某列的重复值,显示 数量
df['列名'].unique()只显示
df.duplicated()指定列数据重复项判断 返回:指定列重复行boolean Series
df.drop_duplicates()删除重复数据 返回:副本或替代
df.duplicated(subset=None, keep='first')
f.drop_duplicates(subset=None, keep='first', inplace=False)

参数:
subset=None:列标签或标签序列,可选# 只考虑某些列来识别重复项;默认使用所有列
keep=‘first’:{‘first’,‘last’,False}

  • first:将第一次出现重复值标记为True

  • last:将最后一次出现重复值标记为True

  • False:将所有重复项标记为True

特征处理

数值类型变量处理
分箱操作(离散化处理)

个人理解,将数据划分不同区间,降低过拟合风险。

如:年龄,划分为不同区间,分别处理

分箱操作(离散化处理) 函数 pd.cut()
pd.cut( x, bins, right=True, labels=None, retbins=False, precision=3, include_lowest=False, duplicates='raise', )df['AgeBand'] = pd.cut(df['Age'], 5, labels = ['1','2','3','4','5'])
df['AgeBand'] = pd.cut(df['Age'], [0,5,15,30,50,80], labels = ['1','2','3','4','5'])
df['AgeBand'] = pd.qcut(df['Age'],[0,0.1,0.3,0.5,0.7,0.9],labels = ['1','2','3','4','5'])

x : 一维数组(对应前边例子中提到的销售业绩)

bins :整数,标量序列或者间隔索引,是进行分组的依据,

  • 如果填入整数n,则表示将x中的数值分成等宽的n份(即每一组内的最大值与最小值之差约相等);
  • 如果是标量序列,序列中的数值表示用来分档的分界值
  • 如果是间隔索引,“ bins”的间隔索引必须不重叠

right :布尔值,默认为True表示包含最右侧的数值

  • 当“ right = True”(默认值)时,则“ bins”=[1、2、3、4]表示(1,2],(2,3],(3,4]
  • bins是一个间隔索引时,该参数被忽略。

labels : 数组或布尔值,可选.指定分箱的标签

  • 如果是数组,长度要与分箱个数一致,比如“ bins”=[1、2、3、4]表示(1,2],(2,3],(3,4]一共3个区间,则labels的长度也就是标签的个数也要是3
  • 如果为False,则仅返回分箱的整数指示符,即x中的数据在第几个箱子里
  • 当bins是间隔索引时,将忽略此参数

retbins: 是否显示分箱的分界值。默认为False,当bins取整数时可以设置retbins=True以显示分界值,得到划分后的区间

precision:整数,默认3,存储和显示分箱标签的精度。

include_lowest:布尔值,表示区间的左边是开还是闭,默认为false,也就是不包含区间左边。

duplicates:如果分箱临界值不唯一,则引发ValueError或丢弃非唯一

文本类型变量处理
文本变量用数值表示
函数说明
df.replace()参数替换
df.map(#dict)map传入字典替换
LabelEncoderhttp://www.scikitlearn.com.cn/0.21.3/46/#592
df.replace(to_replace=None, value=None, inplace=False, limit=None, regex=False, method='pad', axis=None)#LabelEncoder 例子
from sklearn.preprocessing import LabelEncoder
for feat in ['Cabin', 'Ticket']:lbl = LabelEncoder()  label_dict = dict(zip(df[feat].unique(), range(df[feat].nunique())))df[feat + "_labelEncode"] = df[feat].map(label_dict)df[feat + "_labelEncode"] = lbl.fit_transform(df[feat].astype(str))df.head()
文字 变量one-hot编码
函数说明
pd.get_dummies()将数据转化为one-hot DataFrame
pd.concat()沿着指定轴,将DataFrame 拼接在一起
pandas.get_dummies(data, prefix=None, prefix_sep='_', dummy_na=False, columns=None, sparse=False, drop_first=False, dtype=None)

Parameters

  • dataarray-like, Series, or DataFrame

Data of which to get dummy indicators.

  • prefixstr, list of str, or dict of str, default None

String to append DataFrame column names. Pass a list with length equal to the number of columns when calling get_dummies on a DataFrame. Alternatively, prefix can be a dictionary mapping column names to prefixes.

  • prefix_sepstr, default ‘_’

If appending prefix, separator/delimiter to use. Or pass a list or dictionary as with prefix.

  • dummy_nabool, default False

Add a column to indicate NaNs, if False NaNs are ignored.

  • columnslist-like, default None

Column names in the DataFrame to be encoded. If columns is None then all the columns with object or category dtype will be converted.

  • sparsebool, default False

Whether the dummy-encoded columns should be backed by a SparseArray (True) or a regular NumPy array (False).

  • drop_firstbool, default False

Whether to get k-1 dummies out of k categorical levels by removing the first level.

  • dtypedtype, default np.uint8

Data type for new columns. Only a single dtype is allowed.New in version 0.23.0.

Returns

  • DataFrame

Dummy-coded data.

来源:官方文档

pd.concat(objs, axis=0, join='outer', join_axes=None, ignore_index=False, keys=None, levels=None, names=None, verify_integrity=False, copy=True)

objs 需要连接的对象,eg [df1, df2]
axis axis = 0, 表示在水平方向(row)进行连接 axis = 1, 表示在垂直方向(column)进行连接
join outer, 表示index全部需要; inner,表示只取index重合的部分
join_axes 传入需要保留的index
ignore_index忽略需要连接的frame本身的index。当原本的index没有特别意义的时候可以使用
keys 可以给每个需要连接的df一个label

来源:https://www.jianshu.com/p/421f040dfe2f

从Name中提取title
Series.str.extract(pat, flags=0, expand=None)

参数:
pat : 字符串或正则表达式
flags : 整型,
expand : 布尔型,是否返回DataFrame
Returns:
数据框dataframe/索引index

第二节 数据重构

数据理解

数据合并
函数说明
pd.concat横向纵向均可
df.append纵向连接
df.join横向连接,根据相同的index进行连接
pd.merge横向连接 用于通过一个或多个键将两个数据集的行连接起来,结果集的行数并没有增加,列数则为两个元数据的列数和减去连接键的数量

pd.concat(objs, axis=0,join=‘outer’,join_axes=None, ignore_index=False,keys=None, levels=None,

names=None, verify_integrity=False)

objs 需要连接的对象,eg [df1, df2]
axis axis = 0, 表示在水平方向(row)进行连接

​ axis = 1, 表示在垂直方向(column)进行连接
join outer, 表示index全部需要; inner,表示只取index重合的部分
join_axes 传入需要保留的index
ignore_index 忽略需要连接的frame本身的index。当原本的index没有特别意义的时候可以使用
keys可以给每个需要连接的df一个label

DataFrame.append(other, ignore_index=False, verify_integrity=False, sort=None)

other: 是要添加的数据,append很不挑食,这个other可以是dataframe,dict,Seris,list等等。

ignore_index: 参数为True时将在数据合并后,按照0,1,2,3…的顺序重新设置索引,忽略了旧索引。

verify_integrity:参数为True时,如果合并的数据与原数据包含索引相同的行,将报错。

DataFrame.join(other, on=None, how=‘left’,lsuffix=’’, rsuffix=’’, sort=False)

other:另一个待拼接的DataFrame或者有名称列表的Series

on:连接的列名或者index, 也就是指明2个要连接的对象之间通过哪个列名或者索引名进行连接。

how:连接方式,类似sql语句中的(left ,right,inner,outer),这里默认为’left’, 可选的参数有left, right , inner , outer lsuffix: 左边的连接Key要用的下标

rsuffix: 右边的连接Key要用的下标

sort:对拼接后的列名按照字典顺序排序,默认为False,False的时候,保留按照左边的DataFrame进行排序的顺序。

pd.merge(left, right, how=‘inner’, on=None, left_on=None, right_on=None, left_index=False, right_index=False, sort=False, suffixes=(’_x’, ‘_y’), copy=True, indicator=False,validate=None)

right:要连接的目标数据,类型为DataFrame或者带列名的Series

how:连接方式,类似sql语句中的(left,right,inner,outer),这里默认为’inner’, 可选的参数有left, right , inner , outer

on:连接的列名或者index, 也就是指明2个要连接的对象之间通过哪个列名或者索引名进行连接。

left_on: 指定左边的DataFrame以哪个列名或者索引名进行连接

right_on:指定右边的DataFrame以哪个列名或者索引名进行连接

left_index:用左边的DataFrame当做连接Key

right_index:用右边的DataFrame当做连接Key

sort:按照字典顺序对连接Key进行排序,默认为False,默认连接键的顺序取决于连接类型

suffixes:连接后的列名默认带下标 (’_x’ , ‘_y’)

copy:默认复制,如果设置为False,则尽可能的避免复制

a. 默认以相同的列名进行连接键

换角度看数据
函数说明
df.stack将数据的列索引旋转为行索引
df.unstack将数据的行索引旋转为列索引

数据聚合和运算

数据运用
GroupBy 机制

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-73eX4Gum-1627401371826)(https://i.loli.net/2020/08/23/NatSQlueA7XwR5m.png)]

根据提供的一个或多个键分离各组,然后应用函数,产生新值

将男女存活率可视化

#泰坦尼克号 groupby案例  #统计泰坦尼克号中男女存活人数
test4 = df.groupby(['Sex','Survived']).count()
test4.reset_index(['Survived'], drop = False, inplace = True)
test5 = test4[test4['Survived'] == 1]
test9 = test5.loc[:,['Sex','PassengerId']]
test9.head()import matplotlib.pyplot as plt
all_male = df['Sex'].value_counts()['male']
all_female = df['Sex'].value_counts()['female']
sur_male = test9.iloc[0,1]
sur_female = test9.iloc[1,1]
male_rate = sur_male / all_male
female_rate = sur_female / all_female
plt.bar(['male','female'],[male_rate, female_rate])
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-SBYfIOBm-1627401371827)(https://i.loli.net/2020/08/23/PSnyplRaiEwmQo5.png)]

各舱位存活率可视化

test8 = df.groupby(['Embarked','Survived']).count()
test8.reset_index(['Embarked','Survived'], drop = False, inplace = True)
rate =[]
for i in ['C','Q','S']:all_ = (test8[test8.Embarked == i]['PassengerId'].sum())sur = ((test7.loc[:,['PassengerId']]).loc[i,'PassengerId'])rate.append(sur / all_)plt.bar(['C','Q','S'],rate)
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-dKprfLwF-1627401371828)(https://i.loli.net/2020/08/23/bYJe4vQVFoSM5sn.png)]

agg函数
df.groupby('Survived').agg({'Sex': 'mean', 'Pclass': 'count'}).rename(columns={'Sex': 'mean_sex', 'Pclass': 'count_pclass'})DataFrame.agg(func,axis = 0* args,** kwargs )

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eFkw34SA-1627401371829)(https://i.loli.net/2020/08/23/yF9kfEBLUSbNovM.png)]

第三节 数据可视化

设置颜色和格式

import numpy as np
from matplotlib import pyplot as plty=np.arange(1,5)
plt.plot(y,color='m')
plt.plot(y+1,color='#CFA02F')
plt.plot(y+2,color=(0.2,0.4,0.5))
plt.plot(y+3,color='0.8')  # 0.8代表灰色的深度
plt.show()

  1. 八种内建颜色缩写
    b: blue
    g: green
    r: red
    c: cyan(青色,介于绿色和蓝色之间)
    m: magenta(洋红色,介于红色和紫色之间)
    y: yellow
    k: black
    w: white
  2. html十六进制表示颜色
  3. rgb元组
  4. 灰色阴影表示

1.线性
字符类型字符类型
'-'实线'--'虚线
'-.'虚点线':'点线
'.'','像素点
'o'圆点'v'下三角点
'^'上三角点'<'左三角点
'>'右三角点'1'下三叉点
'2'上三叉点'3'左三叉点
'4'右三叉点's'正方点
'p'五角点'*'星形点
'h'六边形点1'H'六边形点2
'+'加号点'x'乘号点
'D'实心菱形点'd'瘦菱形点
'_'横线点
import numpy as np
from matplotlib import pyplot as plty=np.arange(1,5)
plt.plot(y,'^')
plt.plot(y+1,'--')
plt.plot(y+1.5,'-.')
plt.plot(y+2,':')
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-KXSewFPs-1627401371831)(https://i.loli.net/2020/08/24/gYmEy46keBZnQJv.png)]

散点图

import numpy as np
from matplotlib import pyplot as pltX=np.random.randint(10,10000,1000)
Y=np.random.randint(10,10000,1000)
plt.scatter(X,Y,s=20,c='r',alpha=0.5)  #散点图,s是点的大小(面积),默认是20,c是颜色,alpha是透明度
plt.show()

多图绘制
import numpy as np 
import matplotlib.pyplot as plt 
# 计算正弦和余弦曲线上的点的 x 和 y 坐标 
x = np.arange(-np.pi,  np.pi,  0.1) 
y_sin = np.sin(x) 
y_cos = np.cos(x)  
# 建立 subplot 网格,高为 2,宽为 1  
# 激活第一个 subplot
plt.subplot(2,  1,  1)  
# 绘制第一个图像 
plt.plot(x, y_sin) 
plt.title('Sine')  
# 将第二个 subplot 激活,并绘制第二个图像
plt.subplot(2,  1,  2) 
plt.plot(x, y_cos) 
plt.title('Cosine')  
# 展示图像
plt.show()

折线图
import numpy as np
from matplotlib import pyplot as pltX=np.arange(0,10,0.1)
Y=np.random.randint(0,10000,size=(100,))
plt.plot(X,Y,c='r',alpha=0.5)  
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-kcPcZZ6o-1627401371833)(https://i.loli.net/2020/08/24/sBUIFbptHCjyEr5.png)]

条形图
import numpy as np
from matplotlib import pyplot as pltN=5
y=[20,10,30,25,15]
index=np.arange(N)
'''
left为x轴的位置序列(index)
height为y轴的数值序列,也就是柱形图的高度(y)
width为柱形图的宽度
'''
plt.bar(index,y,color='red',width=0.5)
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ySstylQZ-1627401371833)(https://i.loli.net/2020/08/24/lLBvszdDcwtV4Fj.png)]

绘制水平条形图
import numpy as np
from matplotlib import pyplot as pltN=5
y=[20,10,30,25,15]
index=np.arange(N)
plt.barh(index,y,color='green',height=0.8)
plt.show()

多个条形图
import numpy as np
from matplotlib import pyplot as pltN=5
y=[20,10,30,25,15]
y2=[14,30,22,18,25]
index=np.arange(N)
'''
left为x轴的位置序列(index)
height为y轴的数值序列,也就是柱形图的高度(y)
width为柱形图的宽度
'''
plt.bar(index,y,color='red',width=0.3)
plt.bar(index+0.3,y2,color='yellow',width=0.3)
plt.show()

层叠图
import numpy as np
from matplotlib import pyplot as pltN=5
y=[20,10,30,25,15]
y2=[14,30,22,18,25]
index=np.arange(N)
'''
left为x轴的位置序列(index)
height为y轴的数值序列,也就是柱形图的高度(y)
width为柱形图的宽度
'''
plt.bar(index,y,color='red',width=0.3)
plt.bar(index,y2,color='yellow',width=0.3,bottom=y)
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DO1OomOc-1627401371836)(https://i.loli.net/2020/08/24/rvmOn9b8hBjUt4P.png)]

直方图
import numpy as np
from matplotlib import pyplot as pltaverage=100
devation=20
X=average+devation*np.random.randn(1000)  #在服从标准正态分布的数据中取1000个随机数
'''
画直方图函数的参数:
bins:长方形的数目
normed :为True是频率图,False是频数图,默认为False
'''
plt.hist(X,bins=10,color='red',normed=True)
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-ZFoMxVMO-1627401371837)(https://i.loli.net/2020/08/24/VYLa4nZugjhTbPR.png)]

双变量直方图(用颜色深浅表示频率大小)
import numpy as np
from matplotlib import pyplot as pltx=np.random.randn(1000)+2
y=np.random.randn(1000)+5
plt.hist2d(x,y,bins=30)
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aGslhQwd-1627401371838)(https://i.loli.net/2020/08/24/TpYezSDaGrM9Nfk.png)]

饼状图
import matplotlib.pyplot as pltlabel=['A','B','C','D']    #标签
fracs=[15,30,45,10]        #比例
plt.axes(aspect=1)
explode=[0,0.05,0.08,0]  #可以理解为扇形圆心到整个圆的圆心之间的距离
plt.pie(x=fracs,labels=label,autopct='%.0f%%',explode=explode,shadow=True)      
#autopct确定输出格式 ,%%表示一个'%'
plt.show()

箱形图

箱型图能显示出一组数据的最大值、最小值、中位数、及上下四分位数。

import matplotlib.pyplot as plt
import numpy as np
labels=['A','B','C','D','E']
np.random.seed(1)
data=np.random.normal(size=(1000,5))     #默认随机数服从正态分布(loc=0,scale=1)
'''
sym 调整好异常值的点的形状
whis 默认是1.5, 通过调整数值来设置异常值显示的数量,
如果想显示尽可能多的异常值,whis设置很小,否则很大
'''
plt.boxplot(data,labels=labels,sym='o',whis=1.25)
plt.show()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gnFNnUGR-1627401371840)(https://i.loli.net/2020/08/24/RSk8wzMZujfr4mD.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-QaN5oR2N-1627401371841)(https://i.loli.net/2020/08/24/v38eZ71PxRmfigO.png)]

Reference

CSDN: https://blog.csdn.net/qq_43212582/article/details/101473916#_120

seaborn 学习

import seaborn as sns
FacetGrid 使用
import seaborn as sns
#新建facet 类对象   df:数据  col:值有几种,就生成几个图  hue:类别  aspect:横纵比
facet = sns.FacetGrid(df, col= 'Sex',hue="Survived",aspect=3)
#sns.kdeplot:核密度估计图 'Age':横坐标 'shade':线下方阴影
facet.map(sns.kdeplot,'Age',shade=True)
# xlim x区间
facet.set(xlim=(0, df['Age'].max()))
# 显示
facet.add_legend()

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-eBbj72Nd-1627401371842)(https://i.loli.net/2020/08/25/84hOyNCdMxcslAo.png)]

kdeplot(核密度估计图)

核密度估计(kernel density estimation)是在概率论中用来估计未知的密度函数,属于非参数检验方法之一。通过核密度估计图可以比较直观的看出数据样本本身的分布特征。

基本画图
test = df.groupby(['Age','Embarked']).count()
test.reset_index(['Age','Embarked'], drop = False , inplace = True)
test1 = test.loc[:,['Age','Embarked','PassengerId']]
sns.lineplot(x='Age', y='PassengerId' ,hue = 'Embarked', data=test1)

test1.head()

AgeEmbarkedPassengerId
00.42C1
10.67S1
20.75C2
30.83S2
40.92S1

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-DrmFbFUe-1627401371842)(https://i.loli.net/2020/08/25/gacUSmjVw8A4sTu.png)]

第三章 模型建立与评估

模型建立

  • 处理完前面的数据我们就得到建模数据,下一步是选择合适模型
  • 在进行模型选择之前我们需要先知道数据集最终是进行监督学习还是无监督学习
  • 模型的选择一方面是通过我们的任务来决定的。
  • 除了根据我们任务来选择模型外,还可以根据数据样本量以及特征的稀疏性来决定
  • 刚开始我们总是先尝试使用一个基本的模型来作为其baseline,进而再训练其他模型做对比,最终选择泛化能力或性能比较好的模型

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-qRUlQ9nL-1627401371843)(https://i.loli.net/2020/08/26/kmY57g8iLVCwHEa.png)]

切割训练集和测试集

from sklearn.model_selection import train_test_split
x = clear_df
y = df['Survived']
X_train,X_test, y_train, y_test =train_test_split(x,y,stratify=y, random_state=0)
train_test_split (*arrays,test_size, train_size, rondom_state=None, shuffle=True, stratify=None)

arrays:特征数据和标签数据(array,list,dataframe等类型),要求所有数据长度相同。

test_size / train_size: 测试集/训练集的大小,若输入小数表示比例,若输入整数表示数据个数。

rondom_state:随机种子(一个整数),其实就是一个划分标记,对于同一个数据集,如果rondom_state相同,则划分结果也相同。

shuffle:是否打乱数据的顺序,再划分,默认True。

stratify:none或者array/series类型的数据,表示按这列进行分层采样。

逻辑回归

LogisticRegression(C=100, class_weight=None, dual=False, fit_intercept=True,intercept_scaling=1, l1_ratio=None, max_iter=100,multi_class='auto', n_jobs=None, penalty='l2',random_state=None, solver='lbfgs', tol=0.0001, verbose=0,warm_start=False)
常用方法
  • fit(X, y, sample_weight=None)

    • 拟合模型,用来训练LR分类器,其中X是训练样本,y是对应的标记向量
    • 返回对象,self。
  • fit_transform(X, y=None, **fit_params)

    • fit与transform的结合,先fit后transform。返回X_new:numpy矩阵。
  • predict(X)

    • 用来预测样本,也就是分类,X是测试集。返回array。
  • predict_proba(X)

    • 输出分类概率。返回每种类别的概率,按照分类类别顺序给出。如果是多分类问题,multi_class=“multinomial”,则会给出样本对于每种类别的概率。
    • 返回array-like。
  • score(X, y, sample_weight=None)

  • 返回给定测试集合的平均准确率(mean accuracy),浮点型数值。

    • 对于多个分类返回,则返回每个类别的准确率组成的哈希矩阵。
from sklearn.linear_model import LogisticRegression
model = LogisticRegression(penalty='l2',solver='liblinear')
model.fit(X_train, y_train)
model.score(X_test, y_test)

决策树

DecisionTreeClassifier(*, criterion='gini', splitter='best', max_depth=None, 							min_samples_split=2, min_samples_leaf=1, 										min_weight_fraction_leaf=0.0, max_features=None, 								random_state=None, max_leaf_nodes=None, 										min_impurity_decrease=0.0, min_impurity_split=None, 							class_weight=None, presort='deprecated', ccp_alpha=0.0)

随机森林

RandomForestClassifier(bootstrap=True, ccp_alpha=0.0, class_weight=None,criterion='gini', max_depth=None, max_features='auto',max_leaf_nodes=None, max_samples=None,min_impurity_decrease=0.0, min_impurity_split=None,min_samples_leaf=1, min_samples_split=2,min_weight_fraction_leaf=0.0, n_estimators=100,n_jobs=None, oob_score=False, random_state=None,verbose=0, warm_start=False)

模型评估

交叉验证

from sklearn.model_selection import cross_val_score
lr = LogisticRegression(C=100,solver='liblinear')
scores = cross_val_score(lr, X_train, y_train, cv=10)
print("Average cross-validation score: {:.2f}".format(scores.mean()))

混淆矩阵

类偏科的误差度量

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-QUcRsOod-1627401371845)(https://i.loli.net/2020/08/27/xrNwvLUVy83TqHp.png)]

情况英文预测实际
正确肯定TP
正确否定TN
错误肯定FP
错误否定FN

以经典案例恶性肿瘤病人

Precision 查准率 = T P T P + F P \frac {TP}{TP+FP} TP+FPTP , 所有预测有恶性肿瘤的病人中,实际上有恶性肿瘤病人的百分比

Recall 查全率 = T P T P + F N \frac {TP}{TP+FN} TP+FNTP ,实际上有恶性肿瘤的病人中,成功预测的百分比

From 吴恩达机器学习笔记

  1. 构造简单学习算法
  2. 用交叉验证集数据测试算法
  3. 绘制学习曲线
  4. 进行误差分析
from sklearn.metrics import confusion_matrix
#训练模型
lr = LogisticRegression(C=100,solver='liblinear')
lr.fit(X_train, y_train)
pred = lr.predict(X_train)
#构建混淆矩阵
confusion_matrix(y_train, pred)from sklearn.metrics import classification_report
#精确率、召回率以及f1-score
print(classification_report(y_train, pred))

ROC曲线

什么是ROC曲线

ROC的全称是Receiver Operating Characteristic Curve,中文名字叫“受试者工作特征曲线”,顾名思义,其主要的分析方法就是画这条特征曲线。这里在网上找了一个比较好的图样示例如下,

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gY0I0BJk-1627401371849)(https://i.loli.net/2020/08/27/4nCGewr6PAKJZa8.png)]

该曲线的横坐标为假阳性率(False Positive Rate, FPR),N是真实负样本的个数,
FP是N个负样本中被分类器预测为正样本的个数。

纵坐标为真阳性率(True Positive Rate, TPR)

P是真实正样本的个数,
TP是P个正样本中被分类器预测为正样本的个数。
$$
TPR = \frac {TP}{TF + FN} ,\space \space FPR = \frac{FP}{FP+TN}

$$

绘制步骤
  1. 假设已经得出一系列样本被划分为正类的概率Score值,按照大小排序。
  2. 从高到低,依次将“Score”值作为阈值threshold,当测试样本属于正样本的概率大于或等于这个threshold时,我们认为它为正样本,否则为负样本。举例来说,对于某个样本,其“Score”值为0.6,那么“Score”值大于等于0.6的样本都被认为是正样本,而其他样本则都认为是负样本。
  3. 每次选取一个不同的threshold,得到一组FPR和TPR,以FPR值为横坐标和TPR值为纵坐标,即ROC曲线上的一点。
  4. 根据3中的每个坐标点,画图。
利用ROC曲线评价模型性能——AUC(Area Under Curve)

AUC表示ROC曲线下的面积,主要用于衡量模型的泛化性能,即分类效果的好坏。AUC是衡量二分类模型优劣的一种评价指标,表示正例排在负例前面的概率。一般在分类模型中,预测结果都是以概率的形式表现,如果要计算准确率,通常都会手动设置一个阈值来将对应的概率转化成类别,这个阈值也就很大程度上影响了模型准确率的计算。

之所以采用AUC来评价,主要还是考虑到ROC曲线本身并不能直观的说明一个分类器性能的好坏,而AUC值作为一个数量值,具有可比较性,可以进行定量的比较。

AUC值的计算方法

  • 将坐标点按照横坐标FPR排序 。
  • 计算第 i i i个坐标点和第 i + 1 i+1 i+1个坐标点的间距 d x dx dx
  • 获取第 i i i或者个 i + 1 i+1 i+1坐标点的纵坐标y。
  • 计算面积微元 d s = y d x ds = ydx ds=ydx
  • 对面积微元进行累加,得到AUC。

AUC值对模型性能的判断标准

  1. AUC = 1,是完美分类器,采用这个预测模型时,存在至少一个阈值能得出完美预测。绝大多数预测的场合,不存在完美分类器。
  2. 0.5 < AUC < 1,优于随机猜测。这个分类器(模型)妥善设定阈值的话,能有预测价值。
  3. AUC = 0.5,跟随机猜测一样(例:丢铜板),模型没有预测价值。
  4. AUC < 0.5,比随机猜测还差;但只要总是反预测而行,就优于随机猜测。

利用ROC曲线选择最佳模型

首先了解一下ROC曲线图上很重要的四个点:

  1. 第一个点 ( 0 , 1 ) (0,1) (0,1),即FPR=0, TPR=1,这意味着FN(False Negative)=0,并且FP(False Positive)=0。意味着这是一个完美的分类器,它将所有的样本都正确分类。
  2. 第二个点 ( 1 , 0 ) (1,0) (1,0),即FPR=1,TPR=0,意味着这是一个最糟糕的分类器,因为它成功避开了所有的正确答案。
  3. 第三个点 ( 0 , 0 ) (0,0) (0,0),即FPR=TPR=0,即FP(False Positive)=TP(True Positive)=0,可以发现该分类器预测所有的样本都为负样本(Negative)。
  4. 第四个点 ( 1 , 1 ) (1,1) (1,1),即FPR=TPR=1,分类器实际上预测所有的样本都为正样本。

==ROC曲线图中,越靠近(0,1)的点对应的模型分类性能越好。==而且可以明确的一点是,ROC曲线图中的点对应的模型,它们的不同之处仅仅是在分类时选用的阈值(Threshold)不同,每个点所选用的阈值都对应某个样本被预测为正类的概率值。

不同模型之间选择最优模型

当然最直观的比较方式就是基于AUC值,不同的模型对应的ROC曲线中,AUC值大的模型性能自然相对较好。而当AUC值近似相等时,有两种情况:第一种是ROC曲线之间没有交点;第二种是ROC曲线之间存在交点。在两个模型AUC值相等时,并不代表两个模型的分类性能也相等。

ROC曲线之间没有交点

如下图所示,A,B,C三个模型对应的ROC曲线之间交点,且AUC值是不相等的,此时明显更靠近(0,1)(0,1)(0,1)点的A模型的分类性能会更好。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-w564uonb-1627401371849)(https://i.loli.net/2020/08/27/hvOB2TbqFog5aSN.png)]

ROC曲线之间存在交点

如下图所示,模型A、B对应的ROC曲线相交却AUC值相等,此时就需要具体问题具体分析:当需要高Sensitivity值时,A模型好过B;当需要高Specificity值时,B模型好过A。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-rdX4UNK5-1627401371850)(https://i.loli.net/2020/08/27/EhDiQLOwbZFjS4z.png)]

更多参考 : https://blog.csdn.net/qq_30992103/article/details/99730059

对于多分类的ROC

经典的ROC曲线适用于对二分类问题进行模型评估,通常将它推广到多分类问题的方式有两种:

  1. 对于每种类别,分别计算其将所有样本点的预测概率作为阈值所得到的 T P R TPR TPR值(是这种类别为正,其他类别为负),最后将每个取定的阈值下,对应所有类别的 T P R TPR TPR值和 F P R FPR FPR值分别求平均,得到最终对应这个阈值的 T P F TPF TPF和$F PR $值
  2. 首先,对于一个测试样本:1)标签只由0和1组成,1的位置表明了它的类别(可对应二分类问题中的‘’正’’),0就表示其他类别(‘’负‘’);2)要是分类器对该测试样本分类正确,则该样本标签中1对应的位置在概率矩阵P中的值是大于0对应的位置的概率值的。

上面的两个方法得到的ROC曲线是不同的,当然曲线下的面积AUC也是不一样的。 在python中,方法1和方法2分别对应sklearn.metrics.roc_auc_score函数中参数average值为’macro’和’micro’的情况。

True Positive)=0,可以发现该分类器预测所有的样本都为负样本(Negative)。
4. 第四个点 ( 1 , 1 ) (1,1) (1,1),即FPR=TPR=1,分类器实际上预测所有的样本都为正样本。

==ROC曲线图中,越靠近(0,1)的点对应的模型分类性能越好。==而且可以明确的一点是,ROC曲线图中的点对应的模型,它们的不同之处仅仅是在分类时选用的阈值(Threshold)不同,每个点所选用的阈值都对应某个样本被预测为正类的概率值。

不同模型之间选择最优模型

当然最直观的比较方式就是基于AUC值,不同的模型对应的ROC曲线中,AUC值大的模型性能自然相对较好。而当AUC值近似相等时,有两种情况:第一种是ROC曲线之间没有交点;第二种是ROC曲线之间存在交点。在两个模型AUC值相等时,并不代表两个模型的分类性能也相等。

ROC曲线之间没有交点

如下图所示,A,B,C三个模型对应的ROC曲线之间交点,且AUC值是不相等的,此时明显更靠近(0,1)(0,1)(0,1)点的A模型的分类性能会更好。

[外链图片转存中…(img-w564uonb-1627401371849)]

ROC曲线之间存在交点

如下图所示,模型A、B对应的ROC曲线相交却AUC值相等,此时就需要具体问题具体分析:当需要高Sensitivity值时,A模型好过B;当需要高Specificity值时,B模型好过A。

[外链图片转存中…(img-rdX4UNK5-1627401371850)]

更多参考 : https://blog.csdn.net/qq_30992103/article/details/99730059

对于多分类的ROC

经典的ROC曲线适用于对二分类问题进行模型评估,通常将它推广到多分类问题的方式有两种:

  1. 对于每种类别,分别计算其将所有样本点的预测概率作为阈值所得到的 T P R TPR TPR值(是这种类别为正,其他类别为负),最后将每个取定的阈值下,对应所有类别的 T P R TPR TPR值和 F P R FPR FPR值分别求平均,得到最终对应这个阈值的 T P F TPF TPF和$F PR $值
  2. 首先,对于一个测试样本:1)标签只由0和1组成,1的位置表明了它的类别(可对应二分类问题中的‘’正’’),0就表示其他类别(‘’负‘’);2)要是分类器对该测试样本分类正确,则该样本标签中1对应的位置在概率矩阵P中的值是大于0对应的位置的概率值的。

上面的两个方法得到的ROC曲线是不同的,当然曲线下的面积AUC也是不一样的。 在python中,方法1和方法2分别对应sklearn.metrics.roc_auc_score函数中参数average值为’macro’和’micro’的情况。


http://chatgpt.dhexx.cn/article/mULbibhZ.shtml

相关文章

python数据分析-因子分析(转载)

python数据分析-因子分析&#xff08;转载&#xff09; &#xff08;获取更多知识&#xff0c;前往前往我的wx ————公z号 &#xff08;程式解说&#xff09; 原文来自python数据分析-因子分析

ThreeJs 数据可视化学习扫盲

一&#xff1a;前言 数据可视化是一个跨领域的行业&#xff0c;其中包含了图形学、数学、视觉传达等专业领域。 下图罗列出了一个简单的学习方向。 二&#xff1a;可视化方案以及学习路线 目前采用的是比较成熟&#xff0c;社区活跃度更高的Three.js&#xff0c;它是一个开源…

数据处理以及Hive数据分析

数据处理以及Hive数据分析 一、pandas进行数据预处理【1】待处理的一部分数据【2】原始数据文件的格式说明【3】数据预处理要求【4】 处理完成的数据字段说明【5】 实验方法使用pandas进行数据预处理 【6】解析题意【7】代码展示&#xff08;1&#xff09;读取文件&#xff08;…

Python交互式数据分析报告框架~Dash介绍

原文作者&#xff1a;Plotly,Chris Pamer 原文链接&#xff1a; https://link.jianshu.com/?thttps%3A%2F%2Fmedium.com%2F%40plotlygraphs%2Fintroducing-dash-5ecf7191b503 译者序&#xff1a;原文于2017年6月21日发布&#xff0c;时过半载&#xff0c;将这篇既不是教程…

CESI: Canonicalizing Open Knowledge Bases using Embeddings and Side Information

开放性知识库的规范化&#xff08;个人理解&#xff1a;这里的规范化实际上就是将相同语义的实体或关系聚集在一起&#xff0c;从而表示一个实体或关系&#xff09;&#xff0c;主要是OPENie提取的过程中没有进行区分&#xff0c;最近的研究发现&#xff0c;开放KBS的规范化实际…

计算机一级仿宋gb2312,仿宋gb2312字体

一般情况下&#xff0c;这款软件在试用的过程可能还有点小问题&#xff0c;但是正所谓瑕不掩瑜&#xff0c;相信用不了多久&#xff0c;只要程序猿给力点&#xff0c;这种小小的反馈不爽就可以解决。 仿宋gb2312字体字体简介 仿宋_GB2312字体是印刷字体的一种 &#xff0c;仿照…

Supervisor部署(离线部署需要提前下载部署包)

1.软件准备 下载tar包&#xff1a;wget https://pypi.python.org/packages/source/s/supervisor/supervisor-3.1.3.tar.gz 解压&#xff1a;tar -xvf supervisor-3.1.3.tar.gz 进入解压包&#xff1a;cd supervisor-3.1.3 开始安装&#xff1a;python setup.py install 下载me…

Docker 学习之 Docker 容器数据卷

容器数据卷 什么是容器数据卷 docker 理念回顾 将应用和环境打包成一个镜像&#xff01; 问题&#xff1a;数据&#xff1f;如果数据都在容器中&#xff0c;那么我们删除容器&#xff0c;数据就会丢失&#xff01;需求&#xff1a;数据可以持久化&#xff01; 容器之前可以…

Supervisor 安装与配置

文章目录 Supervisor 安装与配置一、介绍二、名词释义三、Supervisor 安装三、Supervisor 配置四、启动控制终端五、注册为系统服务六、管理界面1、管理界面的弊端 Supervisor 安装与配置 一、介绍 ​ Supervisor 是用Python开发的一个 client/server 服务&#xff0c;是Linu…

使用Cesi+Supervisor实现进程管理

使用CesiSupervisor实现进程管理 相信很多的运维小伙伴都是饱受进程丢失的痛苦&#xff0c;最怕半夜被手机吵醒&#xff0c;那一定是经理想你 不管进程是前台运行还是后台静默运行&#xff0c;我们都需要能监控其进程状态。 原因有三&#xff1a; 一&#xff0c;在意外结束时…

echarts学习笔记1

可视化面板介绍 ​ 应对现在数据可视化的趋势&#xff0c;越来越多企业需要在很多场景(营销数据&#xff0c;生产数据&#xff0c;用户数据)下使用&#xff0c;可视化图表来展示体现数据&#xff0c;让数据更加直观&#xff0c;数据特点更加突出。 [外链图片转存失败,源站可能…

supervisor集群管理

1.介绍 Supervisor是一个进程管理工具&#xff0c;就是有一个进程需要每时每刻不断的运行&#xff0c;但是这个进程又有可能由于各种原因有可能停止运行。supervisor官网&#xff1a;http://www.supervisord.org/ 当进程停止运行的时候我们希望能自动重新启动&#xff0c;Super…

UOS桌面操作系统专业版字体

fc-list |sort| awk {print $1 } |uniq| wc -l cesi授权的字体 /usr/share/fonts/fonts-cesi/CESI_FS_GB13000.TTF: CESI仿宋\-GB13000,CESI_FS_GB13000:styleRegular /usr/share/fonts/fonts-cesi/CESI_FS_GB18030.TTF: CESI仿宋\-GB18030,CESI_FS_GB18030:styleRegular /…

罗马仕荣获中国质量认证中心、CESI颁发的全国首批“双新认证”证书

2022年11月25日&#xff0c;2022&#xff08;冬季&#xff09;亚洲户外电源大会于深圳市南山区科兴科学园ECO国际会议中心举办。本次大会由中国电子技术标准化研究院、北京京东世纪贸易有限公司、充电头网、全国电子产品安全标准化技术委员会、工信部锂离子电池及类似产品标准化…

supervisor 的 web 管理工具 cesi

一、supervisor 配置 说明&#xff1a;如果只是使用 supervisor 自带的 web&#xff0c;仅如下配置就可以vim /etc/supervisor/supervisord.conf[inet_http_server] ; inet (TCP) server disabled by default port192.168.5.149:9001 ; ip_address:port specif…

管理ELK进程工具: Supervisor Cesi

一、Supervisor简介 supervisor是一个Linux/Unix系统上的进程监控工具&#xff0c;supervisor是一个Python开发的通用的进程管理程序&#xff0c;可以管理和监控Linux上面的进程&#xff0c;能将一个普通的命令行进程变为后台daemon&#xff0c;并监控进程状态&#xff0c;异常…

CeSi 进程集中管理部署

一&#xff1a;安装环境 CentOs 7环境 sudo yum install -y git epel-releasesudo yum install -y python34 python34-pip 二&#xff1a; 安装CeSi https://github.com/Gamegos/cesi 有详细的安装步骤&#xff0c;需要安装一些工具 ## 安装yarn curl --silent --location http…

Linux 系统进程守护工具 cesi + superviosr

一、安装 Supervisor pip install supervisor 使用 echo_supervisord_conf 命令生成默认配置文件 echo_supervisord_conf > /etc/supervisord.conf 配置文件说明 位置&#xff1a;etc/supervisord.conf内容&#xff1a;# 指定了socket file的位置 [unix_http_server] f…

进程管理工具-Supervisord +CeSi

Supervisor 简介 Supervisor 是一个用 Python 写的进程管理工具&#xff0c;可以很方便的用来在 UNIX-like 系统&#xff08;不支持 Windows&#xff09;下启动、重启&#xff08;自动重启程序&#xff09;、关闭进程&#xff08;不仅仅是 Python 进程&#xff09; Superviso…

通过 CeSi + Supervisor 可视化集中管理服务器节点进程

通过 CeSi Supervisor 可视化集中管理服务器节点进程 简介Supervisor 的安装及基本使用1. 安装2. 基本使用 2.1 启动 supervisor2.2 Supervisor 客户端 supervisorctl安装配置 CeSi1. 简介2. 安装3. 配置4. 启动Supervisor 服务设置开机自启动参考链接 通过 CeSi Supervis…