机器学习基础知识之概率论基础详解

article/2025/10/14 12:29:05

机器学习基础知识之概率论基础详解

文章目录

    • 机器学习基础知识之概率论基础详解
      • 引言
      • 一、随机事件以及其运算
        • 1、样本空间的概念
        • 2、随机事件
        • 3、随机变量
        • 4、事件之间的关系
          • 4.1包含关系
          • 4.2相等关系
          • 4.3互不相容
        • 5、事件间的运算
          • 5.1并
          • 5.2交
          • 5.3差
          • 5.4对立事件
          • 5.5运算性质
        • 6、事件域
      • 二、概率的定义以及其确定的方法
        • 1、排列与组合公式
          • 1.1乘法原理
          • 1.2加法原理
          • 1.3排列问题
          • 1.4重复排列问题
          • 1.5组合问题
          • 1.6重复组合问题
        • 2、确定概率的方法
        • 3、确定概率的古典方法
        • 4、确定概率的集几何方法
        • 5、主观方法
      • 三、概率的性质
        • 1、概率的可加性
        • 2、概率的单调性
        • 3、概率的加法公式
        • 4、概率的连续性
      • 四、条件概率
        • 1、定义
        • 2、乘法公式
        • 3、全概率公式
        • 4、贝叶斯公式
      • 五、独立性
        • 1、两个事件的独立性
        • 2、多个事件的独立性
        • 3、实验的独立性

引言

本文旨在讲解、介绍概率论的基础知识,为后续的概率论的深入研究以及机器学习的研究打下一个基础,本文讲解比较基础,而且主要是一些基本的概念,主要介绍了概率论中的概率、频数、事件、概率的性质、独立性等问题进行了简单的阐述,希望对大家有一些帮助。

在这里插入图片描述

一、随机事件以及其运算

概率论以及数理统计研究的都是随机现象。概率论是研究概率的分布,数理统计是研究随机现象的数据的收集以及处理。

随机现象:在一定的条件之下,并不是总会出现相同的结果的现象成为随机现象,例如:抛硬币。
随机现象的特点:
1、结果不止一个;
2、人们并不知道会出现哪一个结果。

只有一个结果的现象成为确定性现象。

对在相同条件下可以重复的随机现象的观察、记录、实验称为随机实验。

1、样本空间的概念

随机现象的一切可能的基本结果组成的集合称为样本空间,即为:Ω={ω},其中,ω表示基本的结果,又称为样本点。样本点是抽样的最基本的单位。认识随机现象首先需要列出样本空间。

需要注意的是:
1、样本空间中的元素可以是数字,也可以不是数字;
2、样本空间中至少需要有两个样本点;
3、从样本空间含有的样本的数目可以将样本空间分为:有限、无限两类。(通常把有限个或者可列无限个样本的空间称为离散样本空间;把有不可列无限个样本的空间称为连续样本空间。)

2、随机事件

随机现象的某些样本点组成的集合称为随机事件,简称事件。用大写字母A,B,C…表示。

注意事项:
1、可以使用韦恩图来表示一个事件和样本空间的关系;
2、事件A发生了当且仅当A中某一个样本点出现了;
3、事件可以使用集合或者韦恩图表示,也可以使用明白无误的语言进行表达;
4、由样本空间中的单个元素组成的子集称为基本事件,而样本空间的最大的子集是必然事件,样本空间的最小的子集是称为不可能事件。

韦恩图实例:
在这里插入图片描述
这是一个非常简答的韦恩图的实例。

3、随机变量

用来表示随机现象结果的变量称为随机变量,用大写字母X,Y,Z…表示。很多事件都可以用随机变量来表示,表示时候应该写明白随机变量的含义,而随机变量的含义是按照人们的需要表示出来的。

随机变量是人们根据实际问题的需要设置出来的,如果使用等号或者不等号与某些实数连接起来就可以表示很多事件。随机变量的设置是需要事先进行设置的哦。

4、事件之间的关系

4.1包含关系

如果属于A的样本点也属于B,那么,我们就称为A属于B,或者B包含A,即就是,A发生必然会
导致B发生。

4.2相等关系

A属于B,B也属于A,那么,我们就称,A等于B,A=B。

4.3互不相容

如果A以及B没有相同的样本点,那么,我们就称A与B是互不相容的。即就是说,A以及B不可能同时发生。

5、事件间的运算

5.1并

A∪B,表示的是:由事件A以及事件B中所有的样本点组成的新的事件。

5.2交

A∩B,表示的是:由事件A以及事件B之中的公共的样本点组成的新事件。即就是说,A与B同时发生。

5.3差

A-B称为事件A对事件B的差,表示的就是,事件A发生但是事件B不发生。

5.4对立事件

1、对立事件一定是不互不相容的事件;
2、对立事件的并是样本空间;
3、互不相容事件不一定是对立事件。

5.5运算性质

1、交换律
A∪B=B∪A
A∩B=B∩A
2、结合律
(A∪B)∪C=A∪(B∪C)
(A∩B)∩C=A∩(B∩C)
3、分配率
(A∪B)∩C=(A∩C)∪(B∩C)
(A∩B)∪C=(A∪C)∩(B∪C)
4、对偶律
事件取反的交=事件的并取反
事件取反的并=事件交的取反

6、事件域

事件域从直观上来讲就是一个样本空间中某些子集以及其运算结果而组成的集合类。

一般而言事件域都是有可以测量的概率的。

二、概率的定义以及其确定的方法

概率简单来说就是随机事件发生的可能性的大小。

概率的公理化定义:
1、非负性
2、正则性
3、可列可加性

1、排列与组合公式

1.1乘法原理

乘法原理想必大家一定都很熟悉了,这里就不需要过多叙述了,只是说一嘴,使用乘法原理的问题是不考虑次序的哦。

1.2加法原理

加法原理大家肯定也是十分熟悉的,就不必过多赘述了。

1.3排列问题

排列问题需要考虑次序的问题。
(取出不放回)

1.4重复排列问题

这里与上一个问题的区别就在于是,这里是取出要放回。

1.5组合问题

组合问题不需要考虑顺序的问题。
(取出不放回)

1.6重复组合问题

这里与上一个问题的区别还是在于,这里是需要在取出来以后进行放回到的。

2、确定概率的方法

确定概率的方法是在大量的重复性实验之中,用频率的稳定值去(某一个事件的次数除以总次数是频率)来获得概率的。

基本思想:
1、该随机现象可以进行大量的重复性实验;
2、一个事件出现的总次数/实验的总次数=频率;
3、频率的稳定值可以作为概率。(频率的稳定性)

缺点:人们无法将一个实验进行无数次,因此想要得到精确的结果是比较苦难的。

3、确定概率的古典方法

概率=事件A所有的样本点的个数/样本空间中所有的样本点的个数

这个计算其实我们在中学阶段就已经计算过很多的案例了,
也是很好理解的额。

4、确定概率的集几何方法

这里跟上面的那个古典方法是类似的,只不过是将个数相除变换为了面积相除而已啦。

5、主观方法

贝叶斯学派的人认为:一个事件的概率是人们根据经验对该事件发生的可能性所给出的个人的信念。这样的概率叫做主观概率。

1、主观概率与主观臆测不同;
2、用主观方法得到的随机事件的可能性的大小,本质上是对于随机事件的概率的一种推断与估计;
3、在遇到随机现象无法大量重复的时候,用主观的方法去进行决策以及判断是适合的。(主观给定的概率也是需要符合公理化的定义的额。)

三、概率的性质

利用概率的公理化的定义,可以导出概率的一系列的性质。

1、概率的可加性

事件的并的概率等于每一个事件的概率的加和。

2、概率的单调性

如果A属于B,那么,A的概率小于等于B的概率(单调性)。

3、概率的加法公式

事件的并的概率=每一个事件的概率的和。

4、概率的连续性

这个定理用到的不多,了解一下即就可以了。

四、条件概率

条件概率是概率论中的一个既重要又实用的一个概念。

1、定义

所谓的条件概率就是:
在某一个事件B发生的条件之下求解另一个事件A发生的概率。

2、乘法公式

P(AB)=P(B)P(A|B)。

3、全概率公式

全概率公式是概率论中的一个重要的公式,它提供了计算复杂的事件的概率的一种有效的途径,使得一个复杂的事件的概率计算问题的过程化繁为简。

4、贝叶斯公式

在乘法公式以及全概率公式的基础之上的一个很著名的公式就是贝叶斯公式。

在这里插入图片描述

五、独立性

独立性也是一个在概率论中的重要的概念,利用独立性可以简化概率的计算。

1、两个事件的独立性

两个事件的独立性是指:一个事件的发生不会影响到另一个事件。称为两个事件是相互独立的。否则两个事件是不独立或者相依的。

2、多个事件的独立性

在两个事件独立性的基础之上我们可以说,在多个事件之中,如果这多个事件之中,两两独立,那么,我们就是说这些多个事件也是相互独立的额。称为多个事件的相互独立。

3、实验的独立性

利用事件的独立性可以定义实验的独立性。

定义:
如果实验E1以及实验E2,假如,实验E1的任何一个结果与实验E2的任何一个结果都是相互独立的,那么,我们就称这两个实验是相互独立的,叫做独立性的实验。

END.

以上就是概率论基础知识的一些介绍,方便后面对于概率论以及机器学习的深入学习了啦。

最后,感谢大家的阅读了,如果喜欢的话就点个赞吧。


http://chatgpt.dhexx.cn/article/irHwJOBZ.shtml

相关文章

【机器学习基础】机器学习模型与算法最全分类汇总!

机器学习 Author:louwill Machine Learning Lab 本文总共涉及了26种机器学习模型与算法,几乎涵盖了全部主流的机器学习算法。包括线性回归、逻辑回归、Lasso回归、Ridge回归、线性判别分析、近邻、决策树、感知机、神经网络、支持向量机、AdaBoost、GBDT…

python基础教程免费下载-《Python机器学习基础教程》高清版免费PDF下载

Python机器学习基础教程-[德] 安德里亚斯穆勒(Andreas C.Mller)[美]莎拉吉多(Sarah Guido) 著,张亮(hysic) 译 下载地址1:网盘下载 下载地址2:网盘下载 内容简介 本书是机器学习入门书,以Python语言介绍。主要内容包括:机器学习的基本概念及其应用;实践中常用的…

机器学习开发框架

目录 目录 1.什么是机器学习开发框架 2.机器学习框架和深度学习框架的关系 3.常见深度学习框架 1.什么是机器学习开发框架 机器学习开发框架本质上是一种编程库或工具,目的是能够让开发人员更容易、更快速地构建机器学习模型。 机器学习开发框架封装了大量的可…

《Python机器学习基础教程》学习记录(一)

开篇 为了提升自己,准备学习《Python机器学习基础教程》作者: [德]安德里亚斯穆勒 / [美]莎拉吉多,译者: 张亮 ;写此博客,用作记录书中的代码,学习心得等。 第一章 1.4.4 matplotlib matplotlib 是Python 主要的科学…

【机器学习基础】9 大主题!机器学习算法理论面试题大汇总

机器学习是一门理论性和实战性都比较强的技术学科。在应聘机器学习相关工作岗位时,我们常常会遇到各种各样的机器学习问题和知识点。 算法理论基础不仅包含基本概念、数学基础,也包含了机器学习、深度学习相关。今天给大家推荐一个不错的算法理论基础面试…

机器学习数学基础

目录 1 线性代数1.1 矩阵定义1.2 矩阵中的概念1.2.1 向量 1.3 矩阵的运算1.4 矩阵的转置1.5 矩阵的逆 2 微积分2.1 导数的定义2.2 偏导数2.3 方向导数2.4 梯度2.5 凸函数和凹函数 3 概率统计3.1 常用统计变量3.1.1 数学期望和大数定律3.1.2 协方差3.1.3 相关系数 3.2 常见概率分…

图解机器学习算法(1) | 机器学习基础知识(机器学习通关指南·完结)

作者:韩信子ShowMeAI教程地址:https://www.showmeai.tech/tutorials/34本文地址:https://www.showmeai.tech/article-detail/185声明:版权所有,转载请联系平台与作者并注明出处 1. 机器学习概述 1)什么是机…

机器学习基础思维导图

机器学习基础思维导图

机器学习基础学习笔记

机器学习基础 一、机器学习概述 机器学习直白来讲,是根据已有的数据,进行算法选择,并基于算法和数据构建模型,最终对未来进行预测;输入一组数据X-Y,想要得到X-Y间的一个目标函数 f 。根据大量历史数据&am…

机器学习入门——机器学习基础概念

引言 本文介绍机器学习的一些基本概念。包括机器学习的主要任务,机器学习的分类等。 下一篇:机器学习入门——numpy与matplotlib的使用简介 用到的数据 鸢尾花(IRIS)是比较常见的在我们学习机器学习时用到的数据。数据来源: http://archive.ics.uci.e…

机器学习的数学基础

一、概述 我们知道,机器学习的特点就是:以计算机为工具和平台,以数据为研究对象,以学习方法为中心;是概率论、线性代数、数值计算、信息论、最优化理论和计算机科学等多个领域的交叉学科。所以本文就先介绍一下机器学…

机器学习基础环境部署 | 机器学习系列

目录 前言 Anaconda安装 使用conda配置python3.6环境 Spyder配置与使用 安装PyTorch 总结 前言 本文主要是分享一下机器学习初期,基本的环境搭建。也适用于其他python工程化项目环境搭建。都差不多。 Anaconda安装 anaconda官方链接:Anaconda | T…

机器学习基础(Machine Learning,ML)

什么是机器学习 机器学习是人工智能的一个子集,目前已经发展出许多有用的方法,比如支持向量机,回归,决策树,随机森林,强化方法,集成学习,深度学习等,一定程度上可以帮助人…

机器学习基础

一、机器学习概述 1.1 人工智能概述 1.人工智能起源? 图灵测试、达特茅斯会议 2.人工智能的3个阶段 1980年代是正式形成期 1990-2010年代是蓬勃发展期 2012年之后是深度学习期 3.人工智能、机器学习和深度学习之间的关系 机器学习是人工智能实现的一个途径; 深度学…

机器学习基础知识

文章目录 概述一、机器学习分类1.1 主要任务1.2 分类方式1.3 监督学习1.3.1 判别式模型1.3.2 生成式模型 1.4 无监督学习1.4.1 聚类1.4.2 降维 1.5 深度学习1.6 强化学习 二、机器学习步骤三、模型评估指标3.1 分类问题3.2 回归问题 四、机器学习预备知识4.1 数学基础4.2 Pytho…

机器学习之基础知识(全)

目录 1.机器学习概述 1.1 人工智能概述 1.1.1 人工智能使用场景 1.1.2 人工智能小案例 1.2 人工智能发展历程 1.2.1 图灵测试 1.2.2 发展历程 1.2.3 小结 1.3 人工智能主要分支 1.3.1 人工智能、机器学习和深度学习 1.3.2 主要分支介绍 1.3.3 人工智能发展必备三要…

C3D Learning Spatiotemporal Features with 3D Convolutional Networks

Learning Spatiotemporal Features with 3D Convolutional Networks Abstract 摘要主要介绍在大规模有监督的视频数据集下训练出了一种简单且高效的三维卷积神经网络的方法来学习时空特征。且此发现具有三重的效果: 1)相比较于二维,三维卷积…

C3D网络笔记

C3D网络 论文链接 论文翻译 该论文发现: 1、3D ConvNets比2D ConvNets更适用于时空特征的学习; 2、对于3D ConvNet而言,在所有层使用333的小卷积核效果最好; 3、我们通过简单的线性分类器学到的特征名为C3D(Convolutional 3D…

《Action Recognition》-Learning Spatiotemporal Features with 3D Convolutional Networks(C3D)

《Action Recognition》-Learning Spatiotemporal Features with 3D Convolutional Networks(C3D) 目录 《Action Recognition》-Learning Spatiotemporal Features with 3D Convolutional Networks(C3D)ContributionsFrameworkResultConclusion Contributions We experimenta…

使用C3D的一些问题(2)

使用C3D的resume功能时,报错RuntimeError: expected device cpu but got device cuda:0 报错位置在optimizer.step()。原因是optimizer加载参数时,tensor默认在CPU上,故需将所有的tensor都放到GPU上。 解决方案: 在这一段代码后面加入 for st…