概率论基础知识(一)概率论基本概念

article/2025/9/15 12:33:31

概率论

0. 前言

本文主要旨在对概率论的基础概念与知识进行概要的总结,以便于使用到时可以参考。
概率论是数理统计的基础,也是很多机器学习模型的支撑,概率论在机器学习中占主要地位,因为概率论为机器学习算法的正确性提供了理论依据。


1. 概率论的基本概念

1.1 基本概念
随机实验(E)

(1)可以在相同的条件下重复地进行
(2)每次实验的可能结果不止一个,并且事先明确知道实验的所有可能结果
(3)每次试验将出现哪一个结果无法预知
例子:抛一枚硬币,观察正面,反面出现的情况

样本空间 (Ω)

随机试验所有可能的结果组成的集合

样本点

样本空间的元素,即每个可能的结果

随机事件

随机试验E的样本空间S的子集称为随机事件

基本事件

样本空间的单个元素,一个可能结果构成的集合

必然事件(全集)、不可能事件(空集)
事件的关系与事件的运算 (类似于集合运算)

包含关系、和(并)并事件、积(交)事件、差事件、互不相容(互斥)、逆事件(对立事件)
这里写图片描述

运算规律

1、交换律:
A ∪ B = B ∪ A A∪B = B∪A AB=BA
A ∩ B = B ∩ A A ∩ B = B ∩ A AB=BA
2、 结合律:
A ∪ ( B ∪ C ) = ( A ∪ B ) ∪ C A∪ (B∪ C) = (A∪ B) ∪ C A(BC)=(AB)C
A ∩ ( B ∩ C ) = ( A ∩ B ) ∩ C A ∩ (B ∩ C)=(A ∩ B) ∩ C A(BC)=(AB)C
3、分配律:
A ∪ ( B ∩ C ) = ( A ∪ B ) ∩ ( A ∪ C ) A∪ (B ∩ C) = (A∪ B) ∩ (A ∪ C) A(BC)=(AB)(AC)
A ∩ ( B ∪ C ) = ( A ∩ B ) ∪ ( A ∩ C ) A ∩ (B∪C) = (A ∩ B) ∪ (A ∩ C) A(BC)=(AB)(AC)
A ∩ ( B − C ) = ( A ∩ B ) − ( A ∩ C ) A ∩ (B - C) = (A ∩ B) - (A ∩ C) A(BC)=(AB)(AC)
4、德摩根律(对偶律):
A ∪ B ‾ = A ‾ ∩ B ‾ \overline{A ∪ B} = \overline{A} ∩ \overline{B} AB=AB
A ∩ B ‾ = A ‾ ∪ B ‾ \overline{A ∩ B} = \overline{A} ∪ \overline{B} AB=AB
常用结论:
A A ‾ = Φ A\overline{A} = Φ AA=Φ A ∪ A ‾ = Ω A∪\overline{A} = Ω AA=Ω
A ∪ B = A + B − A B = ( A − B ) + ( B − A ) + A B A ∪ B = A+ B − AB = (A − B) + (B − A) + AB AB=A+BAB=(AB)+(BA)+AB


1.2 频率与概率
频率

定义:在相同条件下,进行n次试验,在这n次试验中,事件A发生的次数,称为事件A发生的频数,比值:f = 频数/试验次数,称为事件A发生的频率。
基本性质:
(1)0 <= f <= 1 ;
(2)f(Ω) = 1;
(3)两两互不相融事件的可列可加性。
稳定性:当试验重复次数很大时,频率趋于稳定,可以用来表征事件A发生可能性的大小。

概率

定义: 设E是随机试验,样本空间为Ω,对于E的每一个事件A赋予一个实数,记为P(A),称为A的概率。
性质:
(1)非负性 0 =< P(A) <= 1;
(2)正则性 P(Ω) = 1;
(3)可列可加性 若有互不相容的事件: A 1 , A 2 , A 3 , . . . A_1, A_2, A_3, ... A1,A2,A3,...
\quad\quad P ( ∪ A j ) = ∑ P ( A j ) P(∪A_j) = ∑ P(A_j) P(Aj)=P(Aj)


1.3 等可能概型(古典概型)

设E是一个试验,满足:(1)只有有限多个样本点;(2)每个样本点发生的可能性相同(等可能性)。
典型例子:抛硬币
长期实践的发现:“概率很小的事件在一次试验中几乎是不发生”(称之为实际推理原理)

排列
排列:从n个不同元素中,任取m(m ≤ n,m与n均为自然数)个元素按照一定的顺序排成一列,称为从n个不同元素中取出m个元素的一个排列。
排列数: A n m = n ( n − 1 ) ( n − 2 ) … … ( n − m + 1 ) = n ! ( n − m ) ! A_n^m = n(n-1)(n-2)……(n-m+1) = {n!\over(n-m)!} Anm=n(n1)(n2)(nm+1)=(nm)!n!
组合
组合:从n个不同元素中,任取m(m≤n)个元素并成一组,叫做从n个不同元素中取出m个元素的一个组合。
组合数: C n m = A ( n , m ) m ! C_n^m = {A(n,m) \over m!} Cnm=m!A(n,m)
公式:
C n m = C n n − m C_n^m = C_n^{n-m} Cnm=Cnnm
C n m + C n m − 1 = C n + 1 m C_n^m + C_n^{m-1} = C_{n+1}^m Cnm+Cnm1=Cn+1m
C n 0 + C n 1 + . . . + C n n = 2 n = ( 1 + 1 ) n C_n^0 + C_n^1 + ... + C_n^n = 2^n = (1 + 1)^n Cn0+Cn1+...+Cnn=2n=(1+1)n

例1:
袋子中有a个黑球,b个白球,先一只只地摸出来,求:第k次摸到黑球的概率(1<= k <= a+b)
解法1:(排列)
思路:
样本空间为a+b个球的全排列,有利场合为第k个球确定为黑球,有a种可能,然后剩下a+b-1个球随机排列。
样本空间:(a+b)!
有利场合:a×(a+b-1)!
故:
P = a × ( a + b − 1 ) ! ( a + b ) ! = a a + b P = {a×(a+b-1)! \over (a+b)!} = {a \over a+b} P=(a+b)!a×(a+b1)!=a+ba
解法2:(组合)
思路:
样本空间为从a+b个格子中选取a个放置黑球,其余一定放白球,故为 C a + b a C^a_{a+b} Ca+ba;有利场合为第k个确定放置黑球,从剩下a+b-1个格子中选取a-1个格子放置剩下的黑球,其余放白球,故为 C a + b − 1 a − 1 C^{a-1}_{a+b-1} Ca+b1a1
样本空间: C a + b a C^a_{a+b} Ca+ba
有利场合: C a + b − 1 a − 1 C^{a-1}_{a+b-1} Ca+b1a1
故:
P = C a + b − 1 a − 1 C a + b a = a a + b P = {C^{a-1}_{a+b-1} \over C^a_{a+b}} = {a \over a+b} P=Ca+baCa+b1a1=a+ba
PS:这个例子就是抽签模型

例2:
设有n个球,每个都可以以同样的概率 1 n 1\over n n1落到N个格子的每一个格子中(N>=n),求:
(1)某指定的n个格子中各有一个球的概率P(A);
(2)任何n个格子中各有一个球的概率P(B);
解:
样本空间: N n N^n Nn
P ( A ) = n ! N n P(A) = {n! \over N^n} P(A)=Nnn!
P ( A ) = C N n &ThickSpace; ⋅ &ThickSpace; n ! N n = N ! N n &ThickSpace; ⋅ &ThickSpace; ( N − n ) ! P(A) = {C^n_N \; · \; n! \over N^n} = {N! \over N^n \; · \; (N-n)! } P(A)=NnCNnn!=Nn(Nn)!N!
PS:这个模型可用于计算具有相同生日的人的概率


1.4 条件概率

(1)条件概率:
设有两个事件A和B, P ( A ) ≠ 0 P(A)\neq0 P(A)̸=0,在已知A发生的条件下B发生的概率记为: P ( B ∣ A ) = P ( A B ) P ( A ) P(B|A) = {P(AB) \over P(A)} P(BA)=P(A)P(AB);满足概率的三个基本性质。
乘法公式: P ( A B ) = P ( A ) P ( B ∣ A ) P(AB) = P(A)P(B|A) P(AB)=P(A)P(BA)
(2)全概率公式:
B 1 , . . . , B i , . . . , B n B1, ... ,Bi, ... , Bn B1,...,Bi,...,Bn Ω \Omega Ω的一个划分(完备事件组), B 1 ⋃ B 2 ⋃ . . . ⋃ B n = Ω , B i ⋂ B j = ∅ , i ≠ j , P ( B i ) &gt; 0 B_1 \bigcup B_2 \bigcup ... \bigcup B_n = \Omega, B_i \bigcap B_j = \emptyset, i \neq j, P(B_i) &gt; 0 B1B2...Bn=Ω,BiBj=,i̸=j,P(Bi)>0, 其中 i=1, 2, 3, …,得到:
全概率公式: P ( A ) = P ( A Ω ) = P ( A ⋂ ( B 1 ⋃ B 2 ⋃ . . . ⋃ B n ) ) = P ( A B 1 ⋃ A B 2 . . . ⋃ A B n ) = ∑ i = 1 n P ( A B i ) = ∑ i = 1 n P ( B i ) P ( A ∣ B i ) P(A) = P(A\Omega) = P(A\bigcap(B_1 \bigcup B_2 \bigcup ... \bigcup B_n)) = P(AB_1 \bigcup AB_2... \bigcup AB_n) = \sum_{i=1}^n {P(AB_i)} = \sum_{i=1}^n P(B_i)P(A|B_i) P(A)=P(AΩ)=P(A(B1B2...Bn))=P(AB1AB2...ABn)=i=1nP(ABi)=i=1nP(Bi)P(ABi)
PS:把一个要求的事件( Ω \Omega Ω)分解成若干个互不相容的事件( B i B_i Bi)。
(3)贝叶斯公式:
贝叶斯公式: P ( B i ∣ A ) = P ( B i A ) P ( A ) = P ( B i ) P ( A ∣ B i ) ( P ( A ∣ B 1 ) + . . . + P ( A ∣ B i ) + . . . + P ( A ∣ B n ) ) = P ( B i ) P ( A ∣ B i ) ∑ i = 1 n P ( B i ) P ( A ∣ B i ) P(B_i|A) = {P(B_iA)\over P(A)} = {P(B_i)P(A|B_i) \over (P(A|B_1) + ... + P(A|B_i) + ...+ P(A|B_n))} = {P(B_i)P(A|B_i) \over \sum_{i=1}^n P(B_i)P(A|B_i)} P(BiA)=P(A)P(BiA)=(P(AB1)+...+P(ABi)+...+P(ABn))P(Bi)P(ABi)=i=1nP(Bi)P(ABi)P(Bi)P(ABi)
其中: P ( A ) &gt; 0 , P ( B i ) &gt; 0 P(A) &gt; 0, P(B_i) &gt; 0 P(A)>0,P(Bi)>0
PS: P ( B i ) P(B_i) P(Bi)是先验概率,在实际应用中是经验的总结、信息的归纳;
&ThickSpace; \;\quad P ( B i ∣ A ) P(B_i|A) P(BiA)是后验概率,表示在事件(A)发生后对各种原因 B i B_i Bi发生可能性的分析;

例:
用某检验法诊断肺癌,A:被检验者患有肺癌;B:检验诊断为阳性(患病);
已知: P ( B ∣ A ) = 0.95 , P ( B ‾ ∣ A ‾ ) = 0.90 , P ( A ) = 0.0004 P(B|A)=0.95,P(\overline{B}|\overline{A})=0.90,P(A) = 0.0004 P(BA)=0.95P(BA)=0.90P(A)=0.0004
求:P(A|B)
解:
P ( A ∣ B ) = P ( A ) P ( B ∣ A ) P ( A ) P ( B ∣ A ) + P ( A ‾ ) P ( B ∣ A ‾ ) = 0.0004 × 0.95 0.0004 × 0.95 + 0.9996 × 0.1 = 0.0038 P(A|B) = {P(A)P(B|A) \over P(A)P(B|A) + P(\overline A)P(B|\overline A)} = {0.0004×0.95 \over 0.0004×0.95 + 0.9996×0.1} = 0.0038 P(AB)=P(A)P(BA)+P(A)P(BA)P(A)P(BA)=0.0004×0.95+0.9996×0.10.0004×0.95=0.0038


1.5 独立性

独立性是概率论和数理统计中很重要的概念,很多情况需要满足独立性才适用,一般根据实践来确定事件之间是否相互独立。
定义:设A、B是随机试验E的两个事件,若 P(AB) = P(A)P(B), 则称AB事件相互独立,即A和B两个事件的发生互不影响。
定理1:若P(A) > 0 ,且 P(B|A) = P(B) 等价于 AB相互独立
定理2:若A、B相互独立,则其对立事件也相互独立
可以很自然的推广到n个事件的情况

例:
甲、乙两种产品独立生产,甲产品的次品率0.05,乙产品的次品率0.04,现从甲乙产品中各区一件:
(1)两件都是次品的概率P1;
(2)至少有一件是次品的概率P2;
(3)恰好有一件是次品的概率P3。
解:
设A事件为抽取甲为次品,B事件为抽取乙为次品
由于A、B相互独立,故:A, A ‾ \overline{A} A A ‾ \overline{A} A,B; A ‾ \overline{A} A B ‾ \overline{B} B;相互独立
(1) P 1 = P ( A B ) = P ( A ) ⋅ P ( B ) = 0.05 × 0.04 = 0.002 P1=P(AB)=P(A)·P(B)=0.05×0.04=0.002 P1=P(AB)=P(A)P(B)=0.05×0.04=0.002
(2) P 2 = P ( A ⋃ B ) = 1 − P ( A ⋃ B ‾ ) = 1 − P ( A ‾ B ‾ ) = 1 − P ( A ‾ ) P ( B ‾ ) = 1 − 0.95 × 0.96 = 0.088 P2=P(A \bigcup B)=1-P(\overline{A\bigcup B})=1-P(\overline{A}\overline{B})=1-P(\overline{A})P(\overline{B})=1-0.95×0.96=0.088 P2=P(AB)=1P(AB)=1P(AB)=1P(A)P(B)=10.95×0.96=0.088
(3) P 3 = P ( A B ‾ ⋃ A ‾ B ) = P ( A B ‾ ) + P ( A ‾ B ) = P ( A ) P ( B ‾ ) + P ( A ‾ ) P ( B ) = 0.86 P3=P(A\overline{B}\bigcup \overline{A}B)=P(A\overline{B})+P(\overline{A}B)=P(A)P( \overline{B})+P(\overline{A})P(B)=0.86 P3=P(ABAB)=P(AB)+P(AB)=P(A)P(B)+P(A)P(B)=0.86
PS:独立性和互不相容性
(1)加法公式对应互不相容性;
(2)乘法公式对应独立性;


1.6 蒙特霍尔三门问题

游戏规则:

  • 参赛者会看见三扇关闭的门,其中一扇的后面有一辆汽车,选中后面有车的那扇门就可以赢得该汽车,另两扇门后则各藏有一只山羊。
  • 当参赛者选定了一扇门,但未去开启它的时候,知道门后情形的节目主持人会开启剩下两扇门的其中一扇,露出其中一只山羊。
  • 主持人其后会问参赛者要不要换另一扇仍然关上的门。

概率求解(python实现):

import randomdef MontyHall(Dselect, Dchange):Dcar = random.randint(1,3)if Dselect == Dcar and Dchange == 0:return 1elif Dselect == Dcar and Dchange == 1:return 0elif Dselect != Dcar and Dchange == 0:return 0else:return 1# 不确定是否改变选择
def test1(N):win = 0for i in range(N):Dselect = random.randint(1,3)Dchange = random.randint(0,1)win = win + MontyHall(Dselect, Dchange)print(float(win)/float(N))# 确定不改变选择
def test2(N):win = 0for i in range(N):Dselect = random.randint(1,3)Dchange = 0win = win + MontyHall(Dselect, Dchange)print(float(win)/float(N))# 确定改变选择
def test3(N):win = 0for i in range(N):Dselect = random.randint(1,3)Dchange = 1win = win + MontyHall(Dselect, Dchange)print(float(win)/float(N))N = 10000
print("不确定是否改变选择概率:")
test1(N)
print("确定不改变选择概率:")
test2(N)
print("确定改变选择概率:")
test3(N)

运行结果:

不确定是否改变选择概率:
0.4939
确定不改变选择概率:
0.3307
确定改变选择概率:
0.6618

1.7 蒙特卡罗方法
  • 蒙特卡罗方法,或称计算机随机模拟方法,是一种基于“随机数”的计算方法。
  • 使用随机数(通常是伪随机数)来解决计算问题的方法。
  • 蒙特卡罗方法在金融工程学,宏观经济学,计算物理学等领域应用广泛。
# 计算$\pi$的蒙特卡洛方法
import randomn=1000000
k=0
for i in range(n):x=random. uniform(-1,1)y=random. uniform(-1,1)if x**2+y**2<1:k=k+1
print(4* float(k)/float(n))

运行结果:

3.142032

http://chatgpt.dhexx.cn/article/j3yP5R4W.shtml

相关文章

SSD算法理解(2)

作者&#xff1a;叶 虎 编辑&#xff1a;祝鑫泉 前言 目标检测近年来已经取得了很重要的进展&#xff0c;主流的算法主要分为两个类型&#xff1a;&#xff08;1&#xff09;two-stage方法&#xff0c;如R-CNN系算法&#xff0c;其主要思路是先通过启发式方法&#xff08;selec…

SSD算法详解default box

本文提出的SSD算法是一种直接预测目标类别和bounding box的多目标检测算法。 与faster rcnn相比&#xff0c;该算法没有生成 proposal 的过程&#xff0c;这就极大提高了检测速度。针对不同大小的目标检测&#xff0c;传统的做法是先将图像转换成不同大小&#xff08;图像金字塔…

【个人整理】一文看尽目标检测算法SSD的核心架构与设计思想

前言&#xff1a;SSD&#xff08;Single Shot MultiBox Detector&#xff09;是大神Wei Liu在 ECCV 2016上发表的一种的目标检测算法。对于输入图像大小300x300的版本在VOC2007数据集上达到了72.1%mAP的准确率并且检测速度达到了惊人的58FPS&#xff08; Faster RCNN&#xff1…

目标检测:SSD算法原理综述

SSD&#xff08;Single Shot Detection&#xff09;是一个流行且强大的目标检测网络&#xff0c;网络结构包含了基础网络&#xff08;Base Network&#xff09;&#xff0c;辅助卷积层&#xff08;Auxiliary Convolutions&#xff09;和预测卷积层&#xff08;Predicton Convol…

SSD算法阅读记录

SSD: Single Shot MultiBox Detector 一、网络结构二、模型设计1、多尺度特征映射2、使用卷积进行检测3、使用default boxes 三、模型训练1、匹配策略2、损失函数3、default boxes的确定4、难分样本挖掘 四、参考链接 一、网络结构 SSD网络是在VGG16的基础上修改得到的&#xf…

2.1 SSD算法理论

前言 随着人工智能的不断发展&#xff0c;机器学习这门技术也越来越重要&#xff0c;很多人都开启了学习机器学习&#xff0c;本文就介绍了机器学习的基础内容。来源于哔哩哔哩博主“霹雳吧啦Wz”&#xff0c;博主学习作为笔记记录&#xff0c;欢迎大家一起讨论学习交流。 一…

SSD检测算法理解

SSD检测算法理解 简介1 SSD模型2 SSD算法的核心设计思想3 多尺度特征图检测思想4 单尺度特征图检测4.1 先验框的设置4.2 先验框的比例和宽高比4.3 Loss计算 5 性能评估 简介 在作者的原论文中提到&#xff0c;SSD算法要比当时优秀的Faster RCNN算法和YOLO算法识别效果更好&…

SSD算法通俗详解

算法简介 算法原理 样本构造 损失函数 使用细节 # ssd算法&#xff1a; ##简介 刘伟在2016年提出&#xff0c;发表在ECCV&#xff1b;是一种通过直接回归的方式去获取目标类别和位置的one-stage算法&#xff0c;不需要proposal&#xff1b;作用在卷积网络的输出特征图上进行预…

详细解读目标检测经典算法-SSD

学习目标&#xff1a; 知道SSD的多尺度特征图的网络知道SSD中先验框的生成方式知道SSD的损失函数的设计 目标检测算法主要分为两类&#xff1a; Two-stage方法&#xff1a;如R-CNN系列算法&#xff0c;主要思路就是通过Selective Search或者CNN网络产生一系列的稀疏矩阵的候…

SSD目标检测算法——通俗易懂解析

目录 前言SSD网络 前言 前面几篇文章我们讲解了YOLO系类的论文&#xff0c;今天我们来看下SSD算法。对YOLO有兴趣的小伙伴们可以一步到我前面的几篇博文&#xff1a; YOLOv1目标检测算法——通俗易懂的解析YOLOv2目标检测算法——通俗易懂的解析YOLOv3目标检测算法——通俗易懂…

SSD算法理解(1)

版权声明&#xff1a;本文为博主原创文章&#xff0c;未经博主允许不得转载。 https://blog.csdn.net/u010167269/article/details/52563573 Preface 这是今年 ECCV 2016 的一篇文章&#xff0c;是 UNC Chapel Hill&#xff08;北卡罗来纳大学教堂山分校&#xff09; 的 Wei Li…

SSD算法分析

SSD算法分析 1 SSD算法概述2 SSD整体流程3 SSD中的重要概念3.1 多尺度Feature Map检测3.2 Default Box3.2.1 设计思路3.2.2 参数计算 4 SSD网络架构与网络预测4.1 网络架构4.2 网络预测4.3 预测值解码 5 网络训练5.1 Ground Truth编码5.2 匹配策略5.3 损失函数5.3.1 定位损失5.…

SSD算法简单解析

前言 今天学习SSD目标检测算法&#xff0c;SSD&#xff0c;全称Single Shot MultiBox Detector&#xff0c;是2016年提出的算法&#xff0c;今天我们还是老规矩&#xff0c;最简单的做算法解析&#xff0c;力求让像我一样的小白也可以看得懂。 算法初识 1》算法能干什么&…

深度学习算法之-SSD(一)

版权声明&#xff1a;本文为博主原创文章&#xff0c;转载需注明出处。 https://blog.csdn.net/qianqing13579/article/details/82106664 </div><link rel"stylesheet" href"https://csdnimg.cn/release/phoenix/template/css/ck_html…

SSD系列算法原理讲解----(1)SSD系列算法介绍(主干网络、多尺度Feature Map预测)(笔记)

SSD系列算法原理介绍 SSD算法介绍&#xff1a; Single Shot MultiBox Detector&#xff08;One-stage方法&#xff09; - Wei Liu在ECCV 2016提出 - 直接回归目标类别和位置 - 不同尺度的特征图上进行检测 - 端到端的训练 - 图像的分辨率比较低&#xff0c;也能保证检测的精度 …

目标检测算法——SSD详解

目录 一、 背景&#xff08;基本介绍&#xff09; 二、 网络结构 三、 具体过程 1. default box 匹配 2. 损失函数 3. 数据增广 4. Atrous Algothrim 5. NMS&#xff08;非极大值抑制&#xff09; 五、 性能评估 优点&#xff1a; 缺点&#xff1a; SSD 算法的改进…

SSD算法原理与代码(三)

说明&#xff1a;这几篇文章是讲解SSD&#xff0c;从算法原理、代码到部署到rk3588芯片上的过程。环境均是TF2.2&#xff0c;具体的安装过程请参考网上其他的文章。 一、SSD简介 SSD算法是一个优秀的one-stage目标检测算法。能够一次就完成目标的检测和分类过程。主要是的思路…

目标检测算法之SSD

码字不易&#xff0c;欢迎给个赞&#xff01; 欢迎交流与转载&#xff0c;文章会同步发布在公众号&#xff1a;机器学习算法全栈工程师(Jeemy110) 目录 目录前言设计理念网络结构训练过程预测过程性能评估TensorFlow上的实现小结参考文献 前言 目标检测近年来已经取得了很重…

深度学习 -- SSD 算法流程详解

SSD同样是经典论文&#xff0c;后续很多论文以此为基础&#xff0c;所以搞懂流程比较重要&#xff0c;中间如果 有写的不对、有问题或者有看不懂的地方&#xff0c;还望指正。如果有了新的理解&#xff0c;我会持续更新。 作为经典论文&#xff0c;SSD算法也同样产生了很多后续…

SSD原理解读-从入门到精通

前言 当初写这篇博客的初衷只是记录自己学习SSD的一些心得体会&#xff0c;纯属学习笔记&#xff0c;后来由于工作上的需要&#xff0c;需要对小伙伴进行目标检测方面的培训&#xff0c;后来就基于这篇博客进行了扩展&#xff0c;逐渐演变成了现在的样子&#xff0c;本文力求从…