机器学习基石——作业2解答

article/2025/11/6 23:57:45

机器学习基石——作业2解答

这里写图片描述
这里的 μ 指的是某个h(x)f(x),对应的 Eout(h) 。其中目标函数 f(x) 是确定性的,没有噪声干扰。如果加上噪声,目标函数变为课中讲的概率分布 P(yx) ,表示为

P(yx)={λ1λy=f(x)otherwize

此时的 f(x) 为ideal mini-target function,错误的概率为 1λ 。求此时的错误率。两部分:
①无噪声干扰的 y 乘以对应的错误率;②在正确分类y的部分中,包含的由于噪声被flipped的 y
P[y=f(x)]Eout(h)+P[yf(x)](1Eout(h))

这里写图片描述

求解: μλ+(1λ)(1μ)=1+μ(2λ1)λ ,要消除 μλ=0.5

这里写图片描述

MATLAB作图求解。错误率0.05时, N =453000, 最接近的是460000。

d=10,delta=0.05;
x=linspace(0,1000000,100000);
y=4*(2*x).^d.*exp(-0.125*x*delta^2);
loglog(x,y)

这里写图片描述

这里写图片描述

MATLAB求解。x3、x4用solve函数求解非线性方程。最小的是x4, Devroye。

N=10000;delta=0.05;d=50;
x1=sqrt(8/N*log(4*(2*N)^d/delta))
x2=sqrt(2*log(2*N*(N)^d)/N)+sqrt(2/N*log(1/delta))+1/N
x3=solve('sqrt(1/10000*(2*x3+log(6*(2*10000)^50/0.05)))=x3','x3')
x4=solve('x4=sqrt(1/20000*(4*x4*(1+x4)+log(4*(10000^2)^50/0.05)))','x4')
x5=sqrt(16/N*log(2*(N)^d/sqrt(delta))) 
%N=10000: x1=0.6322, x2=0.3313, x3=0.2237, x4=0.2152, x5=0.8604

这里写图片描述

上一问中令N=5。最小的是x3,Parondo and Van den Broek。

%N=5: x1=13.8282, x2=7.0488, x3=5.1014, x4=15.0125, x5=16.2641

这里写图片描述

题目十分类似高中排列组合中的“捆绑问题”。
这里写图片描述

假设 N=4 , 有 5 个间隔。首先考虑捆绑在一起的为正,其余的为负,则有C24+1 种。再反过来,将捆绑在一起的为负,其余的为正,又有 C24+1 种。但是有重复情况:
(1,2),(1,3),(1,4),(5,4),(5,3),(5,2) 由于有边界位置“1”“5”,每种情况中未捆绑的剩余部分都是连续的,在负的情形中会重复计数。共有2×(4-1)种。
总结: 2C2N+12N1=N2N+2

这里写图片描述

N=1N=2N=3N=4
mH(N)=N2N+2 24814
2N 24816



所以 dvc=3

这里写图片描述

环内的是正,环外的是负。不难观察,这是一个positive interval的问题, mH(N)=C2N+1+1

这里写图片描述

这里写图片描述

可以从多项式的根的个数的角度考虑。实轴上有 N 个点,要用多项式曲线将他们“打散”,多项式要有N+1个根,即 N+1 次多项式(代数基本定理)。可以考虑三次多项式曲线“打散”实轴上2个点的情况。

这里写图片描述

题目的公式不大懂,可参考http://beader.me/2014/02/22/vc-dimension-three/ 考虑了一个简化的决策树模型。按照描述,二维空间内,2个互相垂直且不相关的直线可以打散 22 个点,3维空间中3个互相垂直且不相关的平面可以打散 23 个点。

这里写图片描述

三角波,参数控制的是波的周期,因此显然是所有 N 都能打散。

这里写图片描述

答案选3.
选项1:括号内的不会比N大,因此不可能是 mH(N) 的上界;
选项2:这是个常数,不可能是上界;
选项3: mH(N) 的一个上界是 2N 2imH(Ni) 对应过去的上界就是 2i2(Ni)=2N
选项4: Ndvc mH(N) 的上界,但是开平方就不一定了。考虑课上讲的2D 感知机模型 N=4 时, mH(4)=1443=8<14

这里写图片描述

答案选2。此题不是很懂第二个选项。当 dvc= 时, mH(N)=2N ;当假设空间没有自由度时,可能只有1种 h ;第6题的答案就是N2N+2.
第二个选项随着 N 从1增大,依次是11122,可能因为随着 N 增大,存在不增长和突然增长的情况。

这里写图片描述

求假设空间的交集的VC维。最小为0(没有交集),最大是假设空间中dvc最大的那个(其他所有假设空间都被其包含)。所以选3。

这里写图片描述

求假设空间的并集的VC维。最小的情形下,也是假设空间中 dvc 最大的那个。参考了Mac Jiang的博客http://blog.csdn.net/a1015553840/article/details/51043019的解释:
试想,有一个 h1 ,把平面所有点分为 +1 h2 把平面所有点分为 1 h1h2 的话,VC dimension为1,而各自 dvc 加起来为0。所以选4.
详细的解释还可以参考http://beader.me/2014/02/22/vc-dimension-three/

这里写图片描述
这里写图片描述

16-20题考虑了一个一维决策树(即课上练习题讲的positive and negative rays模型),一共有 2N 种可能的 h ,由参数s(取 +1 1 ,表示取positive ray还是negative ray)和 θ (对应阈值)决定。
如果训练集中有N个点(在实轴上),则 θ 最多有N+1种选择(不管 s 参数导致的重复),可以设为N个点,每相邻两点的中间位置即均值(或在之间任意取值)。由于数目较少,可以穷举。
16题问的是 Eout ,可以和第1题联系起来, Eout=μλ+(1λ)(1μ)=0.6μ+0.2 。错误率 20 ,即 λ=0.8 ;由于区间在 [1,1] ,区间长度为2,理想的 θ=0s=+1 μ 的计算与s的符号有关:

s=+1:                     s=1:

这里写图片描述

μ=|θ|/2                    μ=1|θ|/2
Eout1=0.6μ+0.2=0.3|θ|+0.2        Eout2=0.6μ+0.2=0.3|θ|+0.8

合并起来写: Eout=(s+1)/2
Eout1+(1s)/2Eout2=0.5+0.3s(|θ|1)

这里写图片描述

此题统计 Ein ,算出0.15左右。
Python代码见http://blog.csdn.net/zyghs/article/details/78755242

这里写图片描述

此题统计 Eout ,算出0.25左右。
Python代码见http://blog.csdn.net/zyghs/article/details/78755242

这里写图片描述
这里写图片描述

19-20题用多维训练集,但是在每一维上用上一题的方法,找到维度i的最小 Ein 对应的 si θi ,再从这些维度中找到最有区分度( Ein 最小)的维度对应的 si θi 。此题计算最小的 Ein 。算出0.25左右,Python代码见http://blog.csdn.net/zyghs/article/details/78755242

这里写图片描述

此题在测试集上计算最小的 Eout ,而不再用公式。算出0.35左右,
Python代码见http://blog.csdn.net/zyghs/article/details/78755242


http://chatgpt.dhexx.cn/article/udBRH1Bm.shtml

相关文章

台湾大学林轩田机器学习基石课程学习笔记3 -- Types of Learning

红色石头的个人网站&#xff1a;redstonewill.com 上节课我们主要介绍了解决线性分类问题的一个简单的方法&#xff1a;PLA。PLA能够在平面中选择一条直线将样本数据完全正确分类。而对于线性不可分的情况&#xff0c;可以使用Pocket Algorithm来处理。本节课将主要介绍一下机器…

林軒田《机器学习基石》课程总结

最近发布了一系列台湾大学资讯工程系林軒田&#xff08;Hsuan-Tien Lin&#xff09;教授开设的《机器学习基石》的课程总结&#xff0c;分为4个部分&#xff0c;点击标题可查看&#xff1a; 机器什么时候能够学习&#xff1f;&#xff08;When Can Machines Learn&#xff1f;…

台大林轩田《机器学习基石》:作业三python实现

台大林轩田《机器学习基石》&#xff1a;作业一python实现 台大林轩田《机器学习基石》&#xff1a;作业二python实现 台大林轩田《机器学习基石》&#xff1a;作业三python实现 台大林轩田《机器学习基石》&#xff1a;作业四python实现 完整代码&#xff1a; https://github…

机器学习基石系列三

课程关联与可学习 核心问题 上界限制 增长上限 上界证明&#xff08;不太懂&#xff09; - step three

林轩田 《机器学习基石》学习笔记

参考资料&#xff1a; 除了redstone的笔记较好之外&#xff0c;还有豆瓣的https://www.douban.com/doulist/3381853/的笔记也比较好 -------------------------------------- 1. 什么时候机器可以学习&#xff1f; 2. 为什么要要使用机器学习&#xff1f; 3. 机器怎么可以学习到…

【机器学习】机器学习基石-林轩田-1-机器学习介绍

机器学习基石-1-机器学习介绍 本节内容What is Machine Learning&#xff1f;What is skill?Why use machine learning?When use machine learning?Key Essence of Machine LearningFun TimeApplications of Machine LearningComponents of Machine Learning相关术语Leanin…

机器学习基石 作业0

机器学习基石 作业0 1 Probability and Statistics2 Linear Algebra3 Caculus网上没找到作业0的答案,这是自己做的版本,有一些可能会有错误,欢迎讨论。 1 Probability and Statistics 用数学归纳法。N=1时满足,假定N=n满足,当N=n+1同样满足。得证。 10个挑4个正面 C 10 4…

机器学习基石 作业三

机器学习基石 作业三 代入计算 线性回归得到的映射函数 H H H的性质问题。显然映射多次与映射一次效果一样。其它的可以根据 H H H的性质,秩为d+1,显然不可逆。特征值的部分不是非常清楚,大概是根据 I − H I-H I−H的迹等于 N − ( d + 1 ) N-(d+1) N−(d+1)得到的。3. PLA…

机器学习基石笔记

文章目录 一. 机器学习什么时候用二. 机器学习的基本流程三. 什么是机器学习四. 机器学习的可行性NFL定理从统计学中找到可行的方法统计学与机器学习产生联系 一. 机器学习什么时候用 事物本身存在某种潜在规律某些问题难以使用普通编程解决有大量的数据样本可供使用 二. 机器…

机器学习基石 作业二

机器学习基石 作业二 1 计算一下本来预测对与预测错时加上噪音导致的错误率然后相加即可。 2 选择一个 λ \lambda λ的值让 μ \mu μ的系数为0。 3 根据VC bound 公式带入计算即可,N=46000的时候error最接近0.05。下面的代码可以计算不同的N与目标error之间的差距。 def …

机器学习基石2-Learning to Answer Yes-No

注&#xff1a; 文章中所有的图片均来自台湾大学林轩田《机器学习基石》课程。 笔记原作者&#xff1a;红色石头 微信公众号&#xff1a;AI有道 上节课&#xff0c;简述了机器学习的定义及其重要性&#xff0c;并用流程图的形式介绍了机器学习的整个过程&#xff1a;根据模型\(…

机器学习基石-林轩田-第一周笔记

Lecture 01 - The Learning Problem When Can Machine Learn ?Why Can Machine Learn ?How Can Machine Learn ?How Can Machine Learn Better ? What is Machine Learning 什么是“学习”&#xff1f;学习就是人类通过观察、积累经验&#xff0c;掌握某项技能或能力。就…

机器学习基石16:三个重要原则(Three Learning Principles)

本节介绍了机器学习中三个重要原则&#xff0c;包括奥卡姆剃刀原理&#xff0c;样本偏差&#xff0c;数据窥探&#xff1b;并对16课程所学知识进行了总结。 系列文章 机器学习基石01&#xff1a;机器学习简介 机器学习基石02&#xff1a;感知器算法&#xff08;Perceptron Alg…

机器学习基石1(ML基本概念和VC dimension)

文章目录 一、什么是机器学习?二、什么时候可以使用机器学习?三、感知机perceptron四、机器学习的输入形式五、机器真的可以学习吗&#xff1f;六、vc dimension 一、什么是机器学习? 其实第一个问题和第二个问题是穿插到一块儿回答的&#xff0c;首先机器学习要解决的是常规…

Wireshark抓包数据

首先官网下载Wireshark&#xff0c;下载好后&#xff0c;用浏览器打开桂林生活网&#xff0c;无需注册&#xff0c;输入账号密码。 打开Wireshark&#xff0c;用命令提示符查看本机ip 在Wireshark的过滤搜索中输入ip10.34.152.44&#xff0c;找到http类型的数据查看&#xff0…

Wireshark抓包数据分析

文章目录 准备数据链路层实作一 熟悉 Ethernet 帧结构实作二 了解子网内/外通信时的 MAC 地址实作三 掌握 ARP 解析过程 网络层实作一 熟悉 IP 包结构实作二 IP 包的分段与重组实作三 考察 TTL 事件 传输层实作一 熟悉 TCP 和 UDP 段结构实作二 分析 TCP 建立和释放连接 应用层…

网络数据包分析与抓取

多年的网络数据包分析与抓取经验&#xff0c;闲话少说&#xff0c;上干货。先列举数据包的种类&#xff1a;1、Http数据包&#xff1b;2、UDP数据包&#xff1b;3、TCP数据包&#xff1b;4、ARP数据包&#xff1b;其实数据包的概念是很泛的&#xff0c;在软件可逆领域&#xff…

如何进行数据的抓包

抓包 抓包就是对网络传输中发送与接收的数据包进行截获、重发、编辑、转存等操作。 前提&#xff1a;抓取的数据包是从网卡设备中进行抓取的&#xff1b; win wiresharkLinux tcpdump命令 从上图我们就可以了解到tcpdump就是我们使用的一个工具&#xff1b; 我们在使用它时有…

WireShark基本抓包数据分析

WireShark抓包数据分析&#xff1a; 1、TCP报文格式 源端口、目的端口&#xff1a;16位长。标识出远端和本地的端口号。 顺序号&#xff1a;32位长。表明了发送的数据报的顺序。 确认号&#xff1a;32位长。希望收到的下一个数据报的序列号。 TCP协议数据报头DE 头长&#xff…

网络抓包及分析

今天我们主要来讲一下网络抓包的教程&#xff0c;我们用WireShark来说明 我们先说明下抓包工具界面 我们现在本地机子上用上面两个比较多 上面是抓无线网卡&#xff0c;就是你访问外网的包 下面是抓环回地址 &#xff0c;就是你访问127.0.0.1或localhost的包 我们抓上面WLAN…