一文读懂机器学习中的正则化

article/2025/9/28 15:00:37

正则化是一种为了减小测试误差的行为(有时候会增加训练误差)。当我们用较为复杂的模型拟合数据时,容易出现过拟合现象,导致模型的泛化能力下降,这时我们就需要使用正则化,降低模型的复杂度。本文总结阐释了正则化的相关知识点,帮助大家更好的理解正则化这一概念。

目录

  • LP范数

  • L1范数

  • L2范数

  • L1范数和L2范数的区别

  • Dropout

  • Batch Normalization

  • 归一化、标准化 & 正则化

  • Reference

在总结正则化(Regularization)之前,我们先谈一谈正则化是什么,为什么要正则化。

个人认为正则化这个字眼有点太过抽象和宽泛,其实正则化的本质很简单,就是对某一问题加以先验的限制或约束以达到某种特定目的的一种手段或操作。在算法中使用正则化的目的是防止模型出现过拟合。一提到正则化,很多同学可能马上会想到常用的L1范数和L2范数,在汇总之前,我们先看下LP范数是什么鬼。

LP范数

范数简单可以理解为用来表征向量空间中的距离,而距离的定义很抽象,只要满足非负、自反、三角不等式就可以称之为距离。

LP范数不是一个范数,而是一组范数,其定义如下:

图片

 

pp的范围是[1,∞)[1,∞)。pp在(0,1)(0,1)范围内定义的并不是范数,


http://chatgpt.dhexx.cn/article/SoCYp5WO.shtml

相关文章

漆远离职阿里加盟复旦!大牛纷纷回归学界,大厂AI名存实亡?

来源丨新智元 编辑丨小咸鱼 好困 【导读】蚂蚁金服原副总裁、AI团队负责人漆远已于近日离职,出任复旦大学「浩清」教授,复旦人工智能创新与产业研究院院长。将从事深度学习、强化学习等人工智能领域的前沿研究和应用。 那个支付宝背后的AI大牛&#xff0…

正则化方法归纳总结

作者丨Poll 来源丨https://www.cnblogs.com/maybe2030/p/9231231.html 编辑丨极市平台 本文仅用于学术分享,如有侵权请联系后台删文 导读 本文先对正则化的相关概念进行解释作为基础,后对正则化的方法进行了总结,帮助大家更加清晰的了解正则化方法。 阅…

阿里副总裁、达摩院自动驾驶负责人王刚离职!

转载自:新智元 | 编辑:桃子 好困 【导读】从学界「跨界」互联网,再转身去创业。这一年,他40岁,依然选择挑战自我。消息称,阿里副总裁、达摩院自动驾驶实验室负责人王刚已于近日离职。阿里,是他的…

机器学习防止模型过拟合方法总结

转自 | 小白学视觉,作者小白 文章仅用于学术分享,侵删 目录 LP范数L1范数L2范数L1范数和L2范数的区别DropoutBatch Normalization归一化、标准化 & 正则化Reference 其实正则化的本质很简单,就是对某一问题加以先验的限制或约束以达到某种…

CV还要更热闹!旷视刚宣布4.6亿美元融资,商汤:新一轮年内完成

允中 发自 凹非寺 量子位 报道 | 公众号 QbitAI △ 商汤科技CEO徐立 你追我赶! 机器视觉(CV)领域热度还在急剧升温。 昨天,旷视科技(Face)刚完成了C轮4.6亿美元融资,刷新了AI公司全球单轮融资额纪录。 而这一纪录的保…

LaTeX 有哪些「新手须知」的内容?

孟晨 ,在 LaTeX 话题下写错 LaTeX 名字的,一律… 陈硕 等 137 人赞同 这是个好问题,虽然提问提得很大。不是很好答,权当抛砖引玉了。 天字第一号原则:不要到网上抄代码,尤其是似懂非懂的阶段。 除非代码的…

《解析深度学习》部分笔记

记录一些书里的知识点,摘自魏秀参的《解析深度学习-卷积神经网络原理与视觉实践》 第三章 卷积神经网络经典结构 1.在深度学习中,深度卷积神经网络呈现“分布式表示”,既“语义概念”到神经元是一个多对多映射。直观讲就是:每个语…

新型计算机离我们还有多远

作者:高如如,魏秀参 本文为《程序员》原创文章,未经允许不得转载,更多精彩文章请订阅《程序员》 自1946年ENIAC(Electronic Numerical Integrator And Calculator,即电子数字积分计算机)问世&am…

Must Know Tips/tricks in DNN

Must Know Tips/Tricks in Deep Neural Networks (byXiu-Shen Wei) 转载于http://lamda.nju.edu.cn/weixs/project/CNNTricks/CNNTricks.html Deep Neural Networks, especially Convolutional Neural Networks (CNN), allows computational models that are composed of mult…

[读书笔录]解析卷机神经网络(魏秀参)——第二章

解析卷积神经网络——基础理论篇 第二章 卷机神经网络基本部件 2.1 “端到端”思想(end-to-end manner) 深度学习的一个重要思想即”端到端”的学习方式,属于表示学习的一种。整个学习流程并不进行人为的子问题划分,而是完全交…

[读书笔录]解析卷机神经网络(魏秀参)——第三章

#解析卷积神经网络——基础理论篇 第三章 卷机神经网络经典结构 3.1 CNN网络结构中的重要概念 ####感受野 感受野(receptive filed)原指听觉、视觉等神经系统中一些神经元的特性,即神经元只接受其所支配的刺激区域内的信号。 以单层卷积操作为例,如左…

[读书笔录]解析卷积神经网络(魏秀参)——第一章

解析卷积神经网络——基础理论篇 第一章 卷机神经网络基础知识 1.1发展历程 卷积神经网络发展历史中的第一件里程碑事件发生在上世纪60年代左右的神经科学中,1959 年提出猫的初级视皮层中单个神经元的“感受野”概念,紧接着于1962年发现了猫的视觉中枢…

如何看旷视南京负责人魏秀参跳槽高校工作?

链接:https://www.zhihu.com/question/404733616 编辑:深度学习与计算机视觉 声明:仅做学术分享,侵删 跳槽本是正常现象,之所以会在知乎引起讨论,说明其中有让大家值得关注的点。但我们吃瓜群众&#xff0c…

[阅读笔记]《解析卷积神经网络_深度学习实践手册》魏秀参著

书籍下载地址:http://lamda.nju.edu.cn/weixs/book/CNN_book.pdf 这本书名虽然有实践两个字,但内容还是主要介绍在实践框架中涉及的基本概念、方法和技巧介绍,侧重于实践中的概念介绍并不是手把手告诉你如何在某平台上搭建一个卷积神经网络&a…

CVPR 2020评审结果放出,魏秀参博士教你如何rebuttal!!!

关注上方“深度学习技术前沿”,选择“星标公众号”, 资源干货,第一时间送达! 来源:知乎 作者:魏秀参 链接:https://zhuanlan.zhihu.com/p/104298923 近日,在此文章中,旷视…

魏秀参:如何理解全连接层的作用?

点击上方“机器学习与生成对抗网络”,关注"星标" 获取有趣、好玩的前沿干货! 来自 | 知乎 作者 | 魏秀参 文仅分享,侵删 https://www.zhihu.com/question/41037974/answer/150522307 全连接层到底什么用?我来谈三点。…

28岁少帅统领旷视南京研究院,LAMDA魏秀参专访

记者和魏秀参专访约在旷视科技北京总部,北临清华大学,西靠中关村的融科写字楼,公司三层中厅是一整面落地屏幕,实时显示着人脸识别、人脸检测、年龄估计、人体关键点预测等多种视觉应用demo。 这家计算机视觉公司在2017年10 月 31 …

极市直播丨南京理工大学魏秀参、沈阳:大规模细粒度图像检索

| 极市线上分享 第102期 | 一直以来,为让大家更好地了解学界业界优秀的论文和工作,极市已邀请了超过100位技术大咖嘉宾,并完成了101期极市线上直播分享。往期分享请前往:http://bbs.cvmart.net/topics/149,也欢迎各位…

[读书笔录]解析卷积神经网络(魏秀参)——目录和绪论

解析卷积神经网络——基础理论篇 *南京大学计算机系机器学习与数据挖掘所(LAMDA)在读博士魏秀参开放了一份较系统完整的 CNN 入门材料《解析卷积神经网络——深度学习实践手册》。这是一本面向中文读者轻量级、偏实用的深度学习工具书,内容侧…

R Talk | 旷视南京研究院魏秀参:细粒度图像分析综述

「R Talk 」是旷视研究院推出的一个深度学习专栏,将通过不定期的推送展示旷视研究院的学术分享及阶段性技术成果。「R」是 Research 的缩写,也是旷视研究院的内部代号;而所有的「Talk」都是来自旷视的 Researcher。「R Talk 」旨在通过一场场…