loss函数 激活函数

article/2025/10/28 13:16:35

一、LOSS函数

loss函数指机器学习模型中用于最小化的目标函数,其一般意义是指判别错误的程度,因为我们要提高准确率,也就是降低错误率,所以可以归结为一个最小化损失函数的问题。

具体的,我们假设有一个十分类问题,对于样本1号,我们计算它在10个类别上的得分分别是s1,s2,s3,s4,s5,s6,s7,s8,s9,s10,而其正确的分类yi是第5类,对应的得分就是s5.

对于这个样本,我们选择什么样的方法去评判它的错误损失呢,可定义如下的loss函数。

1.1 线性模型中的两种损失函数

1、svm loss -----hinge loss

2、softmax loss ----cross-entropy loss

这个怎么得到的呢? 最小化交叉熵得到,可以看看逻辑回归的内容

1.2 区别

SVM 和 Softmax 之间的性能差异通常很小,不同的人会对哪个分类器效果更好有不同的看法。与 Softmax 分类器相比,SVM 是一个更局部的目标,可以将其视为错误或特征。考虑一个达到分数 [10, -2, 3] 并且第一类是正确的示例。一个 SVM(例如,期望的边距为 Δ=1Δ=1)将看到正确的类与其他类相比已经具有比边距更高的分数,并且它将计算损失为零。 SVM 不关心各个分数的细节:如果它们是 [10, -100, -100] 或 [10, 9, 9],SVM 将无动于衷,因为满足 1 的边际并因此损失为零。然而,这些场景并不等同于 Softmax 分类器,它会在分数 [10, 9, 9] 上累积比 [10, -100, -100] 高得多的损失。换句话说,Softmax 分类器永远不会对它产生的分数完全满意:正确的类总是有更高的概率,不正确的类总是有更低的概率,并且损失总是会变得更好。但是,一旦满足边距,SVM 就会很高兴,并且它不会对超出此约束的确切分数进行微观管理。这可以直观地被认为是一个特征:例如,一个汽车分类器可能将大部分“精力”花在将汽车与卡车分离的难题上,它不应该受到青蛙示例的影响,它已经分配了非常低的分数得分,并且可能聚集在数据云的完全不同的一侧。

用哪个可以根据实际情况区选择,主要考虑中间区别,是一刀切(SVM)还是给一个模糊的0.5,0.5的概率(softmax)


二、激活函数

神经网络模型中,每一层有一个激活函数,以提高模型的非线性能力。

1.1 常用激活函数

1、sigmoid 函数

2、ReLU 函数

f(x) = max(0,x)\\f^{^{'}}(x)=\begin{cases} 0 & \text{ if } x<0 \\ 1 & \text{ if } x>0 \end{cases}

 

3、others  


http://chatgpt.dhexx.cn/article/2VuJYwWl.shtml

相关文章

Loss损失函数

损失函数是将随机事件或其有关随机变量的取值映射为非负实数以表示该随机事件的“风险”或“损失”的函数&#xff0c;用于衡量预测值与实际值的偏离程度。在机器学习中&#xff0c;损失函数是代价函数的一部分&#xff0c;而代价函数是目标函数的一种类型。 在《神经网络中常…

深度学习之——损失函数(loss)

深度学习中的所有学习算法都必须有一个 最小化或最大化一个函数&#xff0c;称之为损失函数&#xff08;loss function&#xff09;&#xff0c;或“目标函数”、“代价函数”。损失函数是衡量模型的效果评估。比如&#xff1a;求解一个函数最小点最常用的方法是梯度下降法&…

1_一些文献中的英文解释和用法整理

目录 1、Theorem、Proposition、Lemma和Corollary等的解释与区别 2、论文里的 Preliminaries 究竟是什么意思? &#xff08;1&#xff09;Preliminaries是什么&#xff1f; &#xff08;2&#xff09;Preliminaries应该写什么内容&#xff1f; &#xff08;3&#xff09;…

区分定理(Theorem)、引理(Lemma)、推论(Corollary)等概念

ZZ: http://blog.sina.com.cn/s/blog_a0e53bf70101jwv1.html Theorem&#xff1a;就是定理&#xff0c;比較重要的&#xff0c;簡寫是 Thm。 Lemma&#xff1a;小小的定理&#xff0c;通常是為了證明後面的定理&#xff0c;如果證明的篇幅很長時&#xff0c;可能會把證明拆成幾…

CodeForces - 1364D Ehabs Last Corollary(dfs树找最小环)

题目链接&#xff1a;点击查看 题目大意&#xff1a;给出一个由 n 个结点和 m 条边构成的无向图&#xff0c;再给出一个 k &#xff0c;需要在图中完成下面任意一种操作&#xff1a; 找到一个大小恰好为 的独立集找到一个大小不超过 k 的环 题目分析&#xff1a; 题目已经…

Codeforces Round 649 (Rated for Div. 2)D. Ehab s Last Corollary详细题解(图论+简单环)

树 边 : 树边: 树边:深度优先森林中的边。如果结点v是因对(u,v)的探索而首先被发现,则(u,v)是一条树边。 后 向 边 : 后向边: 后向边:后向边(u,v)是将结点u连接到其在深度优先树中一个祖先节点v的边. &#xff08;本文我就称之为反向边了&#xff0c;问题不大&#xff09; 前…

#649 (Div. 2)D. Ehab‘s Last Corollary

题目描述 Given a connected undirected graph with n vertices and an integer k, you have to either: either find an independent set that has exactly ⌈k2⌉ vertices. or find a simple cycle of length at most k. An independent set is a set of vertices such that…

Ehabs Last Corollary

Given a connected undirected graph with n n n vertices and an integer k k k, you have to either: either find an independent set that has exactly ⌈ k 2 ⌉ ⌈\frac{k}{2}⌉ ⌈2k​⌉ vertices.or find a simple cycle of length at most k k k. An independen…

Latent Variables的理解

加入我们有X&#xff0c;Y两个随机变量&#xff0c;他们的概率分布如下。要直接用一个函数还表示这个分布是比较困难的。 但我们发现这个分布可以分成三个聚类。如果我们给每个聚类编号为。 那么就是简单的高斯函数了。 这里z就是 加入latent variable的意义在于&#xff0c…

Variable(变量)

深度学习入门之PyTorch 作者 廖星宇

对条件变量(condition variable)的讨论

作者&#xff1a;王东 1.1 什么是条件变量和条件等待&#xff1f; 简单的说&#xff1a; 条件变量(condition variable)是利用线程间共享的全局变量进行同步的一种机制&#xff0c;主要包括两个动作&#xff1a;一个线程等待某个条件为真&#xff0c;而将自己挂起&…

C++ condition_variable用法

概述 condition_variable类似于信号量机制&#xff0c;实现了线程的等待和唤醒。 函数接口&#xff1a; wait() :阻塞等待的同时释放锁&#xff08;原子操作&#xff09;&#xff0c;还可以添加阻塞判断函数&#xff0c;详见代码 notify_all() : 唤醒所有阻塞等待的线程 no…

variable命令两种不同的使用方式“v_“和““的区别

大家好&#xff0c;我是小马老师。 本文介绍variable命令两种不同的使用方式&#xff1a;“v_“和”&"。 在lammps模拟中&#xff0c;variable命令用的相对比较多&#xff0c;可以根据需要定义不同的变量。 在使用自定义变量或者调用自定义变量的时候&#xff0c;lamm…

条件变量(Condition Variable)详解

条件变量(Condtion Variable)是在多线程程序中用来实现“等待->唤醒”逻辑常用的方法。举个简单的例子&#xff0c;应用程序A中包含两个线程t1和t2。t1需要在bool变量test_cond为true时才能继续执行&#xff0c;而test_cond的值是由t2来改变的&#xff0c;这种情况下&#x…

Java Variable 变量

目录 变量1. 变量的作用域a. 类级变量b. 成员变量c. 局部变量 2. 基本数据类型a. 按内存占用级数b. 自动类型转换i. 十进制转二进制 c. 强制类型转换i. (XXX)ii. parseXXX() 3. 引用数据类型 变量 同时被 final 和 static 修饰的变量是常量。 1. 变量的作用域 变量的作用域分…

About Variables

Assessing Variable Types “It all began with a variable”, the storyteller began. Just kidding, no one starts their stories that way, even though variables are where all data stories begin. Variables define datasets. They are the characteristics or attr…

pytorch的Variable和Parameters的联系和区别

文章目录 前言一、Variable二、Parameter总结 前言 首先看一下官方文档&#xff1a; 一、Variable torch.autograd.Variable Variable是对Tensor的封装&#xff0c;操作与tensor基本一致&#xff0c;不同的是&#xff0c;每一个Variable被构建的时候&#xff0c;都包含三个…

关于variable的理解

引用莫烦大大的话来说&#xff0c;tensor是一个鸡蛋&#xff0c;而variable相当于一个篮子&#xff0c;把tensor装起来 其中variable有三个参数&#xff1a; data&#xff1a;存储了Tensor&#xff0c;是本体的数据 grad&#xff1a;保存了data的梯度&#xff0c;本事是个Varia…

深度学习——Variable(已经过时了!)

一、简介 深度学习中使用pytorch框架&#xff0c;使用的数据一般是torch中的tensor形式。但是在参数表示中&#xff0c;一般是用variable变量形式。 二、variable的使用 &#xff08;1&#xff09;如何将tensor转化为variable pytorch1.0之后tensor和variable没有区别了&am…

Pytorch的Variable详解

pytorch两个基本对象&#xff1a;Tensor&#xff08;张量&#xff09;和Variable&#xff08;变量&#xff09; 其中&#xff0c;tensor不能反向传播&#xff0c;variable可以反向传播。 tensor的算术运算和选取操作与numpy一样&#xff0c;一次你numpy相似的运算操作都可以迁…