Pyotorch自定义损失函数

article/2025/10/11 17:28:06

 

👨‍💻作者简介:大数据专业硕士在读,CSDN人工智能领域博客专家,阿里云专家博主,专注大数据与人工智能知识分享,公众号:GoAI的学习小屋,免费分享书籍、简历、导图等资料,更有交流群分享AI和大数据,加群方式公众号回复“加群”或➡️点击链接。

🎉专栏推荐:➡️点击访问《计算机视觉》:长期更新不限于深度学习、OCR、目标检测、图像分类、分割等方向总结资料。      ➡️点击访问《深入浅出OCR》:  对标全网最全OCR教程。以上目前活动仅29.9,感兴趣小伙伴可关注下。

🎉学习者福利:强烈推荐一个优秀AI学习网站,包括机器学习、深度学习等理论与实战教程,非常适合AI学习者。➡️网站链接。

🎉技术控福利:程序员兼职社区招募!技术范围广,CV、NLP方向均可,要求有一定基础,最好是研究生及以上或有工作经验,欢迎大佬加入!群内Python、c++、Matlab等各类编程语言单应有尽有, 资源靠谱、费用自谈,有意向直接➡️访问。

1.损失函数知识总结参考:

深度学习笔记总结_GoAI的博客-CSDN博客

PyTorch 笔记.常见的PyTorch损失函数 - 知乎

Pytorch神经网络实战学习笔记_10 神经网络模块中的损失函数_LiBiGor的博客-CSDN博客

2.自定义损失函数学习参考:

pytorch教程之nn.Module类详解——使用Module类来自定义模型

pytorch教程之nn.Module类详解——使用Module类来自定义网络层

pytorch教程之损失函数详解——多种定义损失函数的方法

  1. Loss Function Library - Keras & PyTorch | Kaggle
  2. Pytorch如何自定义损失函数(Loss Function)? - 知乎
  3. pytorch系列12 --pytorch自定义损失函数custom loss function_墨流觞的博客-
  4. 自定义损失函数 - image processing
  5. pytorch教程之损失函数详解——多种定义损失函数的方法
  6. Pytorch自定义网络结构+读取自己数据+自定义Loss 全过程代码示例

3.定义原始模版:

使用torch.Tensor提供的接口实现:

  1. 继承nn.Module类
  2. 在__init__函数中定义所需要的超参数,在foward函数中定义loss的计算方法。
  • 所有的数学操作使用tensor提供的math operation
  • 返回的tensor是0-dim的scalar
  • 有可能会用到nn.functional中的一些操作
  • Pytorch如何自定义损失函数(Loss Function)? - 知乎
    #例子:class myLoss(nn.Module):def __init__(self,parameters)self.params = self.parametersdef forward(self)loss = cal_loss(self.params)return loss
    #使用  criterion=myLoss()loss=criterion(……)

4.自定义函数方法

方法一:新建一个类

方案1:只定义loss函数的前向计算公式

在pytorch中定义了前向计算的公式,在训练时它会自动帮你计算反向传播。


class My_loss(nn.Module):def __init__(self):super().__init__()def forward(self, x, y):return torch.mean(torch.pow((x - y), 2))#使用:
criterion = My_loss()
loss = criterion(outputs, targets)

方案2:自定义loss函数的forward和backward

from numpy.fft import rfft2, irfft2class BadFFTFunction(Function):def forward(self, input):numpy_input = input.numpy()result = abs(rfft2(numpy_input))return input.new(result)def backward(self, grad_output):numpy_go = grad_output.numpy()result = irfft2(numpy_go)return grad_output.new(result)

方法二: 自定义函数

看一自定义类中,其实最终调用还是forward实现,同时nn.Module还要维护一些其他变量和状态。不如直接自定义loss函数实现:

# 直接定义函数 , 不需要维护参数,梯度等信息

# 注意所有的数学操作需要使用tensor完成。

def my_mse_loss(x, y):

    return torch.mean(torch.pow((x - y), 2))

自定义损失的案例

1.通过自定义一个损失函数类来实现import torch
import torch.nn as nn
import numpy as np
import matplotlib.pyplot as plt# 第一步:自定义损失函数继承nn.Mdule
class My_loss(nn.Module):def __init__(self):super().__init__()def forward(self, x, y):return torch.mean(torch.pow((x - y), 2))
2.准备数据# 第二步:准备数据集,模拟一个线性拟合过程
x_train = np.array([[3.3], [4.4], [5.5], [6.71], [6.93], [4.168], [9.779], [6.182], [7.59], [2.167], [7.042], [10.791], [5.313], [7.997], [3.1]], dtype=np.float32)y_train = np.array([[1.7], [2.76], [2.09], [3.19], [1.694], [1.573], [3.366], [2.596], [2.53], [1.221], [2.827], [3.465], [1.65], [2.904], [1.3]], dtype=np.float32)# 将numpy数据转化为torch的张量
inputs = torch.from_numpy(x_train)
targets = torch.from_numpy(y_train)
3.构建模型input_size = 1
output_size = 1
num_epochs = 60
learning_rate = 0.001# 第三步: 构建模型,构建一个一层的网络模型
model = nn.Linear(input_size, output_size)# 与模型相关的配置、损失函数、优化方式
# 使用自定义函数,等价于criterion = nn.MSELoss()
criterion = My_loss()# 定义迭代优化算法, 使用的是随机梯度下降算法
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)  
4.训练模型loss_history = []
# 第四步:训练模型,迭代训练
for epoch in range(num_epochs):#  前向传播计算网络结构的输出结果outputs = model(inputs)# 计算损失函数loss = criterion(outputs, targets)# 反向传播更新参数,三步策略,归零梯度——>反向传播——>更新参数optimizer.zero_grad()loss.backward()optimizer.step()# 打印训练信息和保存lossloss_history.append(loss.item()) if (epoch+1) % 5 == 0:print ('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item()))
'''运行结果为:
Epoch [5/60], Loss: 33.1027
Epoch [10/60], Loss: 13.5878
Epoch [15/60], Loss: 5.6819
Epoch [20/60], Loss: 2.4788
Epoch [25/60], Loss: 1.1810
Epoch [30/60], Loss: 0.6551
Epoch [35/60], Loss: 0.4418
Epoch [40/60], Loss: 0.3552
Epoch [45/60], Loss: 0.3199
Epoch [50/60], Loss: 0.3055
Epoch [55/60], Loss: 0.2994
Epoch [60/60], Loss: 0.2968
'''
5.结果展示# 第五步:结果展示。画出原y与x的曲线与网络结构拟合后的曲线
predicted = model(torch.from_numpy(x_train)).detach().numpy() #模型输出结果plt.plot(x_train, y_train, 'ro', label='Original data')       #原始数据
plt.plot(x_train, predicted, label='Fitted line')             #拟合之后的直线
plt.legend()
plt.show()# 画loss在迭代过程中的变化情况
plt.plot(loss_history, label='loss for every epoch')
plt.legend()
plt.show()

运行结果为:

自定义损失函数部分未完待续!!!


Pytorch完整训练流程

1.限定使用GPU的序号

import os
os.environ['CUDA_VISIBLE_DEVICES'] = '3'
os.system('echo $CUDA_VISIBLE_DEVICES')

2、导入相关库

import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.utils.data as data
import torch.optim as optim
from torch.autograd import Variable
import numpy as np
from Encoding import load_feature

3、自定义网络

class TransientModel(nn.Module):def __init__(self):super(TransientModel,self).__init__()self.conv1 = nn.Conv2d(16, 8, kernel_size=1)self.conv2 = nn.Conv2d(8, 4, kernel_size=1)self.conv3 = nn.Conv2d(4, 2, kernel_size=1)self.conv4 = nn.Conv2d(2, 1, kernel_size=1)def forward(self, x):x = F.relu(self.conv1(x))x = F.relu(self.conv2(x))x = F.relu(self.conv3(x))x = F.relu(self.conv4(x))return x

4、自定义损失函数Loss

class MyLoss(nn.Module):def __init__(self):super(MyLoss, self).__init__()print '1'def forward(self, pred, truth):truth = torch.mean(truth,1)truth = truth.view(-1,2048)pred  = pred.view(-1,2048)return  torch.mean(torch.mean((pred-truth)**2,1),0)

5、自定义数据读取

class MyTrainData(data.Dataset):def __init__(self):self.video_path = '/data/FrameFeature/Penn/'self.video_file = '/data/FrameFeature/Penn_train.txt'fp = open(self.video_file,'r')lines = fp.readlines()fp.close()self.video_name = []for line in lines:self.video_name.append(line.strip().split(' ')[0])def __len__(self):return len(self.video_name)def __getitem__(self, index):data = load_feature(os.path.join(self.video_path,self.video_name[index]))data = np.expand_dims(data,2)return data

6、定义Train函数

def train(model, train_loader, myloss, optimizer, epoch):model.train()for batch_idx, train_data in enumerate(train_loader):train_data = Variable(train_data).cuda()optimizer.zero_grad()output = model(train_data)loss = myloss(output, train_data)loss.backward()optimizer.step()if batch_idx%100 == 0:print('Train Epoch: {} [{}/{} ({:.0f}%)]\tloss: {:.6f}'.format(epoch, batch_idx*len(train_data), len(train_loader.dataset),100.*batch_idx/len(train_loader), loss.data.cpu().numpy()[0]))

7.训练

if __name__=='__main__':# main()model = TransientModel().cuda()myloss= MyLoss()train_data = MyTrainData()train_loader = data.DataLoader(train_data,batch_size=1,shuffle=True,num_workers=1)optimizer = optim.SGD(model.parameters(),lr=0.001)for epoch in range(10):train(model, train_loader, myloss, optimizer, epoch)

8、结果展示

完整代码

import os
os.environ['CUDA_VISIBLE_DEVICES'] = '3'
os.system('echo $CUDA_VISIBLE_DEVICES')import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.utils.data as data
import torch.optim as optim
from torch.autograd import Variable
import numpy as np
from Encoding import load_featureclass TransientModel(nn.Module):def __init__(self):super(TransientModel,self).__init__()self.conv1 = nn.Conv2d(16, 8, kernel_size=1)self.conv2 = nn.Conv2d(8, 4, kernel_size=1)self.conv3 = nn.Conv2d(4, 2, kernel_size=1)self.conv4 = nn.Conv2d(2, 1, kernel_size=1)def forward(self, x):x = F.relu(self.conv1(x))x = F.relu(self.conv2(x))x = F.relu(self.conv3(x))x = F.relu(self.conv4(x))return xclass MyLoss(nn.Module):def __init__(self):super(MyLoss, self).__init__()print '1'def forward(self, pred, truth):truth = torch.mean(truth,1)truth = truth.view(-1,2048)pred  = pred.view(-1,2048)return  torch.mean(torch.mean((pred-truth)**2,1),0)class MyTrainData(data.Dataset):def __init__(self):self.video_path = '/data/FrameFeature/Penn/'self.video_file = '/data/FrameFeature/Penn_train.txt'fp = open(self.video_file,'r')lines = fp.readlines()fp.close()self.video_name = []for line in lines:self.video_name.append(line.strip().split(' ')[0])def __len__(self):return len(self.video_name)def __getitem__(self, index):data = load_feature(os.path.join(self.video_path,self.video_name[index]))data = np.expand_dims(data,2)return datadef train(model, train_loader, myloss, optimizer, epoch):model.train()for batch_idx, train_data in enumerate(train_loader):train_data = Variable(train_data).cuda()optimizer.zero_grad()output = model(train_data)loss = myloss(output, train_data)loss.backward()optimizer.step()if batch_idx%100 == 0:print('Train Epoch: {} [{}/{} ({:.0f}%)]\tloss: {:.6f}'.format(epoch, batch_idx*len(train_data), len(train_loader.dataset),100.*batch_idx/len(train_loader), loss.data.cpu().numpy()[0]))def main():model = TransientModel().cuda()myloss= MyLoss()train_data = MyTrainData()train_loader = data.DataLoader(train_data,batch_size=1,shuffle=True,num_workers=1)optimizer = optim.SGD(model.parameters(),lr=0.001)for epoch in range(10):train(model, train_loader, myloss, optimizer, epoch)if __name__=='__main__':main()


http://chatgpt.dhexx.cn/article/seBosrdD.shtml

相关文章

GAN的损失函数

1.GAN 在训练过程中,生成器和判别器的目标是相矛盾的,并且这种矛盾可以体现在判别器的判断准确性上。生成器的目标是生成尽量真实的数据,最好能够以假乱真、让判别器判断不出来,因此生成器的学习目标是让判别器上的判断准确性越来…

损失函数比较

Pytorch学习之十九种损失函数 一、简介 损失函数(Loss Function)是用来评估模型好坏程度,即预测值f(x)与真实值的不一致程度,通常表示为L(Y, f(x))的一个非负的浮点数。比如你要做一个线性回归,你拟合出来的曲线不会和原始的数据…

常见的损失函数

1、损失函数的意义 机器学习中的监督学习本质上是给定一系列训练样本 ,尝试学习 的映射关系,使得给定一个 ,即便这个 不在训练样本中,也能够得到尽量接近真实 的输出 。而损失函数(Loss Function)则是这个过…

损失函数

损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结…

常见损失函数

常见损失函数 (cs231n) 文章目录 常见损失函数损失函数定义0-1损失函数(zero-one loss)绝对值损失函数(Absolute loss)log对数损失函数(Log Loss)平方损失函数(Square Loss)指数损失函数 (Exponential Loss)SVM损失函数(Hinge Loss)感知损失函数(percep…

【常见的损失函数总结】

文章目录 损失函数的定义神经网络的学习为何要设定损失函数?常见的损失函数1. 0-1损失函数(zero-one loss)2. 对数损失函数3. 平方损失函数MSE(均值平方差)4. Hinge 损失函数5. 交叉熵损失函数 (Cross-entropy loss function) 损失函数的定义 损失函数&…

神经网络损失函数汇总

目录 一、基础知识 二、分类 (1)二分类交叉熵损失函数(binary_crossentropy) (2)categorical_crossentropy损失函数 (3)sparse_categorical_crossentropy (4&#…

Jmeter 使用正则表达式提取器将返回值全部保存到一个文件中

目标:将响应数据 {"errorCode":0,"message":"success","data":null} 中的message字段的值全部保存到一个文件中。 1.正则表达式提取器 正则表达式:提取内容的正则表达式【()表示提取,对于你要提取的…

Jmeter性能测试报告模板

性能测试报告 一、测试内容 针对当当网——服务器,进行性能测试,主要针对的核心业务是:注册,登录,查看商品信息与提交订单等。 二、测试方法 本次采用Apache的开元测试工具jmeter,采用本地动态拼装请求数据…

Jmeter5.4.1测试批量上传文件(参数化)

0、下载jmeter5.4.1 jmeter5.4.1-Java文档类资源-CSDN下载 注意需要java环境哦 jdk1.8-java_sdk_jre-Java文档类资源-CSDN下载 启动命令: java -jar ApacheJMeter.jar 用这个启动才是中文版本,另外启动后,界面字体太小&#xff0c…

Jmeter接口测试参数化详解

接口测试是目前最主流的自动化测试手段,它组合不同的参数向服务器发送请求,接受和解析响应结果,通过测试数据的交换逻辑来验证服务端程序工作的正确性。我们在测试过程中需要考虑不同的输入组合,来覆盖不同的测试范围;…

Jmeter学习之用户定义变量与用户变量

一、User Defined Variables 1、添加方法:选择“线程组”,右键点击添加-Config Element-User Defined Variables,定义你所需要的参数,如 2、在对应的需要使用参数的位置,使用${host}替代。 …

jmeter请求get接口报错(java.net.URISyntaxException: Illegal character in query at index 153: http://qa....)

log: 问题描述: 接口请求类型:get 请求参数:{"canshu1":"17600000005","canshu2":"test-0004","canshu3":"2021090301"},如下: 请求的时候报错如下: …

jmeter文件上传请求配置:文件,图片,语音、视频上传

图片上传http请求配置: 跟一般的http请求相对,图片上传的配置请求参数多了以下3个部分 1.点击图中【高级】,将客户端实现方式改为java 2.点击【参数】,按照基本请求参数配置即可 3.点击【文件上传】,配置图片路径&am…

JMeter外观配置与汉化

1、JMeter外观配置 推荐使用系统默认的外观,原因:不会出现窗口拉伸、变形等问题。 路径:选项->外观->System 2、JMeter汉化 方法1:修改JMeter设置(一次性的,下次打开JMeter还会恢复默认配置&#x…

16、Jmeter如何创建桌面快捷带图方式(亲测有效)

First step** 1、先找到jmeter文件安装的bin目录—>jmeter.bat文件,创建桌面快捷方式。 ** 2、右键,点击“发送到”---->桌面快捷方式”。然后再选中桌面快捷方式,右键,点击“属性”,修改“属性”里的路径为&am…

11、jmeter读取CSV文件之元件数据文件设置基础页面了解(1)

使用场景以及好处: 读取用例的方法通常有两种,1、通过建立多个请求信息实现接口的入参参数化,2、通过读取csv文件,加载测试用例。第一种方法会导致脚本过于冗余,不便于维护,因此多数情况我们会使用读取csv文…

JMeter的基本使用

目录 一、下载JMeter 二、设置语言为简体中文 三、JMeter外观设置 三、添加线程组 四、添加HTTP请求 五、添加信息头管理器 ​六、创建察看结果树 七、运行查看结果 一、下载JMeter 下载地址:Apache JMeter - Apache JMeter™ 下载zip文件解压后运行bin目录…

使用Jmeter进行性能测试的基本操作方法

Jmeter是一款轻量型的优秀测试软件产品,在很多场合如个人测试,企业测试中都有广泛应用。相比体积巨大的我们在某些场合可能更倾向于对Jmeter的使用,那么我们要如何利用该软件进行性能测试呢? 我们需要下载安装这款全免费的测试软件…

JMeter下载安装及入门教程

1 JMeter介绍 JMeter使用了不同技术和协议,是一款可以进行配置和执行负载测试、性能测试和压力测试的工具。负载测试、性能测试和压力测试概念: 负载测试: 这类测试使系统或者应用程序在预先设计好的极端场景下测试运行。这类测试用来评估系统或者程序…