C# 多线程七 任务Task的简单理解与运用一

article/2025/11/8 14:11:02

目录

一.Task

二.Task中的全局队列和本地队列

三.TaskCreationOptions 枚举

四.CancellationTokenSource/CancellationToken

1.延时取消线程

2.立即取消:

五.Task的三种调用方式


为了防止大家被标题误导 写在前面:

Task并不是线程 Task的执行需要线程池中的或者独立线程来完成Task和线程并不是1对1的关系 这个从下文的图中可以看出,任务只能说是“异步的”,不见得要在其他线程上运行

前言:

终于写到Task了 其实之所以开始写线程的这个专栏 就是因为使用到了Task 因为想对多线程更加了解 所以开始耐着性子从Thread->Interlocker->Monitor->Mutex->ThreadPool 这样一路写了过来 本来以为ThreadPool写完紧接着就能开始写Task 结果又发现了AutoResetEvent/ManualResetEvent和 信号量 Semaphore/SemaphoreSlim 于是又写了一篇关于AutoResetEvent/ManualResetEvent,今天终于写到Task了,有时候就是这样,没有办法一蹴而就需要循序渐进 我在学习中还有很多不足,容易浮躁,这次一套写下来受益匪浅。

一.Task

Task是在ThreadPool的基础上推出的
首先明确Task并不是线程 Task的执行需要线程池中的或者独立线程来完成Task和线程并不是1对1的关系 这个从下文的图中可以看出
关于ThreadPool 我们在 C# 多线程五 ThreadPool线程池的简单理解与运用中已经有介绍不再赘述
我们知道了ThreadPool的弊端:

不能控制线程池中线程的执行顺序,

不能获取线程池内线程取消/异常/完成的通知。

net4.0在ThreadPool的基础上推出了Task,Task拥有线程池的优点,同时也解决了使用线程池不易控制的弊端。

二.Task中的全局队列和本地队列

Task使线程池中的每个线程都有一个本地队列 线程池通过一个任务调度器分配任务

主线程创建一个Task 由于创建这个Task的并不是线程池中的线程任务调度器会把该Task放入全局队列中 如果这个Task是由线程池中的线程创建,并且未设置TaskCreationOptions.PreferFairness标记(默认情况下未设置),则任务调度器会把该Task放入到该线程的本地队列中如果设置了TaskCreationOptions.PreferFairness标记,则放入全局队列

ThreadPool的运行原理:

Task的运行原理:

​ 

三.TaskCreationOptions 枚举

None = 0

默认的,任务进入本地队列,使用线程池中的线程

PreferFairness = 1 

preferLocal=false,进入全局队列

LongRunning = 2

默认的TaskScheduler采用的是.NET线程池ThreadPool,它主要面向的是细粒度的小任务,其执行时间通常在毫秒级。线程池中的线程数与处理器的内核数有关,如果线程池中没有空闲的线程,那么后续的Task将会被阻塞。因此,如果事先知道一个Task的执行需要较长的时间,就需要使用TaskCreationOptions.LongRunning枚举指明。使用TaskCreationOptions.LongRunning创建的任务将会脱离线程池启动一个单独的线程来执行

AttachedToParent = 4

父Task会等待子Task结束。
父Task会捕获子Task的Exception。
父Task的执行状态取决于子Task的执行状态。


子任务和父任务并不一定运行在同一线程上。

DenyChildAttach = 8

如果你不希望一个Task的启动的子Attach附加到它自己身上,则可以在启动父Task时为它指定TaskCreationOptions.DenyChildAttach。通过DenyChildAttach启动的父Task拒绝用AttachedToParent来启动子Task的附加

HideScheduler = 16

当指定TaskCreationOptions.HideScheduler时,创建Task里再创建的子Task将使用默认的TaskScheduler(既是ThreadPoolTaskScheduler——线程池),而不是当前的TaskScheduler。这相当于在创建Task时隐藏了自己当前的TaskScheduler。对于本身就是在默认的TaskScheduler里创建的Task
关于TaskScheduler 这篇博客说的很清楚 有兴趣的可以去看下C#TaskScheduler 任务调度器的原理 - 小林野夫 - 博客园


我个人的理解是 TaskScheduler 就是线程操作任务的逻辑,那些线程用哪些方式去执行或者等待 就想是帮助线程分发任务的一个指挥中心

RunContinuationsAsynchronously = 64

强制异步执行添加到当前任务的延续任务

四.CancellationTokenSource/CancellationToken

CancellationTokenSource通知 CancellationToken,告知其应被取消。
一个 CancellationToken 对象,指示是否请求取消。
一个 CancellationTokenSource 对象,该对象通过其 Token 属性提供取消令牌,并通过调用取消 Cancel 消息或 CancelAfter 方法发送取消消息。

使用方法:
实例化 CancellationTokenSource 对象,此对象管理取消通知并将其发送给单个取消标记。

CancellationTokenSource.Token 属性返回的标记传递给每个侦听取消的任务或线程

 CancellationToken.IsCancellationRequested从接收取消令牌的操作调用该方法。 为每个任务或线程提供响应取消请求的机制。 是否选择取消操作,以及具体操作方式取决于应用程序逻辑。

 调用 CancellationTokenSource.Cancel 方法以提供取消通知。 这将取消 CancellationToken.IsCancellationRequested 令牌的每个副本上的属性设置为 true。

 Dispose使用完对象后CancellationTokenSource调用该方法

几个常用方法:
Cancel()
传达取消请求。


Cancel(Boolean)
如果出现异常,传达取消请求,并指定是否应处理其余回调和可取消操作。


CancelAfter(Int32)
在指定的毫秒数后计划对此 CancellationTokenSource 的取消操作。


CancelAfter(TimeSpan)
在指定的时间跨度后计划对此 CancellationTokenSource 的取消操作。


Dispose()
释放 CancellationTokenSource 类的当前实例所使用的所有资源。

1.延时取消线程

代码:

class Program {static void Main(string[] args) {using(CancellationTokenSource cancellationTokenSource = new CancellationTokenSource()) {Task task2 = new Task(() => {Console.WriteLine("第二种 传入一个Action 和 一个取消令牌");}, cancellationTokenSource.Token);//延时取消cancellationTokenSource.CancelAfter(1000);//取消回调cancellationTokenSource.Token.Register(() => {Console.WriteLine("取消令牌,取消后的回调");});task2.Start();}}
}

 打印:

2.立即取消:

代码:

class Program {static void Main(string[] args) {using(CancellationTokenSource cancellationTokenSource = new CancellationTokenSource()) {Task task2 = new Task(() => {Console.WriteLine("第二种 传入一个Action 和 一个取消令牌");}, cancellationTokenSource.Token);//取消回调cancellationTokenSource.Token.Register(() => {Console.WriteLine("取消令牌,取消后的回调");});task2.Start();//取消cancellationTokenSource.Cancel();}Console.ReadLine();}
}

 打印:

注:注意cancellationTokenSource.Cancel();和task2.Start();的执行顺序 如果先cancellationTokenSource.Cancel()然后task2.Start()会报错:不能对已完成的任务执行Start

五.Task的三种调用方式

1.Task task=new task()
task.Start();
使用默认TaskScheduler执行任务
task.Start(TaskScheduler scheduler);   
使用只当TaskScheduler执行任务

可以为委托传递一个参数 但是需要装箱拆箱

2.Task.Factory.StartNew()
可以自定义任务调度器
StartNew方法仅在需要精细地控制长时间运行的计算密集型任务时使用
可以为委托传递输入参数。

3.Task.Run(() => { });
使用默认的线程池调度器
Run方法是启动计算密集型任务的建议的方法
Run方法无法为委托传递输入参数。


内容太多分篇了,剩下的下篇在写

C# 多线程八 任务Task的简单理解与运用二

如果有不对的地方希望能指出来 感激不尽。

另外,不熟悉的代码一定要写一下加深记忆 只用看的记不了太久。


http://chatgpt.dhexx.cn/article/ph2hfHCR.shtml

相关文章

整理学习之多任务学习

如果有n个任务(传统的深度学习方法旨在使用一种特定模型仅解决一项任务),而这n个任务或它们的一个子集彼此相关但不完全相同,则称为多任务学习(MTL) 通过使用所有n个任务中包含的知识,将有助于改…

多任务学习优化总结 Multi-task learning(附代码)

目录 一、多重梯度下降multiple gradient descent algorithm (MGDA) 二、Gradient Normalization (GradNorm) 三、Uncertainty 多任务学习的优势不用说了,主要是可以合并模型,减小模型体积,只用一次推理也可以加快速度。对于任务表现的提升…

经验 | 训练多任务学习(Multi-task Learning)方法总结

点击上方“小白学视觉”,选择加"星标"或“置顶” 重磅干货,第一时间送达 转载于:知乎Anticoder https://zhuanlan.zhihu.com/p/59413549 背景:只专注于单个模型可能会忽略一些相关任务中可能提升目标任务的潜在信息&…

多任务学习(Multi-Task Learning)

转自:https://www.cnblogs.com/zeze/p/8244357.html 1. 前言 多任务学习(Multi-task learning)是和单任务学习(single-task learning)相对的一种机器学习方法。在机器学习领域,标准的算法理论是一次学习一…

多任务学习 | YOLOP,一个网络同时完成三大任务

关注并星标 从此不迷路 计算机视觉研究院 公众号ID|ComputerVisionGzq 学习群|扫码在主页获取加入方式 paper: https://arxiv.org/abs/2108.11250 code: https://github.com/hustvl/YOLOP 计算机视觉研究院专栏 作者:Edison_G YOLOP: You Onl…

多任务学习概述

文章目录 前言1 文章信息2 背景、目的、结论2.1 背景2.1.1 多任务的类型分类2.1.1.1 相关任务的分类2.1.1.2 将输入变输出的逆多任务学习2.1.1.3 对抗性多任务学习2.1.1.4 辅助任务提供注意力特征的多任务学习2.1.1.5 附加预测性辅助任务的多任务学习 3 内容与讨论3.1 多任务学…

多任务学习(Multi-task Learning)方法总结

多任务学习(multi task learning)简称为MTL。简单来说有多个目标函数loss同时学习的就算多任务学习。多任务既可以每个任务都搞一个模型来学,也可以一个模型多任务学习来一次全搞定的。 作者丨Anticoder知乎 链接丨https://zhuanlan.zhihu.co…

浅谈多任务学习

目录 一、前言及定义 二、多任务学习(MTL)的两种方法 2.1 参数的硬共享机制(hard parameter sharing) 2.2 参数的软共享机制(soft parameter sharing) 三、多任务学习模型 3.1 MT-DNN 3.2 ERNIE 2.0…

多任务学习

一、单任务学习和多任务学习 多任务学习是和单任务学习对应的一种机器学习方法。 单任务学习 在单任务学习中,认为不同任务之间是不具有关联性的。因此,每个模型的参数都是独立训练的。这样的学习方法有两个缺陷: 由于每个任务中的训练数据有…

多任务学习 (Multitask Learning) 汇总

1 前言 多任务学习(Multi-task learning)是和单任务学习(single-task learning)相对的一种机器学习方法。在机器学习领域,标准的算法理论是一次学习一个任务,也就是系统的输出为实数的情况。复杂的学习问题…

【GANs学习笔记】(十八)LAPGAN、ProGAN、SRGAN

完整笔记:http://www.gwylab.com/note-gans.html ——————————————————————— 4. LapGAN 4.1 LapGAN基本思路 如果我们希望生成高分辨率图像,还有一种GANs可以考虑,那就是LapGAN。LapGAN与StackGAN有着非常类似的思路&…

GAN网络

目录 GAN生成网络G(Generative)对抗网络D(Discriminative)两分布之间差异性评价KL散度JS散度 损失函数一次代码实验 WGANWGAN-GPConditional GAN GAN 生成式对抗网络(GAN, Generative Adversarial Networks&#xff0…

基于pytorch的SRGAN实现(全网最细!!!)

基于pytorch的SRGAN实现 前言SRGAN论文概要(贡献)网络结构和损失函数pytorch代码实现1. 准备工作1.1 数据下载并放到合适位置 2. 开始训练和测试 源码详解1. 数据集的加载: data_utils.py2. 网络模型: model.py2.1 生成器: Generator2.2 判别器:Discrimi…

超分辨率——基于SRGAN的图像超分辨率重建(Pytorch实现)

基于SRGAN的图像超分辨率重建 本文偏新手项,因此只是作为定性学习使用,因此不涉及最后的定量评估环节 目录 基于SRGAN的图像超分辨率重建1 简要介绍2 代码实现2.1 开发环境2.2 主要流程2.3 构建数据集2.4 构建生成模型(Generator&#xff09…

SRCNN神经网络

0 前言 超分辨率技术(Super Resolution,SR)是指从观测到的低分辨率图像重建出相应的高分辨率图像,在监控设备、卫星图像和医学影像等领域都拥有着重要的应用价值。 1 SRCNN SRCNN是深度学习用在超分辨率重建上的开山之作。 其结构十分简单&#xff0c…

SRGAN的理解

全文翻译见:https://blog.csdn.net/weixin_42113955/article/details/89001989 和https://blog.csdn.net/c2a2o2/article/details/78930865 1. ptrain是真正的HR图像,也就是data要预测的。 pG是生成的超分辨图像 好处在于:固定 G&#xff0c…

GANs综述

生成式对抗网络GANs及其变体 基础GAN 生成式对抗网络,是lan Goodfellow 等人在2014年开发的,GANs 属于生成式模型,GANs是基于最小值和最大值的零和博弈理论。 为此,GANs是由两个神经网络组成一个Generator。另一个是Discriminat…

图像的超分辨率重建SRGAN与ESRGAN

SRGAN 传统的图像超分辨率重建方法一般都是放大较小的倍数,当放大倍数在4倍以上时就会出现过度平滑的现象,使得图像出现一些非真实感。SRGAN借助于GAN的网络架构生成图像中的细节。 训练网络使用均方误差(MSE)能够获得较高的峰值…

SRGAN With WGAN

SRGAN With WGAN RGAN 是基于 GAN 方法进行训练的,有一个生成器和一个判别器,判别器的主体使用 VGG19,生成器是一连串的 Residual block 连接,同时在模型后部也加入了 subpixel 模块,借鉴了 Shi et al 的 Subpixel Ne…

SRGAN论文与ESRGAN论文总结

博客结构 SRGANContribution:Network Architecture:Generator NetworkDiscriminator Network Perceptual loss function:Experiments:Mean opinion score (MOS) testing: ESRGANContribution:Network Architecture:ESR…