deepin安装过程

article/2025/9/27 3:42:56

文章目录

  • 前言
  • 一、deepin是什么?
  • 二、安装deepin
  • 总结


前言

今天原本打算安装ubuntu20.04,一时兴起顺便安装一下国产os,感觉使用体验很不错,国产系统看见了希望,所以写这篇文章记录“深度linux”这个国产os的安装过程,同时得到爷爷患癌症去世的消息,心里很不是滋味,所以读者们还是要以自身健康为第一位,该文章参考了如下链接:

安装Ubuntu 20.04 系统

之前安装过双系统的点击这里删除系统与EFI引导分区


提示:以下是本篇文章正文内容,下面案例可供参考

一、deepin是什么?

deepin(Linux Deepin深度操作系统)由深之度科技有限公司在Debian基础上开发的Linux操作系统

2019年,华为开始销售预装有deepin操作系统的笔记本电脑。

系统采用了Kernel 5.4和Kernel 5.7双内核机制,同时用户操作界面也得到了大幅度的调整 ,所以使用体验比ubuntu流畅许多 。deepin是好用的,友好的,方便的

UOS是Linux在中国的商业发行版,主要开发工作由Deepin团队完成,Deepin是社区版,不会被UOS取代,UOS只用于商业用途

二、安装deepin

1:从官网下载镜像与启动盘制作工具http://www.deepin.org/download/
在这里插入图片描述
2:制作启动盘1:选择镜像文件
在这里插入图片描述
2: 选择U盘 //U盘最好大于4G,U盘需要提前格式化为fat32在这里插入图片描述
制作完成后,拔掉U盘即可
3:划分磁盘空间给deepin系统使用1:win+x进入磁盘管理在这里插入图片描述
2:删除卷(删掉你不用的磁盘分区)
在这里插入图片描述
4:安装deepin系统1:把U盘插入电脑
2:电脑关机,重启电脑,一直按ESC按键,弹出如下所示:
在这里插入图片描述
3:选择F9启动设备选项,选择你的U盘进行UEFI启动
4:设置语言
在这里插入图片描述
5:设置安装位置(这个地方重要!!!!!)
在这里插入图片描述
在这里插入图片描述
6:点击下一步等待安装完成。后面按照提示点击就ok!
5:将deepin设置为开机启动在这里插入图片描述
安装后的效果图展示在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

总结

1:deepin使用卡顿关掉窗口特效

在这里插入图片描述
2:安装wine版本的QQ应用会非常卡顿,谁叫鹅厂应用不适配linux系统,这个没办法,linux-for-qq可以讲究用一下

3:如何自己选择启动哪个系统
答:开机按esc,在启动设备里面选择你想要启动双系统的哪一个系统


http://chatgpt.dhexx.cn/article/gF4SkTV1.shtml

相关文章

Deepin 深度Linux系统安装教程

简介 深度操作系统(deepin)是一个致力于为全球用户提供美观易用、安全稳定服务的Linux发行版,同时也一直是排名最高的来自中国团队研发的Linux发行版,下面我们开始从下载镜像到安装系统一步步进行讲解。 系统下载 Deepin Desktop 20.3 最新的版本20.…

tanh激活函数

tanh激活函数 tanh也是一种非常常见的激活函数。与sigmoid相比,它的输出均值是0,使得其收敛速度要比sigmoid快,减少迭代次数。然而,从图中可以看出,tanh和sigmoid一样具有软饱和性,从而造成梯度消失。

ELU激活函数

ELU激活函数 融合了sigmoid和ReLU,左侧具有软饱和性,右侧无饱和性。右侧线性部分使得ELU能够缓解梯度消失,而左侧软饱能够让ELU对输入变化或噪声更鲁棒。ELU的输出均值接近于零,所以收敛速度更快。在 ImageNet上,不加 …

23种激活函数

文章目录 一、简介二、激活函数种类1、恒等函数2、单位阶跃函数3、逻辑函数4、双曲正切函数5、反正切函数6、Softsign函数7、反平方根函数(ISRU)8、线性整流函数(ReLU)9、带泄露线性整流函数(Leaky ReLU)10、参数化线性整流函数(PReLU)11、带泄露随机线性整流函数(RReLU)12、指…

各种激活函数

激活函数可以分为两大类 : 饱和激活函数: sigmoid、 tanh非饱和激活函数: ReLU 、Leaky Relu 、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】 相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点: …

PyTorch教程(5)激活函数

问题 激活函数是什么?它们在实际项目中是如何工作的?如何使用PyTorch实现激活函数? 解答 激活函数是一个数学公式,它根据数学转换函数的类型将二进制、浮点或整数格式的向量转换为另一种格式。神经元存在于不同的层——输入层、隐藏层和输出层,它们…

swish激活函数

激活函数提出论文: swish f(x)x⋅sigmoid(βx) β是个常数或可训练的参数.Swish 具备无上界有下界、平滑、非单调的特性。 Swish 在深层模型上的效果优于 ReLU。例如,仅仅使用 Swish 单元替换 ReLU 就能把 Mobile NASNetA 在 ImageNet 上的 top-1 分类…

几种常用的激活函数

1. 激活函数 如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function。 1.1 激活函数的作用: 如果不用激活函数,每一层输出都是上层…

激活函数作用

激活函数作用: 将权值结果转化成分类结果。常用于 逻辑回归(Logistic Regression)神经网络(Neural Network) 这两处,激活函数都用于计算一个线性函数的结果。 sigmoid函数 : 在机器学习中可用在分类问题上,如逻辑回归模型分类器…

tensorflow中常用的激活函数

激活函数(activation function)运行时激活神经网络中某一部分神经元,将激活神经元的信息输入到下一层神经网络中。神经网络之所以能处理非线性问题,这归功于激活函数的非线性表达能力。激活函数需要满足数据的输入和输出都是可微的,因为在进行…

激活函数简介

1、什么是激活函数? 单一神经元模型展示: 神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传入下一层,输入层神经元节点会将属性值直接传递给下一层(隐层或输出层)。…

激活函数maxout

激活函数maxout 系列文章:maxout函数相对于其他的激活函数有很大的区别,可以看做是在神经网络中激活函数的地方加入一个激活函数层。 maxout可以看做是一个可学习的分段线性函数,因为可学习所以是需要参数的,而且参数是可以通过反向传播来学习的。因为参数量的增大,势必导…

激活函数总结

一、引入激活函数的目的 图1:带一层隐藏层的神经网络 先看一个只含一层隐藏层的神经网络,如图1所示。输入为 n 条样本X,隐藏层H的权重和偏置分别为W_h,b_o,输出层O的权重和偏置分别为W_o,b_o。输出层的计算…

机器学习(14)——激活函数

文章目录 1 定义2 激活函数的必要性3 常用的激活函数3.1 单位阶跃函数3.2 Logistic函数3.3 Tanh函数3.4 ReLU函数3.5 LeakyReLU函数3.6 Softmax函数 4 选择恰当的激活函数 1 定义 激活函数 (Activation functions) 对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说…

GELU激活函数

最近看bert论文,发现用的是GELU激活函数,找出来看看 论文:GAUSSIAN ERROR LINEAR UNITS (GELUS)项目:https://github.com/hendrycks/GELUs ABSTRACT 本文提出了高斯误差线性单元(GELU),一个高性能的神经网络激活函数…

神经网络中的激活函数

文章目录 引言什么是激活函数?为什么我们要在神经网络中使用激活函数?线性激活函数非线性激活函数1. Sigmoid(逻辑激活函数)2. Tanh(双曲正切激活函数)3. ReLU(线性整流单元)激活函数…

激活函数简述

1、激活函数的作用 1.不带激活函数的单层感知机是一个线性分类器,不能解决线性不可分的问题 2.合并后的多个感知器本质上还是一个线性分类器,还是解决不了非线性的问题 3.激活函数是用来加入非线性因素的,提高神经网络对模型的表达能力&a…

常用激活函数

文章目录 前言为什么需要激活函数什么样的函数可以做激活函数什么样的函数是好的激活函数常用激活函数sigmoidtanhReLULeaky ReLURandomized Leaky ReLUMaxout 参考文章 前言 今天这篇文章对一些常用激活函数做一下总结吧。在神经网络中激活函数还是很重要的,并且熟…

激活函数

深度学习中的激活函数导引 我爱机器学习(52ml.net) 2016年8月29日 0 作者:程程 链接:https://zhuanlan.zhihu.com/p/22142013 来源:知乎 著作权归作者所有,已联系作者获得转载许可。 深度学习大讲堂致力于推送人工智能&#xff0c…

详解激活函数

文章目录 0️⃣前言1️⃣Sigmoid2️⃣tanh3️⃣Relu4️⃣Leaky Relu5️⃣Softmax6️⃣总结 0️⃣前言 用了这么久的激活函数,抽空总结一下吧,不然总是忘记,这里介绍常用到的sigmoid,tanh,relu,leaky relu&…