Deepin 深度Linux系统安装教程

article/2025/9/26 8:22:10

简介

深度操作系统(deepin)是一个致力于为全球用户提供美观易用、安全稳定服务的Linux发行版,同时也一直是排名最高的来自中国团队研发的Linux发行版,下面我们开始从下载镜像到安装系统一步步进行讲解。

系统下载

Deepin Desktop 20.3  最新的版本20.5装好几次都失败了,不建议使用最新

系统安装

    通过系统镜像工具制作成U盘启动安装盘,重启电脑选择闪存启动即可

1. 开始安装

选择第一项启动图形化安装

2. 选择语言

  安装界面语言选择

选择 简体中文 并勾选 我已仔细阅读并同意

 

3. 硬盘分区

自动分区

没什么重要东西就选择全盘安装,系统会自动分区,点击下一步继续安装

 

手动分区

选择磁盘右边分配键

启动分区 /boot 500M

交换分区 Linux-swap一般设置4-8G

根分区 / 将剩余磁盘空间都给它

    如果需要Efi的 配置 efi 默认300M

 

 

 

 

 

4. 开始安装

安装过程需要耐心等待,可以看下系统介绍。

也可以点开日志查看安装状态。

5. 完成安装

点击 立即重启 将系统重新启动

 

开始使用


1. 登录系统

选择第一项进入系统,也可稍等片刻后自动进入系统。

 2. 选择语言

选择系统语言,简体中文

 

3. 键盘布局

选择 汉语

4. 选择时区

时区选择 上海

 

5. 创建账户

设置用户名称、计算机名以及登录密码

6. 优化系统配置

稍等片刻,等优化完成。

 


桌面

 

 

资源管理器

终端


http://chatgpt.dhexx.cn/article/In0CyFce.shtml

相关文章

tanh激活函数

tanh激活函数 tanh也是一种非常常见的激活函数。与sigmoid相比,它的输出均值是0,使得其收敛速度要比sigmoid快,减少迭代次数。然而,从图中可以看出,tanh和sigmoid一样具有软饱和性,从而造成梯度消失。

ELU激活函数

ELU激活函数 融合了sigmoid和ReLU,左侧具有软饱和性,右侧无饱和性。右侧线性部分使得ELU能够缓解梯度消失,而左侧软饱能够让ELU对输入变化或噪声更鲁棒。ELU的输出均值接近于零,所以收敛速度更快。在 ImageNet上,不加 …

23种激活函数

文章目录 一、简介二、激活函数种类1、恒等函数2、单位阶跃函数3、逻辑函数4、双曲正切函数5、反正切函数6、Softsign函数7、反平方根函数(ISRU)8、线性整流函数(ReLU)9、带泄露线性整流函数(Leaky ReLU)10、参数化线性整流函数(PReLU)11、带泄露随机线性整流函数(RReLU)12、指…

各种激活函数

激活函数可以分为两大类 : 饱和激活函数: sigmoid、 tanh非饱和激活函数: ReLU 、Leaky Relu 、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】 相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点: …

PyTorch教程(5)激活函数

问题 激活函数是什么?它们在实际项目中是如何工作的?如何使用PyTorch实现激活函数? 解答 激活函数是一个数学公式,它根据数学转换函数的类型将二进制、浮点或整数格式的向量转换为另一种格式。神经元存在于不同的层——输入层、隐藏层和输出层,它们…

swish激活函数

激活函数提出论文: swish f(x)x⋅sigmoid(βx) β是个常数或可训练的参数.Swish 具备无上界有下界、平滑、非单调的特性。 Swish 在深层模型上的效果优于 ReLU。例如,仅仅使用 Swish 单元替换 ReLU 就能把 Mobile NASNetA 在 ImageNet 上的 top-1 分类…

几种常用的激活函数

1. 激活函数 如下图,在神经元中,输入的 inputs 通过加权,求和后,还被作用了一个函数,这个函数就是激活函数 Activation Function。 1.1 激活函数的作用: 如果不用激活函数,每一层输出都是上层…

激活函数作用

激活函数作用: 将权值结果转化成分类结果。常用于 逻辑回归(Logistic Regression)神经网络(Neural Network) 这两处,激活函数都用于计算一个线性函数的结果。 sigmoid函数 : 在机器学习中可用在分类问题上,如逻辑回归模型分类器…

tensorflow中常用的激活函数

激活函数(activation function)运行时激活神经网络中某一部分神经元,将激活神经元的信息输入到下一层神经网络中。神经网络之所以能处理非线性问题,这归功于激活函数的非线性表达能力。激活函数需要满足数据的输入和输出都是可微的,因为在进行…

激活函数简介

1、什么是激活函数? 单一神经元模型展示: 神经网络中的每个神经元节点接受上一层神经元的输出值作为本神经元的输入值,并将输入值传入下一层,输入层神经元节点会将属性值直接传递给下一层(隐层或输出层)。…

激活函数maxout

激活函数maxout 系列文章:maxout函数相对于其他的激活函数有很大的区别,可以看做是在神经网络中激活函数的地方加入一个激活函数层。 maxout可以看做是一个可学习的分段线性函数,因为可学习所以是需要参数的,而且参数是可以通过反向传播来学习的。因为参数量的增大,势必导…

激活函数总结

一、引入激活函数的目的 图1:带一层隐藏层的神经网络 先看一个只含一层隐藏层的神经网络,如图1所示。输入为 n 条样本X,隐藏层H的权重和偏置分别为W_h,b_o,输出层O的权重和偏置分别为W_o,b_o。输出层的计算…

机器学习(14)——激活函数

文章目录 1 定义2 激活函数的必要性3 常用的激活函数3.1 单位阶跃函数3.2 Logistic函数3.3 Tanh函数3.4 ReLU函数3.5 LeakyReLU函数3.6 Softmax函数 4 选择恰当的激活函数 1 定义 激活函数 (Activation functions) 对于人工神经网络模型去学习、理解非常复杂和非线性的函数来说…

GELU激活函数

最近看bert论文,发现用的是GELU激活函数,找出来看看 论文:GAUSSIAN ERROR LINEAR UNITS (GELUS)项目:https://github.com/hendrycks/GELUs ABSTRACT 本文提出了高斯误差线性单元(GELU),一个高性能的神经网络激活函数…

神经网络中的激活函数

文章目录 引言什么是激活函数?为什么我们要在神经网络中使用激活函数?线性激活函数非线性激活函数1. Sigmoid(逻辑激活函数)2. Tanh(双曲正切激活函数)3. ReLU(线性整流单元)激活函数…

激活函数简述

1、激活函数的作用 1.不带激活函数的单层感知机是一个线性分类器,不能解决线性不可分的问题 2.合并后的多个感知器本质上还是一个线性分类器,还是解决不了非线性的问题 3.激活函数是用来加入非线性因素的,提高神经网络对模型的表达能力&a…

常用激活函数

文章目录 前言为什么需要激活函数什么样的函数可以做激活函数什么样的函数是好的激活函数常用激活函数sigmoidtanhReLULeaky ReLURandomized Leaky ReLUMaxout 参考文章 前言 今天这篇文章对一些常用激活函数做一下总结吧。在神经网络中激活函数还是很重要的,并且熟…

激活函数

深度学习中的激活函数导引 我爱机器学习(52ml.net) 2016年8月29日 0 作者:程程 链接:https://zhuanlan.zhihu.com/p/22142013 来源:知乎 著作权归作者所有,已联系作者获得转载许可。 深度学习大讲堂致力于推送人工智能&#xff0c…

详解激活函数

文章目录 0️⃣前言1️⃣Sigmoid2️⃣tanh3️⃣Relu4️⃣Leaky Relu5️⃣Softmax6️⃣总结 0️⃣前言 用了这么久的激活函数,抽空总结一下吧,不然总是忘记,这里介绍常用到的sigmoid,tanh,relu,leaky relu&…

常用激活函数(激励函数)理解与总结

引言 学习神经网络的时候我们总是听到激活函数这个词,而且很多资料都会提到常用的激活函数,比如Sigmoid函数、tanh函数、Relu函数。那么我们就来详细了解下激活函数方方面面的知识。本文的内容包括几个部分: 什么是激活函数?激活…