ceph存储快速部署

article/2025/8/25 21:22:09

前言:ceph的基本介绍

Ceph是一个统一的分布式存储系统,设计初衷是提供较好的性能、可靠性和可扩展性。

Ceph特点:

1.高性能:

a. 摒弃了传统的集中式存储元数据寻址的方案,采用CRUSH算法,数据分布均衡,并行度高。

b.考虑了容灾域的隔离,能够实现各类负载的副本放置规则,例如跨机房、机架感知等。

c.能够支持上千个存储节点的规模,支持TB到PB级的数据。

2.高可用性:

a. 副本数可以灵活控制。

b. 支持故障域分隔,数据强一致性。

c. 多种故障场景自动进行修复自愈。

d. 没有单点故障,自动管理。

3.高可扩展性

a. 去中心化。

b. 扩展灵活。

c. 随着节点增加而线性增长

4.特性丰富

a. 支持三种存储接口:块存储、文件存储、对象存储。

b. 支持自定义接口,支持多种语言驱动。

Cephd的核心基于RADOS,RADOS可提供高可靠、高性能和全分布式的对象存储服务。对象的分布可以基于集群中各节点的实时状态,也可以自定义故障域来调整数据分布。块设备和文件都被抽象包装为对象,对象则是兼具安全和强一致性语义的抽象数据类型,因此RADOS可在大规模异构存储集群中实现动态数据与负载均衡。对象存储设备(OSD)是 RADOS 集群的基本存储单元,它的主要功能是存储、备份、恢复数据,并与其他OSD之间进行负载均衡和心跳检查等。一块硬盘 通常对应一个OSD,由OSD对硬盘存储进行管理,但有时一个分区也可以成为一个OSD,每个OSD皆可提供完备和具有强一致性语义的本地对象存储服务。MDS是元数据服务器,向外提供CephFS在服务时发出的处理元数据的请求,将客户端对文件的请求转换为对对象的请求。RADOS中可以有多个 MDS分担元数据查询的工作。

工作环境top图

数据放置算法:

RADOS取得高可扩展性的关键在于彻底抛弃了传统存储系统中的中心元数据节点,另辟蹊径的以基于可扩展哈希的受控副本分布算法—CRUSH来代替。通过CRUSH算法,客户端可以计算出所要访问的对象所在的OSD。与以往的方法相比,CRUSH的数据管理机制更好,它把工作分配给集群内的所有客户端和OSD来处理,因此具有极大的伸缩性。CRUSH用智能数据复制来确保弹性,更能适应超大规模存储。如图所示,从文件到对象以及PG(Placement Group)都是逻辑上的映射,从PG到OSD的映射采用CRUSH算法,以保证在增删集群节点时能找到对应的数据位置。

三类访问接口:

Object:有原生的API,而且也兼容Swift和S3的API。(对象)

Block:支持精简配置、快照、克隆。(块)

File:Posix接口,支持快照。(文件)

下面我们准备环境部署。一般需要5台服务器,master与它的四个mod节点。我们这边为了节约成本使用3台。 

master192.168.80.10
node1192.168.80.7
node2192.168.80.11

 每台主机需要添加2块磁盘,磁盘大小自己控制

 镜像源提取码 

百度网盘 请输入提取码iiii

准备工作。3台主机都需要操作
先下载我们的安装包
[root@ceph1 ~]# yum install net-toolsyum -y install lrzsz unzip zip
//安装常用的工具包[root@ceph1 ~]# cat /etc/hosts
127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4
::1         localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.80.10 ceph1
192.168.80.7 ceph2
192.168.80.11 ceph
//3台主机都要添加主节点的ip信息systemctl stop firewalld && systemctl disable firewalld
setenforce 0 && sed -i 's/SELINUX=enforcing/SELINUX=disabled/g' /etc/selinux/configswapoff -a &&  sed -ri 's/.*swap.*/#&/' /etc/fstab
//关闭防火墙。selinux,swap分区[root@ceph1 ~]# ulimit -SHn 65535
[root@ceph1 ~]# cat /etc/security/limits.conf # End of file
* soft nofile 65535
* hard nofile 65535
* soft nproc  65535
* hard nproc  65535
//这些参数加在文件结尾[root@ceph1 ~]# cat /etc/sysctl.conf 
# sysctl settings are defined through files in
# /usr/lib/sysctl.d/, /run/sysctl.d/, and /etc/sysctl.d/.
#
# Vendors settings live in /usr/lib/sysctl.d/.
# To override a whole file, create a new file with the same in
# /etc/sysctl.d/ and put new settings there. To override
# only specific settings, add a file with a lexically later
# name in /etc/sysctl.d/ and put new settings there.
#
# For more information, see sysctl.conf(5) and sysctl.d(5).
kernel.pid_max = 4194303
net.ipv4.tcp_tw_recycle = 0
net.ipv4.tcp_tw_reuse = 1
net.ipv4.ip_local_port_range = 1024 65000
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_max_tw_buckets = 20480
net.ipv4.tcp_max_syn_backlog = 20480
net.core.netdev_max_backlog = 262144
net.ipv4.tcp_fin_timeout = 20//在文件结尾加上参数[root@ceph1 ~]# sysctl -p
kernel.pid_max = 4194303
net.ipv4.tcp_tw_recycle = 0
net.ipv4.tcp_tw_reuse = 1
net.ipv4.ip_local_port_range = 1024 65000
net.ipv4.tcp_syncookies = 1
net.ipv4.tcp_max_tw_buckets = 20480
net.ipv4.tcp_max_syn_backlog = 20480
net.core.netdev_max_backlog = 262144
net.ipv4.tcp_fin_timeout = 20
//验证
主节点ceph1添加yum源[root@ceph1 ~]# cd /opt/
[root@ceph1 opt]# ls
ceph_images  ceph-pkg  containerd  data
//提前把ceph的包拉进opt目录解压,镜像后面解压mkdir /etc/yum.repos.d.bak/ -pmv /etc/yum.repos.d/* /etc/yum.repos.d.bak/[root@ceph1 ~]# cd /etc/yum.repos.d
[root@ceph1 yum.repos.d]# cat ceph.repo 
[ceph]
name=ceph
baseurl=file:///opt/ceph-pkg/
gpgcheck=0
enabled=1[root@ceph1 opt]# yum makecache
Loaded plugins: fastestmirror
Loading mirror speeds from cached hostfile
ceph                                                                                              | 2.9 kB  00:00:00     
Metadata Cache Created
//建立缓存yum install -y vsftpdecho "anon_root=/opt/" >> /etc/vsftpd/vsftpd.confsystemctl enable --now vsftpd
//下载VSFTP
两个节点换上ceph1的源
mkdir /etc/yum.repos.d.bak/ -p
mv /etc/yum.repos.d/* /etc/yum.repos.d.bak/[root@ceph2 ~]# cd /etc/yum.repos.d
[root@ceph2 yum.repos.d]# cat ceph.repo 
[ceph]
name=ceph
baseurl=ftp://192.168.80.10/ceph-pkg/
gpgcheck=0
enabled=1[root@ceph3 ~]# cat /etc/yum.repos.d/ceph.repo 
[ceph]
name=ceph
baseurl=ftp://192.168.80.10/ceph-pkg/
gpgcheck=0
enabled=1yum clean all
yum makecache
安装时钟源 cp1 cp2 cp3 同时配置yum install -y chrony
//下载chrony[root@ceph1 ~]# cat /etc/chrony.conf 
# Use public servers from the pool.ntp.org project.
# Please consider joining the pool (http://www.pool.ntp.org/join.html).
server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst
server 192.168.80.10 iburst
allow all
local stratum 10[root@ceph2 ~]# cat /etc/chrony.conf
# Use public servers from the pool.ntp.org project.
# Please consider joining the pool (http://www.pool.ntp.org/join.html).
server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst
server 192.168.80.10 iburst
allow all
local stratum 10[root@ceph3 ~]# cat /etc/chrony.conf
# Use public servers from the pool.ntp.org project.
# Please consider joining the pool (http://www.pool.ntp.org/join.html).
server 0.centos.pool.ntp.org iburst
server 1.centos.pool.ntp.org iburst
server 2.centos.pool.ntp.org iburst
server 3.centos.pool.ntp.org iburst
server 192.168.80.10 iburstsystemctl restart chronyd
clock -w
//安装docker cp1 cp2 cp3yum install -y yum-utils device-mapper-persistent-data lvm2yum -y install docker-ce python3
yum -y install python3[root@ceph1 ~]# systemctl status docker
● docker.service - Docker Application Container EngineLoaded: loaded (/usr/lib/systemd/system/docker.service; enabled; vendor preset: disabled)Active: active (running) since Sat 2022-10-01 12:06:58 CST; 12min agoDocs: https://docs.docker.comMain PID: 1411 (dockerd)Tasks: 24Memory: 138.6MCGroup: /system.slice/docker.service└─1411 /usr/bin/dockerd -H fd:// --containerd=/run/containerd/containerd.sockOct 01 12:07:24 ceph1 dockerd[1411]: time="2022-10-01T12:07:24.692606616+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:07:25 ceph1 dockerd[1411]: time="2022-10-01T12:07:25.280448528+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:07:27 ceph1 dockerd[1411]: time="2022-10-01T12:07:27.053867172+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:07:27 ceph1 dockerd[1411]: time="2022-10-01T12:07:27.697494308+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:07:28 ceph1 dockerd[1411]: time="2022-10-01T12:07:28.274449001+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:07:28 ceph1 dockerd[1411]: time="2022-10-01T12:07:28.811756697+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:17:32 ceph1 dockerd[1411]: time="2022-10-01T12:17:32.608800965+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:17:33 ceph1 dockerd[1411]: time="2022-10-01T12:17:33.219899151+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:17:33 ceph1 dockerd[1411]: time="2022-10-01T12:17:33.758334094+08:00" level=info msg="ignoring event" cont...elete"
Oct 01 12:17:34 ceph1 dockerd[1411]: time="2022-10-01T12:17:34.296629723+08:00" level=info msg="ignoring event" cont...elete"
Hint: Some lines were ellipsized, use -l to show in full./安装yum install -y cephadm//docker导入镜像[root@ceph1 ~]# cd /opt/ceph_images/
[root@ceph1 ceph_images]# for i in `ls`;do docker load -i $i;done
Loaded image: quay.io/ceph/ceph-grafana:6.7.4
Loaded image: quay.io/ceph/ceph:v15
Loaded image: quay.io/prometheus/alertmanager:v0.20.0
Loaded image: quay.io/prometheus/node-exporter:v0.18.1
Loaded image: quay.io/prometheus/prometheus:v2.18.1//3台主机都需要执行此操作//初始化mon节点cp1 cp2 cp3mkdir -p /etc/ceph
cephadm bootstrap --mon-ip 10.219.23.71 --skip-pull
//初始话必须在创建的目录下执行https://docs.ceph.com/docs/master/mgr/telemetry/
//最后是这一行内容说明初始化成功
//安装ceph-common工具(ceph1)
服务yum install -y ceph-common//做免密登录[root@ceph1 ~]# ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph2[root@ceph1 ~]#ssh-copy-id -f -i /etc/ceph/ceph.pub root@ceph3//发现集群
[root@ceph1 ~]# ceph orch host add ceph1
Added host 'ceph1'
[root@ceph1 ~]# ceph orch host add ceph2
Added host 'ceph2'
[root@ceph1 ~]# ceph orch host add ceph3
Added host 'ceph3'
//master与2个节点形成集群ceph config set mon public_network  192.168.80.0/24
//执行此命令
[root@ceph1 ~]# ceph orch apply mon ceph1,ceph2,ceph3
Scheduled mon update...
[root@ceph1 ~]#ceph orch host label add ceph1 mon
[root@ceph1 ~]#ceph orch host label add ceph2 mon
[root@ceph1 ~]#ceph orch host label add ceph3 mon
//添加节点信息# node2与node3查看进程
ps -ef | grep docker//验证
[root@ceph1 ~]#  ceph orch device ls
Hostname  Path      Type  Serial  Size   Health   Ident  Fault  Available  
ceph1     /dev/sdb  hdd           21.4G  Unknown  N/A    N/A    Yes        
ceph2     /dev/sdb  hdd           21.4G  Unknown  N/A    N/A    Yes        
ceph3     /dev/sdb  hdd           21.4G  Unknown  N/A    N/A    Yessystemctl restart ceph.target
//重启服务

11.部署OSD
存储数据

 

# 查看可用的磁盘设备
[root@ceph1 ~]#  ceph orch device ls
Hostname  Path      Type  Serial  Size   Health   Ident  Fault  Available  
ceph1     /dev/sdb  hdd           21.4G  Unknown  N/A    N/A    Yes        
ceph2     /dev/sdb  hdd           21.4G  Unknown  N/A    N/A    Yes        
ceph3     /dev/sdb  hdd           21.4G  Unknown  N/A    N/A    Yes# 添加到ceph集群中,在未使用的设备上自动创建osd
[root@ceph1 ~]# ceph orch apply osd --all-available-devices
Scheduled osd.all-available-devices update...# 查看osd磁盘
ceph -sceph df[root@ceph1 ~]# ceph -scluster:id:     2b0a47ba-3e32-11ed-87cb-000c29bdbaa4health: HEALTH_WARN2 failed cephadm daemon(s)1 filesystem is degraded1 MDSs report slow metadata IOs1 osds down1 host (1 osds) downReduced data availability: 97 pgs inactiveDegraded data redundancy: 44/66 objects degraded (66.667%), 13 pgs degraded, 97 pgs undersized2 slow ops, oldest one blocked for 1636 sec, mon.ceph1 has slow opsservices:mon: 1 daemons, quorum ceph1 (age 27m)mgr: ceph3.ikzpva(active, since 27m), standbys: ceph1.xixxhumds: cephfs:1/1 {0=cephfs.ceph1.ffzbyq=up:replay} 2 up:standbyosd: 3 osds: 1 up (since 27m), 2 in (since 3d)data:pools:   3 pools, 97 pgsobjects: 22 objects, 6.9 KiBusage:   2.0 GiB used, 38 GiB / 40 GiB availpgs:     100.000% pgs not active44/66 objects degraded (66.667%)84 undersized+peered13 undersized+degraded+peered[root@ceph1 ~]# ceph df
--- RAW STORAGE ---
CLASS  SIZE    AVAIL   USED    RAW USED  %RAW USED
hdd    40 GiB  38 GiB  39 MiB   2.0 GiB       5.10
TOTAL  40 GiB  38 GiB  39 MiB   2.0 GiB       5.10--- POOLS ---
POOL                   ID  PGS  STORED   OBJECTS  USED     %USED  MAX AVAIL
cephfs-metadata         1   32  113 KiB       22  1.6 MiB      0     54 GiB
device_health_metrics   2    1      0 B        0      0 B      0     18 GiB
cephfs-data             3   64      0 B        0      0 B      0     18 GiB

12.部署MDS
存储元数据
CephFS 需要两个 Pools,cephfs-data 和 cephfs-metadata,分别存储文件数据和文件元数据

ceph osd pool create cephfs-metadata 32 32ceph osd pool create cephfs-data 64 64ceph fs new cephfs cephfs-metadata cephfs-data# 查看 cephfs
[root@ceph1 ~]# ceph fs ls
name: cephfs, metadata pool: cephfs-metadata, data pools: [cephfs-data ]
[root@ceph1 ~]#ceph orch apply mds cephfs --placement="3 ceph1 ceph2 ceph3"
Scheduled mds.cephfs update...# 查看mds有三个,两个预备状态
ceph -s
[root@ceph1 ~]# ceph orch apply rgw rgw01 zone01 --placement="3 ceph1 ceph2 ceph3"
Scheduled rgw.rgw01.zone01 update...[root@ceph1 ~]# ceph orch ls
NAME                       RUNNING  REFRESHED  AGE  PLACEMENT                  IMAGE NAME                                IMAGE ID      
alertmanager                   1/1  31s ago    3d   count:1                    quay.io/prometheus/alertmanager:v0.20.0   0881eb8f169f  
crash                          3/3  56s ago    3d   *                          quay.io/ceph/ceph:v15                     93146564743f  
grafana                        1/1  31s ago    3d   count:1                    quay.io/ceph/ceph-grafana:6.7.4           557c83e11646  
mds.cephfs                     3/3  56s ago    58s  ceph1;ceph2;ceph3;count:3  quay.io/ceph/ceph:v15                     93146564743f  
mgr                            2/2  31s ago    3d   count:2                    quay.io/ceph/ceph:v15                     93146564743f  
mon                            1/3  56s ago    10m  ceph1;ceph2;ceph3          quay.io/ceph/ceph:v15                     mix           
node-exporter                  1/3  31s ago    3d   *                          quay.io/prometheus/node-exporter:v0.18.1  e5a616e4b9cf  
osd.all-available-devices      3/3  56s ago    3m   *                          quay.io/ceph/ceph:v15                     93146564743f  
prometheus                     1/1  31s ago    3d   count:1                    quay.io/prometheus/prometheus:v2.18.1     de242295e225  
rgw.rgw01.zone01               2/3  56s ago    33s  ceph1;ceph2;ceph3;count:3  quay.io/ceph/ceph:v15                     93146564743f  

# 创建授权账号,给客户端使用
 

[root@ceph1 ~]# ceph auth get-or-create client.fsclient mon 'allow r' mds 'allow rw' osd 'allow rwx pool=cephfs-data' -o ceph.client.fsclient.keyring
//-o 指定保存的客户端key文件,这是一种方式,可以创建授权文件,再利用授权文件导出key保存给
客户端使用# 获取key
[root@ceph1 ~]# ceph auth print-key client.fsclient > fsclient.key# 传递给予客户端(客户端可能没有ceph目录,需要创建 mkdir /etc/ceph/)
[root@ceph1 ~]# scp fsclient.key root@ceph2:/etc/ceph/
[root@ceph1 ~]# scp fsclient.key root@ceph3:/etc/ceph/

客户端使用

# 挂载使用cephfs(ceph2或ceph3节点)yum -y install ceph-common# 查看ceph模块
[root@ceph1 ~]# modinfo ceph
filename:       /lib/modules/3.10.0-1160.el7.x86_64/kernel/fs/ceph/ceph.ko.xz
license:        GPL
description:    Ceph filesystem for Linux
author:         Patience Warnick <patience@newdream.net>
author:         Yehuda Sadeh <yehuda@hq.newdream.net>
author:         Sage Weil <sage@newdream.net>
alias:          fs-ceph
retpoline:      Y
rhelversion:    7.9
srcversion:     EB765DDC1F7F8219F09D34C
depends:        libceph
intree:         Y
vermagic:       3.10.0-1160.el7.x86_64 SMP mod_unload modversions 
signer:         CentOS Linux kernel signing key
sig_key:        E1:FD:B0:E2:A7:E8:61:A1:D1:CA:80:A2:3D:CF:0D:BA:3A:A4:AD:F5
sig_hashalgo:   sha256# 检查是否有上面授权给予的密钥key,如果密钥则无法使用相应的key
ls /etc/ceph/[root@ceph1 ~]# ls /etc/ceph/
ceph.client.admin.keyring  ceph.client.fsclient.keyring  ceph.conf  ceph.pub  fsclient.key  rbdmap# 创建挂载点(以data目录为例)
mkdir /cephfs# 挂载[root@ceph1 ~]# mount -t ceph ceph1:6789,ceph2:6789,ceph3:6789:/ /cephfs -o name=fsclient,secretfile=/etc/ceph/fsclient.key# 查看是否挂载成功
[root@ceph1 ~]# df -TH
Filesystem              Type      Size  Used Avail Use% Mounted on
devtmpfs                devtmpfs  2.0G     0  2.0G   0% /dev
tmpfs                   tmpfs     2.0G     0  2.0G   0% /dev/shm
tmpfs                   tmpfs     2.0G   38M  2.0G   2% /run
tmpfs                   tmpfs     2.0G     0  2.0G   0% /sys/fs/cgroup
/dev/mapper/centos-root xfs        54G   11G   43G  21% /
/dev/sda1               xfs       1.1G  158M  906M  15% /boot
/dev/mapper/centos-home xfs        45G   34M   45G   1% /home
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/45a533a79429e5b246e6def07f055ab74f5dc61285bd3c11545dc9c916196651/merged
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/9aee54ff92cad9256ab432d3b3faba73889d1deb6d27bd970cd5cf17c3223ff7/merged
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/2554e96032aeca13ed847b587dfc8633398cb808a0b27cb9962f669acf8775b1/merged
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/958178579d45c6cbadad049097d057ec6a4547d6afbe5d1b9abec8b8aed8a64f/merged
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/6477aa1cb3b34f694d1092a2b6f0dd198db45bf74f3203de49916e18e567c4ea/merged
tmpfs                   tmpfs     396M     0  396M   0% /run/user/0
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/aa0f011762164ffe210eb54d25bce0da97d58e284a4b00ff9e633be43c5babef/merged
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/2bcca822e8dd204d897abdae6e954b9ca35681c890782661877a6724c4c152dd/merged
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/2fcc501129c6abb0c93a0fe078eb588239ec323353bfb32639bf0a0855d94e38/merged
overlay                 overlay    54G   11G   43G  21% /var/lib/docker/overlay2/e78a4e1045a64349c08be6575f0df1b7152960e697933d838fd7103edc49cd26/merged# 配置永久挂载
vim /etc/fstab
ceph1:6789,ceph2:6789,ceph3:6789,ceph4:6789,ceph5:6789:/ /cephfs ceph name=fsclient,secretfile=/etc/ceph/fsclient.key,_netdev,noatime 0 0
# _netdev作为网络传输挂载,不能访问时就不挂载
# noatime为了提示文件性能,不用实时访问时间戳


http://chatgpt.dhexx.cn/article/p3FqqnSG.shtml

相关文章

Ceph存储

集中式存储 所谓集中式系统就是指由一台或多台主计算机组成中心节点,数据集中存储于这个中心节点中,并且整个系统的所有业务单元都集中 部署在这个中心节点上,系统所有的功能均由其集中处理。也就是说,集中式系统中,每个终端或客户端仅仅负责 数据的录入和 输出,而数据的存储与…

ceph(分布式存储)

文章目录 一、ceph的组件和功能1.简介2.层次结构和功能 二、ceph的数据读写流程三、使用ceph-deploy安装一个最少三个节点的ceph集群(推荐3个或以上的磁盘作为专用osd)1.基础配置配置主机名给三台主机写入hosts解析配置node1到所有节点root用户免密钥互信配置时间同步在node1上…

【ceph】学习笔记(三)三大存储模式简介

Ceph本身是一个统一存储&#xff0c;支持块、对象和文件等所有存储形态 在RADOS集群之上&#xff0c;Ceph构建了块存储、文件存储和对象存储等存储形态。由于RADOS集群本身是以对象为粒度进行数据存储的&#xff0c;因此上述三种存储形态&#xff0c;在最终存储数据的时候都划…

Ceph分布式存储

目录 一、ceph简介 1、什么是ceph 2、ceph支持的三种存储方式 1&#xff09;块存储RBD 2&#xff09;对象存储RGW 3&#xff09;文件系统存储ceph-fs 3、ceph的主要特点 4、ceph组件作用 OSD&#xff1a;&#xff08;Object Storage Device&#xff09; Monitors MD…

Ceph 存储介绍

文章目录 一、Ceph 简介二、Ceph 特点三、Ceph 应用场景四、Ceph 核心组件五、Ceph 存储系统的逻辑层次结构六、RADOS 的系统逻辑结构七、Ceph 数据存储过程八、Ceph IO 流程及数据分布1. 正常 IO 流程图2. 新主 IO 流程图 九、Ceph Pool 和 PG 分布情况 一、Ceph 简介 ceph 是…

王道2021版计算机考研书勘误表

转载于 王道论坛 计算机考研QQ群&#xff0c;很多大学的计算机考研/软件考研资料&#xff08;见群文件&#xff09; 群号是 954288959 您还可以在以下平台找到我们 你点的每个在看&#xff0c;我都认真当成了喜欢

计算机组成原理【by王道考研计算机】

文章目录 第一章1. 什么是计算机系统2. 硬件的发展3. 计算机硬件的基本组成冯诺依曼结构现代计算机结构主存储器运算器控制器工作过程实例 4. 计算机系统的层次结构五层结构三种级别的语言 5. 计算机的性能指标存储器的容量CPU其他常用时间单位 第二章1. 进制转换2. 字符与字符…

王道考研-计算机网络

目录 P1 1.1.1 概念、组成、功能、分类1.计算机网络概念2.计算机网络的功能3.计算机网络的组成4.计算机网络分类 P2 1.1.2 标准化工作机器相关组织1.标准化工作 P3 1.1.3 速度指标1.速率与带宽2.吞吐量4.性能指标2.时延带宽积3.往返时延RTT4.利用率 P5 1.2.1 分层结构、协议、接…

王道考研系列 计算机考研 ——机试指南(第二版) 笔记(一)

计算机机试&#xff0c;王道机试指南&#xff08;第二版&#xff09;笔记 机试指南一些笔记。。。 题目代码github链接 https://github.com/BenedictYoung 链接 视频 and pdf 链接&#xff1a;https: //pan.bai du. com/s/1WFl E5hWgg Y9c3J97 fVbsRg?pwd xwep 提取 码&#…

2021王道考研pdf

参考一&#xff1a;&#xff08;2021&#xff09; https://www.bilibili.com/read/cv5517739/ 计算机考研王道天勤PDF百度网盘&#xff08;数据结构、操作系统、计算机组成原理、计算机网络&#xff09;&#xff08;&#xff01;&#xff01;&#xff01;&#xff01;b站这个链…

操作系统笔记(含王道计算机考研——操作系统课件)

操作系统&#xff08;OS&#xff09; 笔记根据B站王道计算机考研——操作系统视频整理所得&#xff0c;视频链接&#xff1a;https://b23.tv/0I2qex视频中所用课件&#xff1a;链接&#xff1a;https://pan.baidu.com/s/101bFWm0Tv0emNpEneidYPA 提取码&#xff1a;y3dd笔记md…

一篇学完:王道考研408计算机网络(全)

笔记首发于&#xff1a;lengyueling.cn PDF版本附在 lengyueling.cn 对应文章结尾&#xff0c;欢迎下载访问交流 网络体系结构 概念与功能 网络&#xff1a;网样的东西或者网站系统 计算机网络&#xff1a;是一个将分散的、具有独立功能的计算机系统&#xff0c;通过通信设…

24考研王道计算机组成原理笔记

24考研王道计算机组成原理笔记 文章目录 24考研王道计算机组成原理笔记前言一、计算机系统概述1.1 计算机的发展1.2 计算机硬件1.2.1 计算机硬件的基本组成1.2.2 各个硬件的工作原理1.2.3 计算机系统的层次结构 1.3 计算机性能指标1.3.1 存储器性能指标1.3.2 CPU性能指标1.3.3 …

2023年计算机考研专业课408 - 王道书资源做题本OneNote电子笔记

&#x1f4bb;cs-408 构建本仓库的初衷是记录自己备考计算机专业课408的过程本仓库收纳了2023年四本王道复习指导书和2023年王道书上的刷题本本仓库分享了一些自己从2022年6月备考以来的学习408心得本仓库分享了自己使用OntNote制作的电子笔记 希望本仓库的一些经验和资源能够…

考研408 王道计算机考研 (初试/复试) 网课笔记总结

计算机初试、复试笔记总结&#xff08;导航栏&#xff09;&#x1f4dd; 408 考研人&#xff0c;人狠话不多&#xff1a;3、2、1&#xff0c;上链接 &#xff01; 408 考研初试 - 备战期&#xff0c;专业课笔记&#xff0c;导航&#x1f6a5;&#x1f6a5;&#x1f6a5; &…

2023考研计算机408王道考研网盘资源

23考研王道考研计算机408网盘资源&#xff0c;关注【小黑马资料库】工粽号&#xff0c;获取全部资料吧&#xff01; 在父亲眼里&#xff0c;他自己成绩优秀是理所当然的&#xff0c;因此他无法容忍自己的儿子头脑不聪明且成绩不优秀。因此&#xff0c;类似于“我很笨&#xff…

数据结构(王道计算机考研笔记)

一、数据结构概念&#xff1a; 对数据之间的关系的结构类型进行总结归纳。 学好这门课&#xff0c;让我们成为信息革命的参与者。 名词解析&#xff1a; 数据项&#xff1a;您申请一个微博账号&#xff0c;其中姓名&#xff0c;性别这些就是数据项 组合项&#xff1a;您账号…

计算机网络:王道考研

前言 计算机考研课程408包括计组、计网、操作系统、数据结构与算法&#xff0c;计组在21年就补完了——计算机组成原理&#xff1a;最详细笔记&#xff01;&#xff0c;数据结构与算法、操作系统都看了&#xff0c;就差计网这个八股文,系统的听了一遍考研课程《王道-计算机网络…

王道计算机考研——计算机组成原理笔记

计算机组成原理 1.计算机系统概述1. 计算机发展历程2.计算机系统的组成3.存储器4.运算器5. 控制器6. 计算机的工作过程&#xff08;重点&#xff09;7. 计算机的层次结构8.计算机的性能指标1. 存储器2. CPU3.系统整体的性能指标4. 思考 2. 数据的表示和运算1.进位计数制2.BCD码…

王道计算机网络总结

文章目录 第一章 计算机网络体系结构概念&功能 第二章 物理层物理层基本概念接口特性&#xff1a;通讯方式&#xff1a;编码与调制 数据交换方式电路交换报文交换分组交换数据报方式虚电路方式 数据交换的三种方式 传输介质物理层设备 第三章 数据链路层封装成帧差错控制流…