Hadoop入门详解以及Hadoop集群搭建

article/2025/8/28 12:36:40

一、Hadoop概念

hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下,开发分布式程序。hadoop充分利用了集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统(Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System),HDFS有高容错性的特点,并且设计用来部署在低廉的硬件上;HDFS提供了高吞吐量来访问应用程序的数据,适用于那些有着超大数据集的应用程序。HDFS放宽了POSIX的要求,可以以流的形式访问文件系统中的数据。Hadoop最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算。

二、Hadoop发展起源

Hadoop起源于Apache Nutch项目,始于2002年,是Apache Lucene的子项目之一。2004年,Google在“操作系统设计与实现”(Operating System Design and Implementation,OSDI)会议上公开发表了题为MapReduce:Simplfifed Data Processing on Large Clusters (Mapreduce:简化大规模集群上的数据处理)的论文之后,收到启发的Doug cutting(Hadoop创始人)等人开始尝试实现MapReduce计算框架,并将它与NDFS(Nutch Distributed File System)结合,用以支持Nutch引擎的主要算法。由于NDFS和MapReduce在Nutch引擎中有着良好的应用,所有在2006年2月份被分离出来,成为一套完整而独立的软件,并被命名为Hadoop。到了2008年年初,hadoop已经成为Apache的顶级项目,包含众多子项目,被应用到包括Yahoo在内的很多互联网公司。

三、Hadoop的优势及组成

1、Hadoop的优势:

(1)高可靠行:Hadoop底层维护了多个数据副本,所以即使Hadoop集群中的某个节点当计算元素或者存储出现了故障时也不会导致数据的丢失。

(2)高扩展性:Hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇3可以方便的扩展到数以千计的节点中。

(3)高效性:Hadoop能够在节点之间动态的移动数据,并保证各个节点的动态平衡,因此处理速度非常快。

(4)高容错性:Hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。

(5)低成本:与一体机、商用数据仓库以及QlikView、Yonghong Z-Suite等数据集市相比,hadoop是开源的,项目的软件成本因此会大大降低

2、Hadoop组成:

在Hadoop 1.x 时代,Hadoop中的MapReduce同时处理业务逻辑运算和资源的调度,耦合性比较大。在Hadoop 2.x时代,新增Yarn。至此,MapReduce只负责计算,Yarn只负责资源调度。Hadoop 3.x时代在组成上没有变化,继续沿用Hadoop 2.x时代的组成。 

3、HDFS详解

HDFS是Hadoop分布式文件系统,GFS的java开源实现,运行于大型商用机器集群,可实现分布式存储。

HDFS拥有超大型的数据量,为了存储这些庞大的数据,这些文件都存储在多台机器。这些文件的存储以冗余的方式来拯救系统免受可能的数据丢失,在发生故障时,HDFS也使得可用于并行处理的应用程序。

3.1、HDFS的特点:

 HDFS适用于分布式存储和处理

hadoop提供的命令接口与HDFS进行交互

名称节点和数据节点使得用户内置的服务器能够比较轻松的检查集群的状态

流式访问文件系统数据

HDFS提供了文件的权限和验证

3.2、HDFS架构:

HDFS遵循主从架构,它具有一下元素:

(1)namenode - 名称节点:

名称节点是包含GNU/Linux操作系统和软件名称节点的普通硬件。它是一个可以在商品硬件上运行的软件。具有名称节点的系统作为主服务器,执行以下任务:

  • 管理文件系统命名空间,规范客户端对文件的访问。
  • 它也执行文件系统操作,如重命名、关闭和打开文件和目录等

(2)datanode - 数据节点

datanode具有GNU/Linux操作系统和软件Datanode的普通软件,对于集群中的每个节点(普通硬件/系统),有一个数据节点,这些节点管理数据存储在他们的系统。

数据节点上的文件系统执行的读写操作,根据客户的请求。

还根据名称节点的指令执行操作,如块的创建、删除和复制。

(3)块 - block

一般用户数据存储在HDFS文件。在一个文件系统中的文件将被划分为一个或多个段、或存储在个人数据的节点。这些文件段被称为块。简单来说,数据的HDFS可以读取或写入的最小量被称为一个块。缺省的块大小为64MB,但它可以增加,按需要在HDFS配置来改变。

3.3、HDFS的目标

故障检测和恢复:由于HDFS包括大量的普通硬件,部件故障频繁,因此HDFS具有快速自动故障检测和恢复机制。

巨大的数据集:HDFS有数百个集群节点来管理其庞大的数据集的应用程序。

数据硬件:请求的任务,当计算发生不久的数据可以高效的完成。涉及巨大的数据集,特别是它减少了网络通信量,并增加了吞吐量。

DataNode (DN):在本地文件系统存储文件块数据以及块数据的校验和

Secondary NameNode (2NN):每隔一段时间对NameNode元数据备份。

4、MapReduce

MapReduce是一种处理技术和程序模型基于java 的分布式计算。MapReduce算法包含了两项重要的任务,即Map 和 Reduce 。Map采用了一组数据,并将其转换为另一组数据,其中,各个元件被分解成元组(键/值对)。其次,减少任务,这需要从Map作为输入并组合那些数据元组成的一组小的元组输出。作为MapReduce暗示的名称的序列在Map作业之后执行reduce任务。

MapReduce主要优点是:它很容易大规模数据处理在多个计算节点。这个附上一张图:

 在上面的MapReduce模型中,数据处理的原语称为 映射器 和 减速器。分解数据处理应用到映射器 和减速器有时是普通的,但是编写MapReduce形式的应用,扩展应用程序运行在几百,几千,甚至上万的集群中仅仅只需要一个配置的更改。

MapReduce将计算过程分为连个阶段:Map 和 Reduce

Map阶段并行处理输入数据

Reduce阶段对Map结果进行汇总

5、Yarn

Yarn是Yet Another Resource Negotiator 的简称,是一种资源协调者,是Hadoop的资源管理器。

(1)ResourceManager (RM):整个集群资源(内存、cpu等)的老大

(2)NodeManager (NM):单个节点服务器资源老大

(3)ApplicationMaster (AM):单个任务运行的老大

(4)Container:容器,相当于一台独立的服务器,里面封装了任务运行所需要的资源,如内存、cpu、磁盘、网络等。

四、Hadoop集群搭建

在搭建集群之前,需要安装好vmware环境,我这里使用的是Vmware Workstation 16 和 CentOS8,同时再后续中还会使用jdk,hadoop,安装包如下:

百度网盘链接:https://pan.baidu.com/s/1FxIThCPQ-zsirXyn4IipTA
提取码:uu3y

vm环境和centos8环境安装好之后,接下来进入正题

1、修改VMnet 的IP配置

找到自己电脑的VMnet8,手动配置IPv4的ip:192.168.63.1,IP可根据自己的情况去设置

 打开,VM虚拟机,编辑->虚拟网络编辑器进行如下设置:

 2、克隆虚拟机,在搭建hadoop集群时,我们用到了三台虚拟机,所以要克隆三台虚拟机出来。

选中已经安装好的centos8虚拟环境,【右键】->【管理】->【克隆】

 点击【完成】等待克隆完成,然后按照同样的步骤克隆另外两台虚拟机

 3、修改虚拟机IP

三台虚拟机克隆完成后,进行IP修改,可根据自己情况自由选择

主机名IP
node1192.168.63.11
node2192.168.63.22
node3192.168.63.33

 方式一:使用命令进行IP修改

下面以node1为例,打开虚拟机,进入终端,

使用命令:

ifconfig

查看IP详情,然后复制mac地址,mac地址在修改ip时需要用到。

 如果不是root账号,使用

su root

 命令,输入密码切换到root用户

然后输入以下命令修改IP设置

vim /etc/sysconfig/network-scripts/ifcfg-ens160

 按 i 进入编辑模式,然后修改或增加以下内容

#修改
BOOTPROTO="none"
ONBOOT="yes"#新增
HWADDR=00:0c:29:80:ac:6f   #mac地址
IPADDR=192.168.63.11       #IP地址
PREFIX=24
GATEWAY=192.168.63.2       #网关
DNS1=114.114.114.114
DNS2=8.8.8.8

内容修改完毕后,先按ESC键,再按英文冒号,输入 wq!(英文叹号),强制写入并保存,然后再终端输入   reboot  重启

 测试IP是否修改成功,重启后,打开终端,输入命令:ifconfig进行查看是否和我们配置的一样

对 另外两台虚拟机进行相同的操作

方式二:使用图形化界面进行IP修改

打开虚拟机,进入设置

 找到Network

 

 

 配置完成之后,重启虚拟机,打开终端,输入命令:ifconfig 进行查看是否配置成功。

对另外两台虚拟机进行同样的操作

这两种方式都可以修改虚拟机的IP信息,可自由选择。

4、设置虚拟机的主机名及hosts映射(三台虚拟机都需要设置)

4.1、设置主机名

以node1为例,查看当前主机名,打开终端输入: 

hostname

如果不是超级用户root,建议先切换到超级用户:su root 

然后,在终端直接输入 :vim /etc/hostname

 然后按 i 进入编辑模式 将原来的内容替换为新的主机名node1,然后按ESC键,再按英文冒号,输入 wq!,按下回车键Enter,强制保存并退出,重启虚拟机生效

 重启虚拟机后,打开终端,输入:hostname 查看主机名是否设置成功

 4.2、设置hosts映射

以node1为例,同样的需要在root用户下面操作

打开终端输入命令:vim /etc/hosts

 按 i 进入编辑模式,在末尾添加三台虚拟机的ip与主机名,保存退出后,重启虚拟机生效。

192.168.63.11 node1
192.168.63.22 node2
192.168.63.33 node3

 重启虚拟机后,打开终端,输入命令:

ping node1、ping node2、ping node3

 如果都能ping通,则hosts映射成功。

5、关闭虚拟机防火墙

以node1为例,在进行下面命令的操作时,建议切换到root用户

关闭防火墙

systemctl stop firewalld.service

禁止防火墙开启自启

 systemctl disable firewalld.service

查看防火墙状态

systemctl status firewalld

 6、使用Xshell连接虚拟机

首页需要安装好Xshell这个软件并保证三台虚拟机都是出于开启状态,然后打开Xshell,新建会话,输入名称和主机

 然后进行连接

 

 

 

 

 使用同样方法连接另外两台虚拟机。

7、ssh免密登录(node1 做即可)

在Xshell的node1会话中输入:ssh-keygen,一直敲击回车,知道出现如下图所示即可

 然后继续输入:ssh-copy-id node1 ,确认后输入yes,接着输入密码。

 然后输入:ssh-copy-id node2、ssh-copy-id node3   执行上述操作

 最后分别输入:ssh node1、ssh node2、ssh node3,进行测试,如果都能登录成功,则ssh免密登录设置成功。退出使用:exit。

有一些特别情况就是,第三次输入命令的时候,可能会再次出现要你输入yes以及密码的步骤,出现时,我们只需要输入yes和密码就行了。

8、时间同步(三台机器都做)

以node1为例,在node1会话里先后输入以下命令

yum install chrony -y  #安装chronytimedatectl set-timezone Asia/Shanghai  #修改时区vim /etc/chrony.conf    #修改chrony.conf文件pool ntp.aliyun.com iburst  #注释chrony.conf文件的第三行,在第四行添加该内容,保存退出

如果在安装时出现以下报错,请自行百度或者查看我另一篇文章,有解决方案

 

 

 

 设置完成后,重启chrony服务:systemctl restart chronyd

时间同步:chronyc source -v

查看本机时间:timedatectl

9、上传并解压安装包

9.1、在Xshell的node1会话里面先后输入以下命令,创建相应的文件夹。

mkdir -p /hadoop/software    #安装包存放路径mkdir -p /hadoop/server      #软件安装路径

 9.2、上传下载好的jdk-8u51-linux-x64.tar.gz 和 hadoop-3.2.4.tar.gz。

上传时我使用的工具是:FileZilla,

打开 FileZilla,【文件】 -> 【站点管理器】,新建站点并连接

 

 9.3、进入/hadoop/software/目录,查看上传的安装包。同时使用以下命令对安装包进行解压

tar zxvf jdk-8u51-linux-x64.tar.gz -C /hadoop/server/tar zxvf hadoop-3.2.4.tar.gz -C /hadoop/server/

进入目录 /hadoop/server/ 看是否解压成功

 10、安装JDK

如果原来安装过jdk的请先删除原装JDK,如果没有安装过则直接配置JDK环境变量

输入命令:vim /etc/profile

然后在最末尾添加代码:

export JAVA_HOME=/hadoop/server/jdk1.8.0_51
export PATH=:$JAVA_HOME/bin:$PATH

 保存并退出。

 更新profile文件,使配置生效

source /etc/profile

然后输入以下命令进行验证

java -versionjavac

 

 

11、编辑Hadoop配置文件(node1 做即可)

11.1、Hadoop安装包目录结构解释

目录说明
binHadoop最基本的管理脚本是使用脚本的目录,这些脚本是sbin目录下管理脚本的基础实现,用户可以直接使用这些脚本管理和使用Hadoop
etcHadoop配置文件所在的目录
include对外提供的编程库头文件(具体动态库和静态库在lib目录中),这些头文件均是用C++定义的,通常用于C++程序访问HDFS或者编写MapReduce程序
lib该目录包含了Hadoop对外提供的编程动态库和静态库,与include目录中的头文件结合使用
libexec各个服务对应的shell配置文件所在的目录,可用于配置日志输出、启动参数(如JVM参数)等具体信息。
sbinHadoop管理脚本所在的目录,主要包含HDFS和YARN中各类服务的启动/关闭脚本。
shareHadoop各个模块编译后的jar包所在的目录

11.2、创建用于存放数据的data目录

mkdir -p /hadoop/server/hadoop/data/namenode   #存放namenode数据mkdir -p /hadoop/server/hadoop/data/datanode   #存放datanode数据

11.3、修改 hadoop-env.sh 文件 在第55行添加下列代码并保存

#配置JAVA_HOME
export JAVA_HOME=/export/server/jdk1.8.0_321#设置用户以执行对应角色shell命令
export HDFS_NAMENODE_USER=root
export HDFS_DATANODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root
export YARN_NODEMANAGER_USER=root 

 

11.4、 修改core-site.xml文件(配置NameNode),在<configuration>中添加如下代码:

<!-- 默认文件系统的名称。通过URI中schema区分不同文件系统。--><!-- file:///本地文件系统 hdfs:// hadoop分布式文件系统 gfs://。--><!-- hdfs文件系统访问地址:http://nn_host:8020。--><property><name>fs.defaultFS</name><value>hdfs://node1:8020</value></property><!-- 在Web UI访问HDFS使用的用户名。--><property><name>hadoop.http.staticuser.user</name><value>root</value></property>

所有xml文件的编辑都可以利用  FileZilla  工具,将文件复制到本地,利用文本编辑器进行修改。

方式多样,自行选择编辑方式

 

11.5、 修改hdfs-site.xml文件(配置HDFS路径),在<configuration>中添加如下代码:

    <property><name>dfs.namenode.secondary.http-address</name><value>node2:9868</value></property><property><name>dfs.namenode.name.dir</name><value>/hadoop/server/hadoop/data/namenode</value><description>namenode存储名称空间和事务日志的本地文件系统上的路径</description></property><property><name>dfs.datanode.data.dir</name><value>/hadoop/server/hadoop/data/datanode</value><description>datanode存储名称空间和事务日志的本地文件系统上的路径</description></property>

 

 11.6、修改mapred-site.xml文件(配置MapReduce),在<configuration>中添加如下代码:

    <!-- mr程序默认运行方式。yarn集群模式 local本地模式--><property><name>mapreduce.framework.name</name><value>yarn</value></property><!-- MR App Master环境变量。--><property><name>yarn.app.mapreduce.am.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property><!-- MR MapTask环境变量。--><property><name>mapreduce.map.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property><!-- MR ReduceTask环境变量。--><property><name>mapreduce.reduce.env</name><value>HADOOP_MAPRED_HOME=${HADOOP_HOME}</value></property>

 

11.7、修改yarn-site.xml文件(配置YARN),在<configuration>中添加如下代码:

    <!-- yarn集群主角色RM运行机器。--><property><name>yarn.resourcemanager.hostname</name><value>node1</value></property><!-- NodeManager上运行的附属服务。需配置成mapreduce_shuffle,才可运行MR程序。--><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!-- 每个容器请求的最小内存资源(以MB为单位)。--><property><name>yarn.scheduler.minimum-allocation-mb</name><value>512</value></property><!-- 每个容器请求的最大内存资源(以MB为单位)。--><property><name>yarn.scheduler.maximum-allocation-mb</name><value>2048</value></property><!-- 容器虚拟内存与物理内存之间的比率。--><property><name>yarn.nodemanager.vmem-pmem-ratio</name><value>4</value></property>

 11.8、修改workers文件,删除第一行的  localhost,然后添加如下代码:

node1
node2
node3

 

 

11.9 在 /etc/profile 中配置hadoop环境变量 

vim /etc/profile
#在最末尾添加以下内容
export HADOOP_HOME=/hadoop/server/hadoop-3.2.4
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 11.10、输入:以下代码使配置生效

source /etc/profile

然后输入 hadoop  检测环境变量是否配置成功

12、分发配置

 在node1会话中输入下列命令,将所有配置复制给node2、node3

scp -r /hadoop node2:/scp -r /hadoop node3:/scp -r /etc/profile node2:/etc/scp -r /etc/profile node3:/etc/

命令执行完毕之后,在node2、node3虚拟机上分别执行  source /etc/profile,是配置生效。并输入java -version 、javac、hadoop等命令检测环境变量是否生效

13、启动Hadoop集群

13.1、格式化HDFS,在首次启动HDFS时,必须要先将其进行格式化,命令如下:

hdfs namenode -format itcast-hadoop

 

 输入以下命令,查看格式化是否成功

ll /hadoop/server/hadoop/data/namenode/current

 13.2、一键启动hadoop集群

使用以下命令来启动或关闭集群

start-all.sh   #启动stop-all.sh    #停止

 检测是否启动成功,在node1、node2、node3会话中分别输入jps命令,与下图相同则启动成功:

node1:

 node2:

node3:

 

14、访问Hadoop Web UI页面

14.1、在浏览器输入: http://node1:9870   ,访问Hadoop Web UI页面的HDFS集群,然后点击Datanodes,查看启动的节点。

 14.2、在浏览器输入 :http://node1:8088   访问并查看Hadoop Web UI页面的Yarn集群

 到此,Hadoop集群已经搭建完成。


http://chatgpt.dhexx.cn/article/wBlqIDIv.shtml

相关文章

把Redis 设置成服务

设置Redis服务 上面虽然安装启动了Redis&#xff0c;但是一旦关闭cmd窗口&#xff0c;redis就关闭了,为了我们日后开发测试的便利&#xff0c;我们当然要把它设置成windows服务项。 打开cmd命令窗口&#xff0c;切换到Redis目录&#xff0c;输入如下命令&#xff1a; redis-…

配置redis,对外服务

前言 在服务器安装完redis之后&#xff0c;别的机器想要通过IP和端口连接Redis服务器是连接不上的&#xff0c;因此需要配置redis对外服务。 一、打开redis配置文件 vi /etc/redis/redis.conf二、修改bind绑定的地址 三、关闭保护模式 四、重启redis服务 service redis res…

Redis 服务监控

Redis现在在很多公司中应用已经很广泛了&#xff0c;但是如何监控redis&#xff0c;实时的观察redis的性能&#xff0c;下面就关于Redis的常用监控介绍一下。 一、使用redis自带的info命令和monitor命令 现在常见的监控方案基本上都是使用redis自带的info命令和monitor命令获取…

Windows下将Redis设置为服务

如果下载的是免安装的 Redis &#xff0c;解压文件后运行 Redis-server.exe就可开启服务 但是&#xff0c;这个窗口不能关闭&#xff0c;否则服务也会随之关闭&#xff0c;过于麻烦&#xff0c;也不方便操作 所以&#xff0c;我们可以将 redis 设置为一种服务&#xff0c;可利…

【Windows】Redis集群部署

集群是如何进行工作的 Redis采用哈希槽来处理数据与节点之间的映射关系&#xff0c;一个集群共有16384 个哈希槽&#xff0c;每个key通过 CRC16算法计算出一个16bit的值&#xff0c;再对16384取模&#xff0c;得到对应的哈希槽&#xff0c;集群通过维护哈希槽与节点的关系来得…

redis设置服务

设置服务 可以看到如果我们启动redis服务的话&#xff0c;每次都要进入到安装目录&#xff0c;这样是不是很繁琐&#xff0c;所以我们将redis做成一个服务&#xff0c;我们直接启动。 首先将utils/redis_init_script文件复制到/etc/init.d下&#xff0c;同时易名为redis。执行命…

Redis 服务管理

对Redis服务器的管理可以使用redis提供的服务命令&#xff0c;也可以借助一些管理软件&#xff0c;如&#xff1a;phpRedisAdmin 一、Redis服务器命令主要是用于管理redis服务 1.bgrewriteaof 异步执行一个 aof&#xff08;appendonly file&#xff09; 文件重写操作 2.bgsav…

redis服务(2)

配置 gearman 实现数据同步 Gearman是一个支持分布式的任务分发框架。 Gearman Job Server&#xff1a;Gearman核心程序&#xff0c;以守护进程形式运行在后台。 Gearman Client&#xff1a;可以理解为任务的收件员&#xff0c;比如我要在后台执行一个发送邮件的任务&#xff0…

【MySQL集群+Redis配置】

Mysql集群配置 一、主从备份二、主主备份三、多主一从四、一主多从五、Mysql中间件——Amoeba&#xff08;读写分离&#xff09;1)&#xff09;先搭建一个主从关系的服务器2&#xff09; 从服务器上保存授权信息&#xff0c;并开启从服务线程3&#xff09;配置读写分离 六、安装…

Redis部署

Redis部署 Redis入门简介源码编译安装 Redis入门简介 Redis是一个开源的基于内存亦可持久化的日志型、Key-Value数据库&#xff0c;并提供多种语言的API。 Redis是一个key-value存储系统。 和Memcached缓存类似&#xff0c;Redis支持存储的value类型相对更多&#xff0c;包括…

redis数据库服务群集(四)

目录 前言 一、redis集群介绍 1、redis集群优势及实现方法 2、redis三种集群模式的作用 二、主从复制模式 1、Redis主从复制的概念 2、主从复制原理 3、Redis主从复制的作用 4、主从复制流程 5、Redis主从复制的搭建 6、验证主从效果 7、报错排查 三、Redis 哨兵模…

Windows启动redis服务

1、进入到redis的安装目录下&#xff0c;在地址栏输入cmd或者在命令行界面中进入到安装目录下 2、输入命令&#xff1a;redis-server.exe redis.windows.conf 3、出现如下界面表示启动成功

Redis数据库(常用命令及服务部署)

目录 一、关系数据库和非关系数据库 ⭐关系型数据库●一个结构化的数据库&#xff0c;创建在关系模型基础上 ●一般面向于记录 ●包括Oracle、MySQL、SQL Server、Microsoft Access、DB2等 ⭐非关系型数据库 ●除了主流的关系型数据库外的数据库&#xff0c;都认为是非关…

redis服务的部署

redis服务的部署 一. 什么是redis&#xff1f;二. redis的配置以及主从关系二. redis常用指令&#xff1a;三. redis 的高可用1. 什么是高可用&#xff1f;2.配置Sentinel3. 主观下线和客观下线 四. redis集群1.Redis集群2.搭建集群 七. 结合数据库 一. 什么是redis&#xff1f…

【服务端】linux搭建redis集群

分享一次从头到尾的搭建redis的集群过程。 3主3从 图中所有的ip地址都是你自己电脑的ip。 一、安装 1.安装依赖包 yum install gcc-c 由于我之前已经安装过了&#xff0c;所以不用再安装了&#xff0c;没安装过就等它自动完成 2.下载redis&#xff0c;需要注意的是版本需…

将redis 设置为服务

每次启动 redis 都要去到 Redis 安装目录下寻找 redis-server.exe 文件点击&#xff0c;很是麻烦&#xff0c;所以可以通过这个方法将redis设置为服务 进入redis文件夹&#xff0c;输入redis-server.exe --service-install redis.windows.conf --loglevel verbose 出现如下情况…

redis服务

redis软件下载地址&#xff1a;Redis redis支持的数据类型: • 字符串(strings) • 散列(hashes) • 列表(lists) • 集合(sets) • 有序集合(sorted sets) redis常用命令&#xff1a; config get *查看配置select 1选择数据库flushdb清空当前数据库flushall清空所有数据库…

Redis添加到系统服务

一、需求 当我们使用Redis时&#xff0c;需要启动Redis服务&#xff0c;然后才能够在客户端使用&#xff0c;在这里推荐使用一个Redis的客户端管理工具 redisdesktopmanager&#xff0c;每次在控制台打开Redis服务之后&#xff0c;都不能够将该窗口关闭&#xff0c;因为一旦关…

windows redis 后台启动 redis 服务

下载Redis 在Redis的官网下载页上有各种各样的版本&#xff0c;我这次是在windows上部署的&#xff0c;要去GitHub上下载。目前的是2.8.12版的&#xff0c;直接解压&#xff0c;在\bin\release 目录下有个压缩包&#xff0c;这就是我们需要的&#xff1a; 启动Redis 直接在上…

Redis服务部署

这里写自定义目录标题 一.关系型数据与非关系型数据1.1关系型数据库1.2非关系型数据库1.3关系型数据库和非关系型数据库区别1.4非关系型数据库产生背景 二.Redis简介2.1Redis概述2.2Redis优点 三.Redis服务部署四.Redis常用命令4.1Redis工具4.2Redis数据库常用命令4.3密码设置4…