CentOS7搭建hadoop集群

article/2025/8/28 9:31:21

说明:

        1.准备三台虚拟机,参考:CentOS7集群环境搭建(以3台为例)

        2.配置虚拟机间免密登陆:参考:CentOS7集群配置免密登录

        3.虚拟机分别安装jdk:参考:CentOS7集群安装JDK1.8

        4.hadoop安装包下载,下载地址

准备开始搭建hadoop集群,以下操作在第一台机器node1执行:

1.上传并解压hadoop安装包

1.1上传安装包到/develop/software

mkdir -p /develop/software
mkdir -p /develop/server
cd /develop/software
rz

 1.2解压安装包到/develop/server

tar -zxvf hadoop-2.7.5.tar.gz -C /develop/server/

 1.3切换到解压目录,查看解压后的文件

cd /develop/server/hadoop-2.7.5
ll

2.修改hadoop配置文件

2.1切换到hadoop的etc/hadopp目录,修改hadoop-env.sh

cd /develop/server/hadoop-2.7.5/etc/hadoop/
ll
vim hadoop-env.sh

 2.2配置hadoop-env.sh文件,修改jdk路径

export JAVA_HOME=/develop/server/jdk1.8.0_241

 2.3配置core-site.xml(hadoop的核心配置文件)在<configuration></configuration>中配置以下内容

<!-- 设置Hadoop的文件系统 --> 
<property><name>fs.defaultFS</name><value>hdfs://node1:8020</value></property>
<!-- 配置Hadoop数据存储目录 --><property><name>hadoop.tmp.dir</name><value>/develop/server/hadoop-2.7.5/data/tempdata</value>
</property>
<!--  缓冲区大小 --><property><name>io.file.buffer.size</name><value>4096</value></property>
<!--  hdfs的垃圾桶机制,单位分钟 --><property><name>fs.trash.interval</name><value>10080</value></property>

 2.4配置hdfs-site.xml(hdfs的核心配置文件),在<configuration></configuration>中配置以下内容,注意secondaryNameNode和Namenode不要放在同一台机器上

<!-- SecondaryNameNode的主机和端口 -->
<property><name>dfs.namenode.secondary.http-address</name><value>node2:50090</value>
</property>
<!-- namenode的页面访问地址和端口 -->
<property><name>dfs.namenode.http-address</name><value>node1:50070</value>
</property>
<!-- namenode元数据的存放位置 -->
<property><name>dfs.namenode.name.dir</name><value>file:///develop/server/hadoop-2.7.5/data/nndata</value>
</property>
<!--  定义datanode数据存储的节点位置 -->
<property><name>dfs.datanode.data.dir</name><value>file:///develop/server/hadoop-2.7.5/data/dndata</value>
</property>	
<!-- namenode的edits文件存放路径 -->
<property><name>dfs.namenode.edits.dir</name><value>file:///develop/server/hadoop-2.7.5/data/nn/edits</value>
</property>
<!-- 检查点目录 -->
<property><name>dfs.namenode.checkpoint.dir</name><value>file:///develop/server/hadoop-2.7.5/data/snn/name</value>
</property><property><name>dfs.namenode.checkpoint.edits.dir</name><value>file:///develop/server/hadoop-2.7.5/data/dfs/snn/edits</value>
</property>
<!-- 文件切片的副本个数-->
<property><name>dfs.replication</name><value>3</value>
</property>
<!-- HDFS的文件权限-->
<property><name>dfs.permissions</name><value>true</value>
</property>
<!-- 设置一个文件切片的大小:128M-->
<property><name>dfs.blocksize</name><value>134217728</value>
</property>

2.5复制mapred-site.xml.template,并更改名称为mapred-site.xml

cp mapred-site.xml.template mapred-site.xml
ll

2.6配置mapred-site.xml(MapReduce的核心配置文件),在<configuration></configuration>中配置以下内容

<!-- 分布式计算使用的框架 -->
<property><name>mapreduce.framework.name</name><value>yarn</value>
</property>
<!-- 开启MapReduce小任务模式 -->
<property><name>mapreduce.job.ubertask.enable</name><value>true</value>
</property>
<!-- 历史任务的主机和端口 -->
<property><name>mapreduce.jobhistory.address</name><value>node1:10020</value>
</property>
<!-- 网页访问历史任务的主机和端口 -->
<property><name>mapreduce.jobhistory.webapp.address</name><value>node1:19888</value>
</property>

2.7配置mapred-env.sh,指定JAVA_HOME

export JAVA_HOME=/develop/server/jdk1.8.0_241

2.8配置yarn-site.xml(YARN的核心配置文件) ,在<configuration></configuration>中配置以下内容

<!-- yarn主节点的位置 -->
<property><name>yarn.resourcemanager.hostname</name><value>node1</value>
</property>
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
</property>
<!-- 开启日志聚合功能 -->
<property><name>yarn.log-aggregation-enable</name><value>true</value>
</property>
<!-- 设置聚合日志在hdfs上的保存时间 -->
<property><name>yarn.log-aggregation.retain-seconds</name><value>604800</value>
</property>
<!-- 设置yarn集群的内存分配方案 -->
<property>    <name>yarn.nodemanager.resource.memory-mb</name>    <value>2048</value>
</property>
<property>  <name>yarn.scheduler.minimum-allocation-mb</name><value>2048</value>
</property>
<property><name>yarn.nodemanager.vmem-pmem-ratio</name><value>2.1</value>
</property>

 2.9配置slaves,slaves文件里面记录的是集群主机名,删除原有内容,配置以下内容

node1
node2
node3

3.创建数据存放目录

mkdir -p /develop/server/hadoop-2.7.5/data/tempdata
mkdir -p /develop/server/hadoop-2.7.5/data/nndata
mkdir -p /develop/server/hadoop-2.7.5/data/dndata
mkdir -p /develop/server/hadoop-2.7.5/data/nn/edits
mkdir -p /develop/server/hadoop-2.7.5/data/snn/name
mkdir -p /develop/server/hadoop-2.7.5/data/dfs/snn/edits

4.文件分发

4.1将安装配置好的hadoop分发到另外两台机器

scp -r hadoop-2.7.5/ node2:$PWD
scp -r hadoop-2.7.5/ node3:$PWD

4.2在另外两台机器上分别查看分发后的文件

cd /develop/server/
ll

 

4.3分别在三台机器上配置hadoop环境变量

vim /etc/profile.d/my_env.sh
# HADOOP_HOME
export HADOOP_HOME=/develop/server/hadoop-2.7.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 4.4刷新环境变量

source /etc/profile

4.5另外两台机器同样配置环境变量 

5.启动hadoop集群

5.1首次启动hdfs时需要格式化,在node1执行以下命令

hadoop namenode -format

 5.2启动相关服务,三种启动方式

5.2.1单节点逐一启动,

5.2.1.1启动namenode,在node1执行以下命令

hadoop-daemon.sh start namenode

5.2.1.2三台机器分别启动datanode,在node1、node2、node3上,分别使用以下命令启动 datanode

hadoop-daemon.sh start datanode

5.2.1.3在node1启动resourcemanager

yarn-daemon.sh  start resourcemanager

5.2.1.4在node1、node2、node3上使用以下命令启动YARN nodemanager

yarn-daemon.sh start nodemanager

5.2.1.5在node2上启动secondarynamenode

hadoop-daemon.sh start secondarynamenode

 5.2.1.6在node1上启动historyserver

mr-jobhistory-daemon.sh start historyserver

5.2.1.7查看服务启动情况,分别在三台机器执行jps命令

 

 5.2.1.8关闭服务

如果要关闭服务只需将上面命令中的start改为stop即可

5.2.2使用hadoop自带脚本启动,以下命令在node1执行

5.2.2.1启动hdfs

start-dfs.sh

 5.2.2.2启动yarn

start-yarn.sh

5.2.2.3启动历史任务服务

mr-jobhistory-daemon.sh start historyserver

5.2.2.3关闭服务

stop-dfs.sh
stop-yarn.sh
mr-jobhistory-daemon.sh stop historyserver

5.2.3一键启动脚本:hadoop集群启动脚本

6.访问集群UI页面

6.1 namenode集群页面

http://ip:50070/ 

6.2 yarn集群页面

http://ip:8088/cluster

6.3mapreduce历史任务页面

http://ip:19888/jobhistory

到此,hadoop集群搭建完毕


http://chatgpt.dhexx.cn/article/ov8TsPXB.shtml

相关文章

启动Hadoop集群

启动Hadoop集群 第一次启动前置工作 注意&#xff1a;首次启动 HDFS 时&#xff0c;必须对其进行格式化操作。本质上是一些清理和准备工作&#xff0c;因为此时的 HDFS 在物理上还是不存在的。(本质是对namenode进行初始化) 命令&#xff1a;hdfs namenode -format 或者 had…

Hadoop集群部署和启动与关闭

文章目录 一、安装Hadoop二、Hadoop高可用集群配置三、启动Hadoop高可用集群配置四、关闭Hadoop高可用集群 Hadoop集群的部署方式分为三种&#xff0c;分别是独立模式&#xff08;Standalone mode&#xff09;、伪分布式模式&#xff08;Pseudo-Distributed mode&#xff09;和…

Hadoop集群搭建(超级详细)

感谢评论区大佬们指出文章中的一些错误&#xff0c;已经进行修改。如果还存在其他错误&#xff0c;希望大佬们指出&#xff01; 需要的安装包&#xff1a;jdk-8u162-linux-x64.tar.gz&#xff08; 提取码&#xff1a;6k1i &#xff09;、hadoop-3.1.3.tar.gz&#xff08; 提取…

Hadoop集群搭建配置教程

Hadoop3.1.3集群搭建 前言集群规划集群搭建具体步骤1、下载hadoop-3.1.3.tar.gz2、上传并解压3、配置path变量4、修改配置文件4.1 修改文件hadoop-env.sh4.2 修改文件workers4.3 修改文件core-site.xml4.4 修改文件hdfs-site.xml4.5 修改文件mapred-site.xml4.6 修改文件 yarn-…

Hadoop集群配置及运行

本文章基于尚硅谷Hadoop 3.x视频进行总结&#xff0c;仅作为学习交流使用 视频链接如下&#xff1a;30_尚硅谷_Hadoop_入门_集群配置_哔哩哔哩_bilibili 集群配置整体思路 1.切换到/opt/module/hadoop-3.3.4/etc/hadoop&#xff0c;配置core-site.xml、hdfs-site.xml、…

hadoop集群概述

Hadoop集群&#xff08;cluster&#xff09; 概述 Hadoop集群包含两个集群&#xff1a;HDFS集群、YARN集群两个集群逻辑上分离&#xff0c;物理上在一起两个集群都是标准的主从架构 HDFS&#xff08;分布式存储&#xff09;集群包括三种角色 NNSNNDN YARN集群有两个角色 RM…

超详细的Hadoop集群部署

本文建立在已经把虚拟机ip环境等已经下载好情况下。 那么&#xff0c;直接开始今天的正题&#xff1a; 搭建集群 环境准备 这里提供两种思路&#xff1a;一种是将一台直接搭建好&#xff0c;后面的克隆或者copy虚拟机 一种是3台并进&#xff0c;多次进行虚拟机之间文件互传&…

Hadoop集群格式化

hadoop搭建过程中需要进行格式化&#xff0c;而在进行文件配置过程中难免会出错&#xff0c;导致格式化后集群不能正常启动&#xff0c; 想要重新格式化&#xff0c;删掉hadoop-2.10.1目录下的tmp文件夹: rm -rf tmp hadoop版本因人而异&#xff0c;之后重新进行格式化即可&am…

Hadoop集群的启动

在首次启动Hadoop之前还需要进行一些配置工作 我们是在Linux集群上安装Hadoop集群 Linux中对大小写敏感&#xff01; 1. 配置操作系统的环境变量 注意&#xff0c;一说Linux操作系统的环境变量 配置文件就在/home/wangguowei下的.bash.profile中 将hadoop的家目录写好 并引入…

搭建Hadoop集群

实验二 搭建Hadoop集群 1 实验目的 搭建Hadoop集群&#xff1b;掌握Linux分发&#xff1b;掌握Hadoop启动和关闭。 2 实验内容 搭建Hadoop集群&#xff0c;配置etc/下的配置文件&#xff0c;设置主从节点&#xff0c;设置Hadoop环境变量&#xff0c;分发到其他电脑&#xf…

5. Hadoop集群操作

5. Hadoop集群操作 5.1 启动Hadoop集群 5.1.1 格式化文件系统 如果集群是第一次启动&#xff0c;需要在hadoop102节点格式化NameNode。 注意&#xff1a;格式化NameNode&#xff0c;会产生新的集群id&#xff0c;导致NameNode和DataNode的集群id不一致&#xff0c;集群找不到…

hadoop集群迁移

集群迁移 主要是要找到两个集群中active状态的namenode 集群迁移不同于服务器之间的文件发送&#xff0c;在hdfs中&#xff0c;文件是以块的形式&#xff0c;只可以通过namenode访问文件&#xff0c;所以迁移时需要通过hadoop命令 主要命令是distcp distcp有很多参数&#xf…

Hadoop集群实验

目录 1.实验介绍 2.安装前准备 3.实验环境搭建 4.安装Hadoop 4.1下载Hadoop 4.2修改hadoop配置文件 5.启动Hadoop集群 6.Hadoop测试 1.实验介绍 Hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下&#xff0c;开发分布式…

Hadoop集群部署

Hadoop集群部署 一、环境准备二、在hadoop102中安装jdk三、在 hadoop102 安装 Hadoop安装hadoop查看 Hadoop 目录结构 四、编写集群分发脚本1. scp&#xff08;secure copy&#xff09;安全拷贝2.rsync远程同步工具3.xsync集群分发脚本 五、ssh免密登录1.配置ssh2.免密配置 六、…

Hadoop集群简介

Hadoop集群整体概述&#xff1a; Hadoop集群包括两个集群&#xff1a;HDFS集群、YARN集群 两个集群逻辑上分离(两个集群互相之间没有依赖、互不影响)、通常物理上在一起(某些角色进程往往部署在同一台物理服务器上) 两个集群都是标准的主从架构集群 MapReduce算是集群吗&…

hadoop集群

一、概念 Hadoop是由java语言编写的&#xff0c;在分布式服务器集群上存储海量数据并运行分布式分析应用的开源框架&#xff0c;其核心部件是HDFS与MapReduce。HDFS是一个分布式文件系统&#xff0c;类似mogilefs&#xff0c;但又不同于mogilefs&#xff0c;hdfs由存放文件元数…

Hadoop入门详解以及Hadoop集群搭建

一、Hadoop概念 hadoop是一个由Apache基金会所开发的分布式系统基础架构。用户可以在不了解分布式底层细节的情况下&#xff0c;开发分布式程序。hadoop充分利用了集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统&#xff08;Distributed File System&#xff…

把Redis 设置成服务

设置Redis服务 上面虽然安装启动了Redis&#xff0c;但是一旦关闭cmd窗口&#xff0c;redis就关闭了,为了我们日后开发测试的便利&#xff0c;我们当然要把它设置成windows服务项。 打开cmd命令窗口&#xff0c;切换到Redis目录&#xff0c;输入如下命令&#xff1a; redis-…

配置redis,对外服务

前言 在服务器安装完redis之后&#xff0c;别的机器想要通过IP和端口连接Redis服务器是连接不上的&#xff0c;因此需要配置redis对外服务。 一、打开redis配置文件 vi /etc/redis/redis.conf二、修改bind绑定的地址 三、关闭保护模式 四、重启redis服务 service redis res…

Redis 服务监控

Redis现在在很多公司中应用已经很广泛了&#xff0c;但是如何监控redis&#xff0c;实时的观察redis的性能&#xff0c;下面就关于Redis的常用监控介绍一下。 一、使用redis自带的info命令和monitor命令 现在常见的监控方案基本上都是使用redis自带的info命令和monitor命令获取…