高可用的分布式Hadoop大数据平台搭建,超详细,附代码。

article/2025/10/9 19:36:08

目录

前言1:

前言2:

一,基础环境

1,三台Centos7.5,一台master,两台slave1和slave2

2,IP配置

​ 3,改主机名

4,配三台主机映射

 5,三台主机时钟同步

 6,三个节点关防火墙,并开机禁用

 7,三台主机互相免密登录

二,Hadoop大数据集群部署

步骤一

步骤二 

步骤三

步骤四

步骤五

步骤六 

步骤七

 三,Hadoop大数据分布式集群的配置

步骤一

 步骤二

 步骤三

 步骤四

 步骤五

 步骤六

 步骤七

 步骤八

四,主从节点文件的分发

步骤一

步骤二

 步骤三

五,Hadoop集群的启动

1,元数据的格式化

2,组件的启动

3,使用网页形式查看

后言

———————————————————————————————————————————

前言1:

推荐用MobaXterm_20.0这个软件去远程连接你的虚拟机,个人感觉这个是挺好用的,特别是它的那个交互同步执行(以下简称多执行),简直好用到爆,做好的事都很方便,熟练使用可节省不少时间,可以点击下面下载汉化版的,谁用谁知道,简直不要太香。

我试了试给大家在这里粘贴链接会推荐受影响使用大家可以去我发布的资源里下载MobaXterm_20.0汉化:

前言2:

下面的命令,如果不知道在哪个节点敲的,统一声明一下代码前没有标注的都事master节点,slave1和slave2节点的我都在代码前标注了,另外,以下每段代码,我都附上了成功后的截图,以供大家搭建参考。 

一,基础环境

1,三台Centos7.5,一台master,两台slave1和slave2

2,IP配置

ip a

ip a

ip a

 3,改主机名

hostnamectl set-hostname master && bash
hostnamectl set-hostname slave1 && bash
hostnamectl set-hostname slave2 && bash

4,配三台主机映射

 注:这里就可以用这个远程软件提供的多执行窗口,简单快捷,谁用谁知道,太香了。

vi /etc/hosts
192.168.100.80 master
192.168.100.90 slave1
192.168.100.100 slave2

 5,三台主机时钟同步

注:如果你是克隆的话这一步就可以不做,就像我的这个一样直接略过,也可以按如下配置。

可以用远程软件的交互执行同时操作以完成

三个节点同时敲(用多执行窗口)

yum install ntpdate -y
ntpdate ntp1.aliyun.com
date

 6,三个节点关防火墙,并开机禁用

用多执行窗口

systemctl stop firewalld
systemctl disable firewalld
systemctl status firewalld

 7,三台主机互相免密登录

注:这里需要三个节点先去创建一个hadoop的用户,并设置密码,然后使用hadoop用户去做免密,因为后边好多操作都是以hadoop用户的身份实现的。

用多执行窗口

useradd hadoop
passwd hadoop
000000
000000
su hadoop
ssh-keygen(一路回车)
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2
ssh slave1
exit

自此基础环境配置完毕。就问你这个功能香不香!!!

二,Hadoop大数据集群部署

步骤一

在master中,创建两个目录,一个/opt/software/存放软件,一个/usr/local/src/安装软件

mkdir /opt/software
mkdir /usr/local/src/

步骤二 

将jdk和hadoop的压缩包上传到/opt/software目录下,可以从我发布的资源里下载到两个压缩包,这里就不贴链接了,直接上传即可。

步骤三

上传完成后,解压到/usr/local/src/hadoop和/usr/local/src/jdk下,并通过mv命令改名,使其简单明了

tar -zxvf /opt/software/hadoop-2.7.1.tar.gz -C /usr/local/src/
mv /usr/local/src/hadoop-2.7.1 /usr/local/src/hadoop
tar -zxvf  /opt/software/jdk-8u152-linux-x64.tar.gz -C /usr/local/src
mv /usr/local/src/jdk1.8.0_152/ /usr/local/src/jdk

步骤四

并修改所属用户和组确保可为hadoop用户所用

chown -R hadoop:hadoop /usr/local/src/hadoop
chown -R hadoop:hadoop /usr/local/src/jdk

步骤五

 配置环境变量使jdk和hadoop生效

vi /etc/profile
export JAVA_HOME=/usr/local/src/jdk export JRE HOME=/usr/local/src/jdk/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/Lib:$JRE_HOME/Lib export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
export HADOOP_HOME=/usr/local/src/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

步骤六 

使环境变量生效

source /etc/profile

步骤七

检测jdk和hadoop是否安装成功

java -version
hadoop version

 三,Hadoop大数据分布式集群的配置

注:上面我们在master节点装好了jdk和hadoop,可是我们的另外两个从节点也需要jdk和hadoop,所以我们要分发到两个从节点,在此之前需要先做如下配置。

步骤一

修改文件

cd /usr/local/src/hadoop/etc/hadoop
vi core-site.xml
<configuration><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><property><name>hadoop.tmp.dir</name><value>file:/usr/local/src/hadoop/tmp</value></property>
</configuration>

 步骤二

修改文件

vi hadoop-env.sh
export JAVA_HOME=/usr/local/src/java
export HADOOP_PERFIX=/usr/local/src/hadoop
export HADOOP_OPTS="-Djava.library.path=$HADOOP_PERFIX/lib:$HADOOP_PERFIX/lib/natice"

 步骤三

修改文件

 vi hdfs-site.xml
<configuration><property><name>dfs.namenode.name.dir</name><value>file:/usr/local/src/hadoop/dfs/name</value></property><property><name>dfs.datanode.data.dir</name><value>file:/usr/local/src/hadoop/dfs/data</value></property><property><name>dfs.replication</name>   <value>3</value> </property>
</configuration>

 步骤四

修改文件

cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapreduce.jobhistory.address</name><value>master:10020</value></property><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value></property>
</configuration>

 步骤五

修改文件

vi yarn-site.xml
<configuration><property><name>yarn.resourcemanager.address</name><value>master:8032</value></property><property><name>yarn.resourcemanager.scheduler.address</name><value>master:8030</value></property><property><name>yarn.resourcemanager.resource-tracker.address</name><value>master:8031</value></property><property><name>yarn.resourcemanager.admin.address</name><value>master:8033</value></property><property><name>yarn.resourcemanager.webapp.address</name><value>master:8088</value></property><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property>
</configuration>

 步骤六

修改文件

vi masters
master

 步骤七

修改文件

vi slaves
slave1
slave2

 步骤八

创建目录

mkdir -p /usr/local/src/hadoop/dfs/name
mkdir -p /usr/local/src/hadoop/dfs/data
mkdir -p /usr/local/src/hadoop/tmp

 自此,分布式集群的配置完成

四,主从节点文件的分发

步骤一

分发hadoop目录,改所属用户和组

scp -r /usr/local/src/ root@slave1:/usr/local/src/
scp -r /usr/local/src/ root@slave2:/usr/local/src/

 slave1和slave2

chown -R hadoop:hadoop /usr/local/src

步骤二

分发环境变量,并生效

scp -r /etc/profile root@slave1:/etc/
scp -r /etc/profile root@slave2:/etc/

 slave1和slave2 节点

 source /etc/profile

 步骤三

多窗口执行,检测每个节点是否成功

java -version
hadoop version

 每个节点都一样,才是成功。

五,Hadoop集群的启动

1,元数据的格式化

多执行窗口

su hadoop
source /etc/profile

master节点

hdfs namenode -format

2,组件的启动

master节点

start-all.sh

多窗口执行

jps

3,使用网页形式查看

192.168.100.80:50070

192.168.100.80:8088

192.168.100.80:9000

后言 

自此,一个Hadoop分布式大数据平台搭建完成,感谢观看,欢迎点赞,评论,提问,转发,不足之处,还请多多指教。


http://chatgpt.dhexx.cn/article/khRTFyeH.shtml

相关文章

CDH大数据平台搭建之集群规划

CDH大数据平台搭建之集群规划 前言一、集群规模二、集群规划总结 前言 话说无规矩不成方圆&#xff0c;搭建CDH大数据平台之前需要的工作很多&#xff0c;首先&#xff0c;你需要计算公司每日的数据量&#xff0c;来确定需要多少服务器&#xff0c;确定好服务器之后&#xff0…

大数据平台搭建及集群规划

CDH大数据平台搭建之集群规划_码上_成功的博客-CSDN博客_cdh集群规划 大数据Hadoop分布式集群部署&#xff08;详细版&#xff09;_arnoldmp的博客-CSDN博客_分布式集群部署 大数据平台的硬件规划、网络调优、架构设计、节点规划 【全网独家】大数据集群节点与硬件规划_大数…

知名大厂大数据平台搭建案例分享

“ 今天我们来看一下淘宝、美团和滴滴的大数据平台” 01 淘宝大数据平台 淘宝可能是中国互联网业界较早搭建了自己大数据平台的公司&#xff0c;下图是淘宝早期的 Hadoop 大数据平台&#xff0c;比较典型。 淘宝的大数据平台基本也是分成三个部分&#xff0c;上面是数据源与数据…

CDH大数据平台搭建之HADOOP分布式集群搭建

CDH大数据平台搭建之HADOOP安装 一、什么是HADOOP?二、如何下载1.官网下载2.网盘下载 三、搭建集群1.虚拟机准备2.安装JDK3.安装ZOOKEEPER4.集群规划5.安装HADOOP6.修改配置文件1、进入配置文件目录&#xff1a;2、修改env文件3、修改core-site.xml文件4、修改hdfs-site.xml文…

大数据平台搭建实训报告(思路而已)

目录 1.环境准备 1.1实验目的 1.2实践操作 2.部署HDFS 2.1实验步骤 2.2实践操作 3.实验三 HDFS shell操作 3.1实验目的 3.2实践操作 3.2.1练习对HDFS文件创建、查看、删除、复制、粘贴等文件操作 3.2.2练习本地文件与HDFS文件的上传与下载 3.2.3练习HDFS文件权限修…

CDH大数据平台搭建

Hadoop是apache旗下的一套开源软件平台, 主要对海量数据进行分布式处理。 本次部署&#xff0c;计划使用5台服务器&#xff0c;服务器磁盘规划如下&#xff1a; 分区挂载完成以后&#xff0c;使用root用户执行对目录/data授权。每台服务器都执行此命令。 chmod 777 -R /data …

Hadoop大数据平台搭建(一)

虚拟机准备&#xff08;本节针对于初学者&#xff09; vmawre、xshell、centos7镜像及搭建包自提地址已放在评论区。 目录 虚拟机准备&#xff08;本节针对于初学者&#xff09; 1、节点规划 2、虚拟机安装 3、启动虚拟机配置网关 总结 1、节点规划 2、虚拟机安装 这里的系统和…

大数据平台搭建详细流程(一)框架简介与平台准备

一、框架简介与平台准备 1.1、框架 1.2、硬件 CPU&#xff1a;四核、内存&#xff1a;4G、磁盘&#xff1a;50G hadoop102、hadoop103、hadoop104 1.3、操作系统 操作系统&#xff1a;Centos7&#xff08;最小系统&#xff09; 1.4、基础环境 1.4.1、网络配置 hadoop10…

Hadoop大数据平台搭建(超详细步骤)

相关软件下载链接&#xff1a; Xshell&#xff1a;家庭/学校免费 - NetSarang Website Xftp&#xff1a;家庭/学校免费 - NetSarang Website Xshell与Xftp官网&#xff1a;XSHELL - NetSarang Website Jdk&#xff1a;百度网盘 请输入提取码 提取码&#xff1a;jdhp Hado…

大数据实战平台环境搭建

大数据实战平台环境搭建 一、创建 Hadoop 用户二、更新apt和安装Vim编辑器三、安装 SSH 和配置 SSH 无密码登录四、安装 Java五、安装单机 Hadoop六、Hadoop 伪分布式安装七、HDFS常用命令八、HDFS实验之通过JAVA-API访问HDFS 一、创建 Hadoop 用户 1、创建 Hadoop 用户&#…

大数据基础平台搭建-(一)基础环境准备

大数据基础平台搭建-&#xff08;一&#xff09;基础环境准备 大数据平台系列文章&#xff1a; 1、大数据基础平台搭建-&#xff08;一&#xff09;基础环境准备 2、大数据基础平台搭建-&#xff08;二&#xff09;Hadoop集群搭建 3、大数据基础平台搭建-&#xff08;三&#x…

QList添加自定义结构体

QList中使用自定义结构体后&#xff0c;构建错误信息如下&#xff1a; 看内容是说需要重载&#xff0c;遂进行重载&#xff0c;如下&#xff1a; 重新构建&#xff0c;不再提示错误。

4.6 案例10 使用QList处理数据集

本案例对应的源代码目录&#xff1a;src/chapter04/ks04_06。 本节介绍Qt的数据处理类QList。如果要使用QList&#xff0c;需要包含其头文件<QList>。本案例也设计了三种编程场景对QList的使用进行介绍。 &#xff08;1&#xff09;向QList中添加成员并遍历。 &#x…

Qt· 常用容器之QList

目录 1、QList介绍 2、构造函数 3、插入函数 4、删除和移动类函数 5、访问和查询函数 6、替换、移动和交换函数 7、运算符函数 8、迭代器函数 9、容器类型转换函数 其他内容 1、QList介绍 在开始讲解 QList 之前&#xff0c;我们先明确一下 Qt 数据容器能存储什么&a…

QT QList<T>介绍与应用、详解、使用说明、官方手册翻译

文章目录 1. 简介2. 使用示例3. 官方手册4. Member Function Documentation 1. 简介 QList<T>是目前最常用的容器类 。它存储了给定类型的值的一个列表&#xff0c;而这些值可以通过索引访问。在内部&#xff0c;QList使用数组来实现&#xff0c;一确保进行快速的基于索…

Web后端开发入门(3)

在Eclipse中创建web项目 右键->new->Project->Web->Dynamic Web Project->下一步 Project name&#xff1a;给你的web项目起一个名称 Target runtime:你这个项目运行在哪一个web服务器上。点击New runtime&#xff0c;选择自己安装的服务器&#xff0c;然后点击…

【Delphi + Vue】Web后端动态图片传递给前端

在用Delphi做Web后台的时&#xff0c;有时需要用到后台动态生成二维码图片&#xff0c;给前端使用&#xff0c;虽然前端可以通过js库生成&#xff0c;目前流行的有 QR码生成器&#xff08;在线&#xff09;、QRCode.js&#xff08;支持本地&#xff09;、 arale-qrcode&#xf…

web搭建服务器端+创建web后端项目操作步骤

一、搭建服务器端 以前,我们的iava程序都是在本地运行,在idea执行main&#xff08;&#xff09;开始运行; 从javaEE开始,后端程序都是运行在服务器上,准备工作就是先要在我们的电脑上安装一个web服务器,把我们开发的java程序部署在服务器中,这样就可以从前端远程的通过网络进行…

从Web后端(Java)转到游戏服务端的感受

九零后的男生几乎都是玩电子游戏长大的&#xff0c;做游戏开发几乎是每个九零后男生从小就有的梦想吧。我的大学时代&#xff0c;正好与移动Web高速发展的时代重合了&#xff0c;大学里几乎所有同学都是做Web方向的开发&#xff0c;Web前端&#xff0c;Java后端等等。大四的秋招…