Hadoop安装部署全分布式搭建

article/2025/10/18 9:59:49

目录

1. 完全分布式模式介绍

2. 平台软件说明

3. 守护进程布局

4. 完全分布式搭建环境准备

        4.1. 总纲

        4.2. 关闭防⽕墙

        4.3. 静态IP和主机名配置

        4.4. 配置/etc/hosts⽂件

        4.5. 免密登陆认证

        4.6. 时间同步

                4.6.1. 同步⽹络的时间

                4.6.2. ⾃定义时间服务器

        4.7. 安装Jdk和Hadoop,配置相关环境变量

 5. Hadoop的配置⽂件

        5.1完全分布式配置

6. 另外两台机器配置说明

7. 格式化NameNode

8. 启动集群


1. 完全分布式模式介绍

完全分布式,指的是在真实环境下,使⽤多台机器,共同配合,来构建⼀个完整的分布式 ⽂件系统。
在真实环境中, hdfs 中的相关守护进程也会分布在不同的机器中,⽐如:
-1. namenode 守护进程尽可能的单独部署在⼀台硬件性能相对来说⽐较好的机器中。
-2. 其他的每台机器上都会部署⼀个 datanode 守护进程,⼀般的硬件环境即可。
-3. secondarynamenode 守护进程最好不要和 namenode 在同⼀台机器上。

2. 平台软件说明

平台&软件

说明

操作系统

Windows7 或 Windows 10 或 Mac OS

虚拟软件

VMWare 或 Parallels Desktop(Mac Only)

虚拟机

主机名: hadoop01,IP地址: 192.168.10.101

主机名: hadoop 02 IP 地址 : 192.168.10.102
主机名: hadoop 03 IP 地址 : 192.168.10.103

SSH⼯具

MobaXterm(Windows) 或 FinalShell(Mac)

软件包上传路径

/root/softwares

软件安装路径

/usr/local

JDK

jdk-8u221-linux-x64.tar.gz

Hadoop

hadoop-2.7.6.tar.gz

⽤户

root

注意,注意,注意:
1. 如果你是从伪分布式过来的,最好先把伪分布式的相关守护进程关闭: stop-all.sh
2. 删除原来伪分布式的相关设置
如果原来使⽤的是默认路径 , 现在已经没有⽤了
如果原来使⽤的跟现在全分布式路径⼀样 , 因为这⾥跟之前的初始化的内容不⼀样 , ⽽且
这个⽂件要让系统⾃动⽣成
综上 : 要删除掉 namenode datanode 的⽬录

3. 守护进程布局

我们搭建 hdfs 的完全分布式,顺便搭建⼀下 yarn hdfs yarn 的相关守护进程的布 局如下:
hadoop01 : namenode,datanode,ResourceManager,nodemanager
hadoop02 : datanode,nodemanager,secondarynamenode
hadoop03 : datanode,nodemanager

4. 完全分布式搭建环境准备

        4.1. 总纲

-1. 三台机器的防⽕墙必须是关闭的 .
-2. 确保三台机器的⽹络配置畅通 (NAT 模式,静态 IP ,主机名的配置 )
-3. 确保 /etc/hosts ⽂件配置了 ip hostname 的映射关系
-4. 确保配置了三台机器的免密登陆认证(克隆会更加⽅便)
-5. 确保所有机器时间同步
-6. jdk hadoop 的环境变量配置

        4.2. 关闭防⽕墙

[root@ hadoop01 ~] # systemctl stop firewalld
[root@ hadoop01 ~] # systemctl disable firewalld
[root@ hadoop01 ~] # systemctl stop NetworkManager
[root@ hadoop01 ~] # systemctl disable NetworkManager
# 最好也把 selinux 关闭掉,这是 linux 系统的⼀个安全机制,进⼊⽂件中将
SELINUX 设置为 disabled
[root@hadoop01~] # vi /etc/selinux/config
.........
SELINUX = disabled
.........
情况说明: 如果安装好三台机器,三台机器的防⽕墙都需要单独关闭和设置开 机不启动。如果准备使⽤克隆⽅式,只关闭hadoop01 机器即可。下⾯的配置也 是如此。

        4.3. 静态IP和主机名配置

--1. 配置静态 IP (确保 NAT 模式)
[root@hadoop01 ~] # vi /etc/sysconfig/network-scripts/ifcfg-ens33
............
BOOTPROTO = static # dhcp 改为 static
............
ONBOOT = yes                       # no 改为 yes
IPADDR = 192.168.10.101        # 添加 IPADDR 属性和 ip 地址
PREFIX = 24     # 添加 NETMASK = 255.255.255.0 或者 PREFIX = 24
GATEWAY = 192.168.10.2       # 添加⽹关 GATEWAY
DNS1 = 114.114.114.114           # 添加 DNS1 和备份 DNS
DNS2 = 8.8.8.8
--2. 重启⽹络服务
[root@hadoop01~] # systemctl restart network
或者
[root@hadoop01~] # service network restart
--3. 修改主机名 ( 如果修改过,请略过这⼀步 )
[root@localhost ~] # hostnamectl set-hostname hadoop01
或者
[root@localhost ~] # vi /etc/hostname
hadoop01

        4.4. 配置/etc/hosts⽂件

[root@hadoop01~] # vi /etc/hosts
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
:: 1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.10.101 hadoop01     #添加本机的静态IP 和本机的主机名之间的映 射关系
192.168.10.102 hadoop02
192.168.10.103 hadoop03

        4.5. 免密登陆认证

-1 . 分别3台机器 使⽤ rsa 加密技术,⽣成公钥和私钥。⼀路回⻋即可
[root@hadoop01 ~] # cd ~
[root@hadoop01 ~] # ssh-keygen -t rsa
[root@hadoop02 ~] # cd ~
[root@hadoop02 ~] # ssh-keygen -t rsa
[root@hadoop03 ~] # cd ~
[root@hadoop03 ~] # ssh-keygen -t rsa

-2.将公钥写入认证文件这一步是将自己的公钥写入认证文件

[root@hadoop01 ~]#   cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

-3.连接其他2台机器,将他们的密钥也写入认证文件

[root@hadoop01 ~]# ssh root@hadoop02 cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_keys

[root@hadoop01 ~]# ssh root@hadoop03 cat /root/.ssh/id_rsa.pub >> /root/.ssh/authorized_key

查看认证文件的内容

[root@hadoop01 ~]cat ~/.ssh/authorized_keys

发现里面有 hadoop01  hadoop02 hadoop03 的密钥

将认证文件复制到其他主机   注:这里是由于第一次连接还要输入密码。scp命令常用于传输文件。

[root@hadoop01 ~]# scp ~/.ssh/authorized_keys root@hadoop02:~/.ssh/authorized_keys
[root@hadoop01 ~]# scp ~/.ssh/authorized_keys root@hadoop03:~/.ssh/authorized_keys

 免密登录测试

[root@hadoop01 ~]ssh hadoop01

[root@hadoop01 ~]ssh hadoop02

[root@hadoop01 ~]ssh hadoop03

推出命令  exit

后面不用输入密码切换就成功了

        4.6. 时间同步

                4.6.1. 同步⽹络的时间

# 同步时间,需要使⽤ ntpdate 命令,如果没有可以使⽤ yum安装。yum install ntpdate
# 使⽤ ntpdate 同步⽹络上的时间服务器的时间,例如 : time.windows.com、 ntp.aliyun.com

[root@hadoop01 ~] # ntpdate -u ntp.aliyun.com
定时同步
# 可以将时间同步做成⼀个定时任务,每隔⼀段时间就同步⼀下⽹络的时间
[root@hadoop01 ~] # crontab -e
* * * * * /usr/sbin/ntpdate -u ntp.aliyun.com   #输入然后保存退出

                4.6.2. ⾃定义时间服务器

可以不用设置的

如果集群没有联⽹,那么可以⾃⼰搭建⼀个时间服务器,让集群中的所有机器都同步局域
⽹内的时间服务器。
# 1 选择集群中的某⼀台机器作为时间服务器,例如 hadoop01
# 2 保证这台服务器安装了 ntp.x86_64
# 3 保证 ntpd 服务运⾏ ......
[root@hadoop01 ~] # sudo service ntpd start
# 开机⾃启动 :
[root@hadoop01 ~] # chkconfig ntpd on
# 4 配置相应⽂件:
[root@hadoop01 ~] # vi /etc/ntp.conf
# Hosts on local network are less restricted.
# restrict 192.168.1.0 mask 255.255.255.0 nomodify notrap
# 添加集群中的⽹络段位
restrict 192 .168.10.0 mask 255 .255.255.0 nomodify notrap
# Use public servers from the pool.ntp.org project.
# Please consider joining the pool
(http://www.pool.ntp.org/join.html).
# server 0.centos.pool.ntp.org iburst 注释掉
# server 1.centos.pool.ntp.org iburst 注释掉
# server 2.centos.pool.ntp.org iburst 注释掉
# server 3.centos.pool.ntp.org iburst 注释掉
server 127 .127.1.0 -master 作为服务器
# 5 其他机器要保证安装 ntpdate.x86_64
# 6 其他机器要使⽤ root 定义定时器
*/1 * * * * /usr/sbin/ntpdate -u  hadoop01

        4.7. 安装JdkHadoop,配置相关环境变量

-1 . 上传和解压两个软件包
[root@hadoop01 ~] # tar -zxvf jdk-8u221-linux-x64.tar.gz -C /usr/local/
[root@hadoop01 ~] # tar -zxvf hadoop-2.7.6.tar.gz -C /usr/local/
-2 . 进⼊ local ⾥,给两个软件更名
[root@hadoop01 ~] # cd /usr/local/
[root@hadoop01 local] # mv 1.8.0_221/ jdk
[root@hadoop01 local] # mv hadoop-2.7.6/ hadoop
-3 . 配置环境变量
[hadoop@hadoop01 local] # vi /etc/profile
..... 省略 ...........
#java environment
export JAVA_HOME = /usr/local/jdk
export PATH = $JAVA_HOME /bin: $JAVA_HOME /jre/bin: $PATH
#hadoop environment
export HADOOP_HOME = /usr/local/hadoop
export PATH = $HADOOP_HOME /bin: $HADOOP_HOME /sbin: $PATH
-4 . 生效文件
[hadoop@hadoop01 local] # source /etc/profile

 5. Hadoop的配置⽂件

1. 在完全分布式集群的配置中,需要配置的是 4 个配置⽂件
core-site.xml
hdfs-site.xml
mapred-site.xml
yarn-site.xml

        5.1完全分布式配置

1. 配置 core-site.xml
[root@hadoop01 ~]# cd /usr/local/hadoop/etc/hadoop
[root@hadoop01 hadoop]# vi core-site.xml
<configuration>
        <!-- hdfs的地址名称: schame,ip,port-->
        <property>
                <name> fs.defaultFS </name>
                <value> hdfs://hadoop01:8020 </value>
        </property>
        <!-- hdfs的基础路径,被其他属性所依赖的⼀个基础路径 -->
        <property>
                <name> hadoop.tmp.dir </name>
                <value> /usr/local/hadoop/tmp </value>
        </property>
</configuration>
2. 配置 hdfs-site.xml
[root@hadoop01 hadoop]# vi hdfs-site.xml
<configuration>
        <!-- namenode守护进程管理的元数据⽂件 fsimage 存储的位置 -->
        <property>
                <name> dfs.namenode.name.dir </name>
                <value> file://${hadoop.tmp.dir}/dfs/name </value>
        </property>
        <!-- 确定 DFS 数据节点应该将其块存储在本地⽂件系统的何处 -->
        <property>
                <name> dfs.datanode.data.dir </name>
                <value> file://${hadoop.tmp.dir}/dfs/data </value>
        </property>
        <!-- 块的副本数 -->
        <property>
                <name> dfs.replication </name>
                <value> 3 </value>
        </property>
        <!-- 块的⼤⼩ (128M), 下⾯的单位是字节 -->
        <property>
                <name> dfs.blocksize </name>
                <value> 134217728 </value>
        </property>
        <!-- secondarynamenode守护进程的 http 地址:主机名和端⼝号。参考守护进程布局-->
        <property>
                <name> dfs.namenode.secondary.http-address </name>
                <value> hadoop02 :50090 </value>
        </property>
        <!-- namenode守护进程的 http 地址:主机名和端⼝号。参考守护进程布局-->
        <property>
                <name> dfs.namenode.http-address </name>
                <value> hadoop 01:50070 </value>
        </property>
</configuration>
3. 配置 mapred-site.xml
[root@hadoop01 hadoop]# cp mapred-site.xml.template mapred-site.xml
[root@hadooop01 hadoop]# vi mapred-site.xml
<configuration>
        <!-- 指定 mapreduce 使⽤ yarn 资源管理器 -->
        <property>
                <name> mapreduce.framework.name </name>
                <value> yarn </value>
        </property>
        <!-- 配置作业历史服务器的地址 -->
        <property>
                <name> mapreduce.jobhistory.address </name>
                <value> hadoop01:10020 </value>
        </property>
        <!-- 配置作业历史服务器的 http 地址 -->
        <property>
                <name> mapreduce.jobhistory.webapp.address </name>
                <value> hadoop 01:19888 </value>
        </property>
</configuration>
4. 配置 yarn-site.xml
[root@hadooop01 hadoop]# vi yarn-site.xml
<configuration>
        <!-- 指定 yarn shuffle 技术 -->
        <property>
                <name> yarn.nodemanager.aux-services </name>
                <value> mapreduce_shuffle </value>
        </property>
        <!-- 指定 resourcemanager 的主机名 -->
        <property>
                <name> yarn.resourcemanager.hostname </name>
                <value> hadoop01 </value>
        </property>
        <!--下⾯的可选 -->
        <!--指定 shuffle 对应的类 -->
        <property>
                <name> yarn.nodemanager.aux-services.mapreduce_shuffle.class </name>
                <value> org.apache.hadoop.mapred.ShuffleHandler </value>
        </property>
        <!--配置 resourcemanager 的内部通讯地址 -->
        <property>
                <name> yarn.resourcemanager.address </name>
                <value> hadoop01:8032 </value>
        </property>
        <!--配置 resourcemanager scheduler 的内部通讯地址 -->
        <property>
                <name> yarn.resourcemanager.scheduler.address </name>
                <value> hadoop01:8030 </value>
        </property>
        <!--配置 resoucemanager 的资源调度的内部通讯地址 -->
        <property>
                <name> yarn.resourcemanager.resource-tracker.address </name>
                <value> hadoop01:8031 </value>
        </property>
        <!--配置 resourcemanager 的管理员的内部通讯地址 -->
        <property>
                <name> yarn.resourcemanager.admin.address </name>
                <value> hadoop01:8033 </value>
        </property>
        <!--配置 resourcemanager web ui 的监控⻚⾯ -->
        <property>
                <name> yarn.resourcemanager.webapp.address </name>
                <value> hadoop01:8088 </value>
        </property>
</configuration>
5. 配置 hadoop-env.sh
[root@hadoop01hadoop] # vi hadoop-env.sh
.........
# The java implementation to use.
export JAVA_HOME = /usr/local/jdk
.........
6. 配置 slaves ⽂件
# 此⽂件⽤于指定 datanode 守护进程所在的机器节点主机名
[root@hadoop01 hadoop] # vi slaves
hadoop01
hadoop02
hadoop03
7. 配置 yarn-env.sh ⽂件
# 此⽂件可以不配置,不过,最好还是修改⼀下 yarn jdk 环境⽐较好
[root@hadoop01 hadoop] # vi yarn-env.sh
.........
# some Java parameters
export JAVA_HOME = /usr/local/jdk
if [ " $JAVA_HOME " ! = "" ]; then
#echo "run java in $JAVA_HOME"
JAVA_HOME = $JAVA_HOME
fi
.........

6. 另外两台机器配置说明

“scp”进⾏同步
提示:本⽅法适⽤于多台虚拟机已经提前搭建出来的场景。
--1 . 同步 hadoop slave 节点上
[root@hadoop01 ~] # cd /usr/local
[root@hadoop01 local] # scp -r ./hadoop hadoop02:/usr/local/
[root@hadoop01 local] # scp -r ./hadoop hadoop03:/usr/local/
--2 . 同步 /etc/profile slave 节点上
[root@hadoop01 local] # scp /etc/profile hadoop02:/etc/
[root@hadoop01 local] # scp /etc/profile hadoop03:/etc/
--3 . 如果 slave 节点上的 jdk 也没有安装,别忘记同步 jdk
[root@hadoop01 local] # scp -r ./jdk hadoop02:/usr/local/
[root@hadoop01 local] # scp -r ./jdk hadoop03:/usr/local/
--4 . 检查是否同步了 /etc/hosts ⽂件
--5 . 其他机器配置文件生效下
[root@hadoop02 ~] # source /etc/profile
[root@hadoop03 ~] # source /etc/profile

7. 格式化NameNode

1. 在h adoop01 机器上运⾏命令
[root@hadoop01 ~] # hdfs namenode -format

8. 启动集群

1. 启动脚本和关闭脚本介绍
1. 启动脚本
-- start-dfs.sh : ⽤于启动 hdfs 集群的脚本
-- start-yarn.sh : ⽤于启动 yarn 守护进程
-- start-all.sh : ⽤于启动 hdfs yarn
2. 关闭脚本
-- stop-dfs.sh : ⽤于关闭 hdfs 集群的脚本
-- stop-yarn.sh : ⽤于关闭 yarn 守护进程
-- stop-all.sh : ⽤于关闭 hdfs yarn
3. 单个守护进程脚本
-- hadoop-daemons.sh : ⽤于单独启动或关闭 hdfs 的某⼀个守护进 程的脚本
-- hadoop-daemon.sh : ⽤于单独启动或关闭 hdfs 的某⼀个守护进 程的脚本
reg:
hadoop-daemon.sh [start|stop]
[namenode|datanode|secondarynamenode]
-- yarn-daemons.sh : ⽤于单独启动或关闭 hdfs 的某⼀个守护进程的 脚本
-- yarn-daemon.sh : ⽤于单独启动或关闭 hdfs 的某⼀个守护进 程的脚本
reg:
yarn-daemon.sh [start|stop]
[resourcemanager|nodemanager]
2. 启动 集群
[root@hadoop01 ~] # start-all.sh
3. jps 查看进程
hadoop01 : namenode,datanode,ResourceManager,nodemanager
hadoop02 : datanode,nodemanager,secondarynamenode
hadoop03 : datanode,nodemanager
4. WebUI 查看
http://192.168.10.101:50070

 

 http://192.168.10.101:8088

 页面出来就集群搭建好了


http://chatgpt.dhexx.cn/article/TfChykC2.shtml

相关文章

安装Hadoop集群(超详细!)

提示&#xff1a;安装前请准备好三台装有jdk的虚拟机 我这里名为hd01、hd02、hd03 hd01最好有hadoop和zookeeper的压缩包 文章目录 前言一、准备环境二、安装Hadoop总结 前言&#xff1a; 前面我写了一篇单机版的Hadoop安装&#xff0c;这里终于要装集群版&#xff0c;装集群版…

hadoop的安装过程

Hadoop安装过程 Hadoop基础环境配置 1.1 使用户获得管理员权限 1.2网络环境配置 1.3免密登录 1.4JDK安装Hadoop安装Hadoop配置 3.1在$HADOOP_HOME/etc/hadoop/目录下需要配置以下文件 3.2格式化并启动hadoop 1.HADOOP基础环境配置 1.1 使用户获得管理员权限 1&#xff09;切…

hadoop保姆级安装教程

hadoop保姆级安装教程 文章目录 一、准备步骤&#xff1a;虚拟机安装二、配置网络三、免密登录四、安装hadoop 实现分布式集群安装&#xff0c;不再从入门到放弃&#xff01;&#xff01; 这是一篇超详细的Hadoop安装教程&#xff0c;历时两个星期&#xff0c;重装了三次&…

Hadoop安装及使用

1.简介&#xff1a; &#xff08;1&#xff09;Hadoop项目为可靠、可扩展的分布式计算开发开源软件。 &#xff08;2&#xff09;Hadoop 软件库是一个框架&#xff0c;它允许使用简单的编程模型跨计算机集群分布式处理大型数据 集。它旨在从单个服务器扩展到数千台机器&#xf…

史上最详细的hadoop安装教程(含坑点)

0.前言 最近因为需要所以要安装hadoop&#xff0c;但是网上怎么说呢&#xff0c;就是很混乱&#xff0c;各种资料&#xff0c;各种安装方法&#xff0c;总体来说都不是很有效果&#xff0c;经过了3天的挣扎&#xff0c;收集资料&#xff0c;才完成了部署。 1.从官网上获得对应…

史上最详细的hadoop安装教程

一、引言 首先说明一下&#xff0c;本文的安装教程仅是针对个人的操作经验所写的。可能有些同学安装的时候觉得跟他的不一样&#xff0c;那可能是由于版本不一样所导致的。另外本次分享是基于已经安装了java及配置好了环境。 本机的配置环境如下&#xff1a; Hadoop(3.1.1) Ubu…

hadoop安装(超详细)

本文用到的软件 设置固定IP &#xff08;1&#xff09; &#xff08;2&#xff09;修改配置文件“/etc/sysconfig/network-scripts/ifcfg-ens33” #修改&#xff1a; ONBOOTyes NM_CONTROLLEDyes BOOTPROTOstatic \#添加以下内容 IPADDR192.168.128.130(根据自身情况) NE…

Charles安卓8手机抓包

目的 通过PC端的Charles&#xff0c;对安卓系统8的手机APP进行抓包。 先说明&#xff0c;只能对Android10以下进行抓包&#xff0c;高版本的不行。 步骤 1、PC端安装Charles并破解 可以去Charles官网下载应用&#xff0c;下载好之后直接安装到本地。 下载链接&#xff1a;h…

fiddler安卓模拟器与ios手机抓包

一.安卓模拟器(雷电模拟器)抓包 1.1fiddler基本配置 1.2导出Fiddler证书 Tools -> Options -> HTTPS -> Actions -> Export Root Certificate to Desktop 在桌面上看到导出的FiddlerRoot.cer证书文件 1.3下载和安装openssl openssl下载地址 git终端输入 open…

charles抓包工具使用及手机抓包教程

目录 1.前言 2.操作环境条件 3.操作步骤 3.1.电脑配置 3.2.手机配置 4.抓包实战 5.网络代理 6.参考文章 1.前言 不知道怎么抓包手机&#xff08;移动端&#xff09; 如何抓取手机HTTPS的包 2.操作环境条件 电脑系统&#xff1a;Mac OS 手机系统&#xff1a;Android …

使用fiddler对android手机抓包

前言 以往在PC或Linux服务后台定位问题的时候&#xff0c;wireshark等抓包工具是必不可少要具备的&#xff0c;最近搞android播放器开发&#xff0c;为了定位问题方便&#xff0c;也装了fiddler等抓包工具。 以下是在win上使用fiddler抓包工具的详细教程。 一、下载fiddler抓包…

Charles4.6.2版本手机抓包设置,抓包失败的解决方法详解

一、Charles手机抓包设置 第一步&#xff1a;设置Charles为允许状态&#xff0c;并设置好接入的接口 在Charles的菜单栏选择“Proxy”->“Proxy Settings”&#xff0c;填入代理端口8888&#xff08;⚠️这个端口不一定填写8888&#xff0c;也可以写别的端口&#xff09;&…

wireshark手机抓包分析(一)

一、先给你的电脑开个共享WiFi win10怎么设置wifi热点 这里注意一定要选择2.4hz&#xff0c;否则根本搜不到电脑开的wifi。 然后就连wifi就行了。 这里需要注意的点就是&#xff0c;你的wifi开启了可能连不上&#xff0c;可以试试&#xff1a; 网络共享中心---->以太网—&…

charles手机抓包配置

Charles手机抓包 静静地就好关注 2020.07.26 22:12:27字数 393阅读 873 一、Charles设置 1、让电脑和手机处于同一个局域网下&#xff0c;即电脑和手机连接同一个WiFi【电脑开WiFi给手机连接也可以】&#xff1b; 2、打开Charles&#xff0c;点击菜单栏中Proxy –> Prox…

postman手机抓包(http协议)——比fiddler简单直观

针对http协议的浏览器网页抓包。见 之前写过一篇用fiddler抓包。今天来说一个更好的&#xff0c;postman抓包。 以下是针对http协议的手机抓包&#xff0c;https开头的用如下方式是不能的&#xff0c;http是超文本传输协议&#xff0c;信息是明文传输&#xff0c;https则是具…

使用whistle进行手机抓包并调试

whistle是一个基于Node实现的跨平台web调试代理工具&#xff0c;类似Windows上的Fiddler&#xff0c;Mac上的Charles&#xff0c;主要用于查看、修改HTTP、HTTPS、Websocket的请求、响应&#xff0c;也可以作为HTTP代理服务器使用&#xff0c;不同于Fiddler通过断点修改请求响应…

手机端抓包分析

1前提&#xff1a; wireshark是针对网络端口进行抓包的一款工具&#xff0c;由于环境限制&#xff0c;一些通过wifi热点进行抓包的方式并不适用&#xff0c;所以涉及到对手机流量进行分析的时候&#xff0c;可以通过在手机上进行tcpdump&#xff0c;将抓取的pcap包通过wireshar…

fiddler手机抓包

1&#xff1a;打开fiddler&#xff0c;点击菜单栏的Tools->Options,进行设置。设置时&#xff0c;保证端口号不会被占用&#xff1b;设置完成&#xff0c;点击【ok】。 2&#xff1a;点击HTTPS&#xff0c;开始设置&#xff0c;必须勾选所选框中内容&#xff0c;设置完成点击…

手机抓包图文教程

手机抓包图文教程 给大家介绍下如何使用Fiddler进行手机抓包。 运行环境为Windows 10&#xff0c;使用手机为iPhone 7&#xff0c;iOS11系统。 0. 准备工作 首先需要确保手机及电脑在同一个局域网内&#xff0c;如连接了同一个无线路由器。 Fiddler配置 运行Fiddler后打开配置…

charles手机抓包教程

charles手机抓包教程 一、设置系统代理 二、电脑端安装证书 安装的时候就注意证书放在“受信任的证书委发机构”就行&#xff0c;其他的都是点下一步 三、设置代理 四、设置手机上的代理 让手机和电脑保持连接同一个wifi 先查看电脑端的地址 再设置手机代理&#xff08…