ELK 环境搭建

article/2025/11/3 23:19:13

ELK

ELK 其实是ElasticsearchLogstashKibana三个产品的首字母缩写,这三款都是开源产品。

  • ElasticSearch (简称 ES),是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析;
  • Logstash 是一个数据收集引擎,主要用于进行数据收集、解析,并将数据发送给 ES。支持的数据源包括本地文件、ElasticSearch、MySQL、Kafka 等等;
  • Kibana 则是作为Elasticsearch分析数据的页面展示,可以进行对日志的分析、汇总、监控和搜索日志用。

搭建版本:

  • elasticsearch-7.16.2
  • kibana-7.16.2
  • logstash-7.16.2

准备环境

1.安装 java 环境

# 创建目录
mkdir /usr/local/java/# 解压
tar -zxvf jdk-8u333-linux-x64.tar.gz -C /usr/local/java/# 配置环境变量
vim /etc/profileexport export JAVA_HOME=/usr/local/java/jdk1.8.0_211
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH# 环境变量生效
source /etc/profile# 添加软连接
ln -sf /usr/local/java/jdk1.8.0_211/bin/java /usr/bin/java# 检查java版本
java -version

2.创建用户组及用户

由于 elasticsearch 不允许使用 root 启动,创建以下用户及用户组以备用。

创建用户组名

groupadd elsearch  #【添加组】【用户组名】

创建用户

useradd elsearch -g elsearch -p elsearch #【添加用户】【用户名】-g【用户组名】-p【密码值】

安装 Elasticsearch

1.安装

# 下载
wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-7.16.2-linux-x86_64.tar.gz# 解压
tar -zxvf elasticsearch-7.16.2-linux-x86_64.tar.gz# 设置权限到elsearch用户
chown -R elsearch:elsearch /usr/local/elasticsearch-7.16.2

2.修改配置

修改配置文件 elasticsearch.yml

cd /usr/local/elasticsearch-7.16.2/configvim elasticsearch.yml# ========== 修改内容如下 ==================# 集群名称(按实际需要配置名称)
cluster.name: my-elasticsearch
# 节点名称
node.name: node-1
# 数据路径(按实际需要配置日志地址)
path.data: /usr/local/elasticsearch-7.16.2/data
# 日志路径(按实际需要配置日志地址)
path.logs: /usr/local/elasticsearch-7.16.2/logs
# 地址(通常使用内网进行配置)
network.host: 0.0.0.0
# 端口号
http.port: 19200
# 节点地址
discovery.seed_hosts: ["127.0.0.1", "[::1]"]
# 集群master
cluster.initial_master_nodes: ["node-1"]
# 跨域(这两项配置手动添加一下)
http.cors.enabled: true 
http.cors.allow-origin: "*"

3.修改 Elasticsearch 启动脚本

7.x 版本以上的 Elasticsearch 需要的 jdk11 及以上,我们的项目大多数都是使用的 jdk8 ,但是 7.x 版本以上的 Elasticsearch 自带了 jdk,此时我们需要把 Elasticsearch 的启动环境 jdk 进行配置。

修改 bin 目录下的elasticsearch文件

vim bin/elasticsearch# ========== 修改内容如下 ==================
# 配置jdk
export JAVA_HOME=JAVA_HOME=/usr/local/java/jdk1.8.0_211/
export PATH=$JAVA_HOME/bin:$PATH# 添加jdk判断
if [ -x "$JAVA_HOME/bin/java" ]; thenJAVA="/usr/local/java/jdk1.8.0_211/bin/java"
elseJAVA=`which java`
fi

4.启动

切换到 elsearch 用户,启动

su elsearch# 后台方式启动
./elasticsearch -d # 查看日志,是否启动成功
cd /usr/local/elasticsearch-7.16.2/logs
tail -fn 100 /usr/local/elasticsearch-7.16.2/logs/my-elasticsearch.log

5.启动报错

ERROR: [1] bootstrap checks failed. You must address the points described in the following [1] lines before starting Elasticsearch.
bootstrap check failure [1] of [1]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
ERROR: Elasticsearch did not exit normally - check the logs at /usr/local/elasticsearch-7.16.2/logs/my-application.log

原因:最大虚拟内存值设置过小,无法支持 ElasticSearch 的运行。

解决方法:将 vm.max_map_count 的值改为 262144,重新启动即可解决问题。

# 查看
cat /proc/sys/vm/max_map_count# 设置
sudo sysctl -w vm.max_map_count=262144 

安装 Elasticsearch-head 插件

1.下载

# 下载
wget https://github.com/mobz/elasticsearch-head/archive/master.zip# 解压
unzip master.zip

2.安装 grunt

cd /usr/local/elasticsearch-headnpm install -g grunt-cli

修改所有域名访问,添加 hostname:“*”

# 进入elasticsearch-head目录
cd elasticsearch-head# 修改Gruntfile.js
vim Gruntfile.js# ========== 修改内容如下 ==================
connect: {server: {options: {hostname: '*',port: 9100,base: '.',keepalive: true}}
}

3.启动

# 下载依赖
npm install# 启动
cnpm run start# 后台启动
nohup ./grunt server >/dev/null 2>&1 &

浏览器访问:http://{IP}:9100

安装 Logstash

1.安装

# 下载
wget https://artifacts.elastic.co/downloads/logstash/logstash-7.16.2-linux-x86_64.tar.gz# 解压
tar -zxvf logstash-7.16.2-linux-x86_64.tar.gz

2.修改配置

# 修改配置文件logstash-sample.conf
cd /usr/local/logstash-7.16.2/config# 将logstash-sample.conf文件复制一份,并命名为logstash.conf
cp logstash-sample.conf logstash.conf# 修改配置
vim logstash.conf# ========== 修改内容如下 ==================
input {tcp{mode => "server"host => "0.0.0.0"port => 5701codec => json_lines}
}# 以下配置为创建用户索引及默认索引情况
output {elasticsearch {hosts => ["http://127.0.0.1:19200"]index => "tmk-log-%{+YYYY.MM.dd}"}
}

注意:为了方便解释含义,包含注释‘#’的行请手动去除。

3.启动

cd /usr/local/logstash-7.16.2/bin# 启动命令
nohup ./logstash -f /usr/local/logstash-7.16.2/config/logstash.conf >../logs/logstash.log &# 使用jps命令查看运行的进程
jps

安装 Kibana

1.安装

# 下载
wget https://artifacts.elastic.co/downloads/kibana/kibana-7.16.2-linux-x86_64.tar.gz# 解压
tar -zxvf kibana-7.16.2-linux-x86_64.tar.gz# 权限
chown -R elsearch:elsearch /usr/local/kibana-7.16.2-linux-x86_64

2.修改配置

修改config目录下的kibana.yml文件

cd /usr/local/kibana-7.16.2-linux-x86_64/config
vim kibana.yml# ========== 修改内容如下 ==================# 服务端口(按实际需求)
server.port: 15601
# 服务主机(这里是服务器内网地址)
server.host: "0.0.0.0"
# 服务名(按实际需求)
server.name: "kibana"
# elasticsearch地址
elasticsearch.hosts: ["http://127.0.0.1:19200"]
# 设置简体中文
i18n.locale: "zh-CN"

3.启动

Kibana 和 Elasticsearch 一样,不能使用 root 用户启动

cd /usr/local/kibana-7.16.2-linux-x86_64/bin# 切换用户
su elsearch#非后台启动,关闭shell窗口即退出
./bin/kibana# 后台启动
nohup ./kibana &# 查看进程
netstat -tunlp | grep 15601

浏览器打开:http://{IP}:15601/app/home

项目测试(Springboot)

1.添加 logstash 依赖

<dependency><groupId>net.logstash.logback</groupId><artifactId>logstash-logback-encoder</artifactId><version>7.0.1</version>
</dependency>

2.添加 logback-spring.xml 配置

配置中destination标签是定义logstash传输日志的ip端口,有两种方式:

  • 直接写在标签里面;
  • spring配置中读取,再如下图中通过${**}方式引入。
<?xml version="1.0" encoding="UTF-8"?>
<configuration><include resource="org/springframework/boot/logging/logback/defaults.xml"/><springProperty scope="context" name="springAppName" source="spring.application.name"/><springProperty scope="context" name="logstashUrl" source="logstash.url"/><property name="LOG_FILE" value="/data/logs/${springAppName}/${springAppName}"/><property name="CONSOLE_LOG_PATTERN" value="%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr([${springAppName:-},%X{X-B3-TraceId:-},%X{X-B3-SpanId:-},%X{X-B3-ParentSpanId:-},%X{X-Span-Export:-}]){yellow} %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %clr(%-40.40logger{39}){cyan} %clr(:){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}"/><!--  console  --><appender name="console" class="ch.qos.logback.core.ConsoleAppender"><filter class="ch.qos.logback.classic.filter.ThresholdFilter"><!-- Minimum logging level to be presented in the console logs --><level>DEBUG</level></filter><encoder><pattern>${CONSOLE_LOG_PATTERN}</pattern><charset>utf8</charset></encoder></appender><!-- logstash --><appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender"><!-- <destination>127.0.0.1:5701</destination> --><destination>${logstashUrl}</destination><!-- 日志输出编码 --><encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder"><providers><timestamp><timeZone>UTC</timeZone></timestamp><pattern><pattern>{"logLevel": "%level","serviceName": "${springAppName:-}","pid": "${PID:-}","thread": "%thread","class": "%logger{40}","rest": "%message"}</pattern></pattern></providers></encoder></appender><root level="INFO"><appender-ref ref="console"/><appender-ref ref="logstash"/></root>
</configuration>

改进优化

上面只是用到了核心的三个组件简单搭建的 ELK,实际上是有缺陷的。

如果 Logstash 需要添加插件,那就全部服务器的 Logstash 都要添加插件,扩展性差。所以就有了 FileBeat,占用资源少,只负责采集日志,不做其他的事情,这样就轻量级,把 Logstash 抽出来,做一些滤处理之类的工作。

安装 Filebeat

1.安装

# 下载
wget https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.9.3-linux-x86_64.tar.gz# 解压
tar -zxvf filebeat-7.9.3-linux-x86_64.tar.gz

2.修改配置

# 输入源
filebeat.inputs:
- type: logenabled: truepaths:- /app/demo/*.log  # 配置项目日志路径# 输出:Logstash的服务器地址
output.logstash:hosts: ["127.0.0.1:5701"]# 输出:如果直接输出到ElasticSearch 
#output.elasticsearch:#hosts: ["127.0.0.1:19200"]#protocol: "https"

3.修改Logstash配置

# 修改配置
vim logstash.conf# ========== 修改内容如下 ==================
input {beats {port => 5701codec => "json"}
}

4.启动

# 后台启动命令
nohup ./filebeat -e -c filebeat.yml >/dev/null 2>&1 &

5.重启Logstash

cd /usr/local/logstash-7.16.2/bin# 启动命令
nohup ./logstash -f /usr/local/logstash-7.16.2/config/logstash.conf >../logs/logstash.log &

6.修改 logback-spring.xml 配置

<?xml version="1.0" encoding="UTF-8"?>
<configuration><include resource="org/springframework/boot/logging/logback/defaults.xml"/><springProperty scope="context" name="springAppName" source="spring.application.name"/><springProperty scope="context" name="logstashUrl" source="logstash.url"/><property name="LOG_FILE" value="/data/logs/${springAppName}/${springAppName}"/><property name="CONSOLE_LOG_PATTERN" value="%clr(%d{yyyy-MM-dd HH:mm:ss.SSS}){faint} %clr(${LOG_LEVEL_PATTERN:-%5p}) %clr([${springAppName:-},%X{X-B3-TraceId:-},%X{X-B3-SpanId:-},%X{X-B3-ParentSpanId:-},%X{X-Span-Export:-}]){yellow} %clr(${PID:- }){magenta} %clr(---){faint} %clr([%15.15t]){faint} %clr(%-40.40logger{39}){cyan} %clr(:){faint} %m%n${LOG_EXCEPTION_CONVERSION_WORD:-%wEx}"/><!--  console  --><appender name="console" class="ch.qos.logback.core.ConsoleAppender"><filter class="ch.qos.logback.classic.filter.ThresholdFilter"><!-- Minimum logging level to be presented in the console logs --><level>DEBUG</level></filter><encoder><pattern>${CONSOLE_LOG_PATTERN}</pattern><charset>utf8</charset></encoder></appender><appender name="flatfile" class="ch.qos.logback.core.rolling.RollingFileAppender"><file>${LOG_FILE}</file><rollingPolicy class="ch.qos.logback.core.rolling.TimeBasedRollingPolicy"><fileNamePattern>${LOG_FILE}.%d{yyyy-MM-dd}.gz</fileNamePattern><maxHistory>7</maxHistory></rollingPolicy><encoder><pattern>${CONSOLE_LOG_PATTERN}</pattern><charset>utf8</charset></encoder></appender><!-- <appender name="logstash" class="net.logstash.logback.appender.LogstashTcpSocketAppender"><destination>${logstashUrl}</destination><encoder charset="UTF-8" class="net.logstash.logback.encoder.LoggingEventCompositeJsonEncoder"><providers><timestamp><timeZone>UTC</timeZone></timestamp><pattern><pattern>{"logLevel": "%level","serviceName": "${springAppName:-}","pid": "${PID:-}","thread": "%thread","class": "%logger{40}","rest": "%message"}</pattern></pattern></providers></encoder></appender> --><root level="INFO"><appender-ref ref="console"/><!-- <appender-ref ref="logstash"/> --><appender-ref ref="flatfile"/></root>
</configuration>

ELK 基本搭建完成,能够满足正常的使用。因安全性 Elasticsearch 与 Kibana 默认是没有密码的。

Elasticsearch、Kibana、Logstash 配置密码

Elasticsearch 设置密码

1.x-pack插件

x-pack 是 Elasticsearch 的一个扩展包,将安全,警告,监视,图形和报告功能捆绑在一个易于安装的软件包中,可以轻松的启用或者关闭一些功能。

默认我们的 ELK 部署后,可以直接就进入 web 管理界面,这样会带来极大的安全隐患。

Elasticsearch 是借助 x-pack 插件的密码配置,6.3.0 之前的版本需要下载插件,6.3.0 以后都不需要下载。

6.3.0 版本需要下载:

# 在es的目录下进行下载
./elasticsearch-plugin install x-pack

2.修改配置

cd /usr/local/elasticsearch-7.16.2/configvim elasticsearch.yml# ========== 修改内容如下 ==================xpack.security.enabled: true
xpack.license.self_generated.type: basic
xpack.security.transport.ssl.enabled: true

3.重启

# 切换到 elsearch 用户
su elsearch# 后台方式启动
./elasticsearch -d 

4.设置密码

设置六个账号的密码:elasticapm_systemkibanalogstash_systembeats_systemremote_monitoring_user

这里设置的密码为:123456,默认账号为:elastic

# 在bin目录下以交互的方式设置密码
./bin/elasticsearch-setup-passwords interactive# 以下步骤配置密码elasticsearch、kibana、logstash密码
warning: usage of JAVA_HOME is deprecated, use ES_JAVA_HOME
Future versions of Elasticsearch will require Java 11; your Java version from [/usr/local/java/jdk1.8.0_211/jre] does not meet this requirement. Consider switching to a distribution of Elasticsearch with a bundled JDK. If you are already using a distribution with a bundled JDK, ensure the JAVA_HOME environment variable is not set.
Initiating the setup of passwords for reserved users elastic,apm_system,kibana,kibana_system,logstash_system,beats_system,remote_monitoring_user.
You will be prompted to enter passwords as the process progresses.
Please confirm that you would like to continue [y/N]yEnter password for [elastic]: 
Reenter password for [elastic]: 
Enter password for [apm_system]: 
Reenter password for [apm_system]: 
Enter password for [kibana_system]: 
Reenter password for [kibana_system]: 
Enter password for [logstash_system]: 
Reenter password for [logstash_system]: 
Enter password for [beats_system]: 
Reenter password for [beats_system]: 
Enter password for [remote_monitoring_user]: 
Reenter password for [remote_monitoring_user]: 
Changed password for user [apm_system]
Changed password for user [kibana_system]
Changed password for user [kibana]
Changed password for user [logstash_system]
Changed password for user [beats_system]
Changed password for user [remote_monitoring_user]
Changed password for user [elastic]

5.修改Logstash配置

output {elasticsearch {hosts => ["http://127.0.0.1:19200"]index => "tmk-log-%{+YYYY.MM.dd}"user  => elasticpassword => 123456}
}

Kibana 设置密码

由于 Elasticsearch 已经设置好了密码,此时如果 Kibana 想要从 Elasticsearch 中获取数据就必须进行账号密码配置,在 Kibana 配置账号密码即可。

cd /usr/local/kibana-7.16.2-linux-x86_64/config
vim kibana.yml# 默认用户为elastic
elasticsearch.username: "elastic"
elasticsearch.password: "123456"

Elasticsearch修改密码的命令

# 修改es密码
curl -H "Content-Type:application/json" -XPOST -u elastic 'http://127.0.0.1:19200/_xpack/security/user/elastic/_password' -d '{ "password" : "123456" }'

修改成功后需重启 Elasticsearch、Kibana、Logstash。

在这里插入图片描述


http://chatgpt.dhexx.cn/article/ESw15Fle.shtml

相关文章

ELK(入门篇)

简介 ELK由Elasticsearch、Logstash、Kibana三个优秀的开源项目组成&#xff0c;取首字母简写命名为ELK&#xff0c;主要提供对数据的加载、处理、查询等功能。其中&#xff1a; Elasticsearch&#xff1a;对数据进行搜集、分析、存储。 Logstash&#xff1a;对数据的搜集、分…

ELK详解

一&#xff0c;搜索原理 1&#xff0c;前提条件数据准备 a.获取数据 - 从互联网中获取数据 爬虫&#xff0c;网站数据b.建立文档 - 方便本地查询&#xff0c;将之前获取的数据&#xff0c;以文档的样式存在采取专用的存储软件&#xff0c;将文件&#xff08;Document&#…

ELK学习总结——我们为什么要用ELK

一. ELK是什么&#xff1f; ELK 是elastic公司提供的一套完整的日志收集以及展示的解决方案&#xff0c;是三个产品的首字母缩写&#xff0c;分别是ElasticSearch、Logstash 和 Kibana。 ElasticSearch简称ES&#xff0c;它是一个实时的分布式搜索和分析引擎&#xff0c;它可以…

1、ELK介绍

一、ELK简介 ELK是三个开源软件的缩写&#xff0c;分别表示&#xff1a;Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat&#xff0c;它是一个轻量级的日志收集处理工具(Agent)&#xff0c;Filebeat占用资源少&#xff0c;适合于在各个服务器上搜集…

ELK超详细配置

文章目录 一、ELK日志分析系统简介1.1、ELK日志分析系统组成1.2、日志处理步骤二、3款软件各自概念2.1、Elasticsearch介绍2.2、Logstash介绍2.3、Kibana介绍三、ELK日志分析系统部署3.1、实验环境及准备3.2、实验步骤3.2.1、elk-1和elk-2中部署Elasticsearch3.2.2、apache主机…

ELK入门——ELK详细介绍(ELK概念和特点、Elasticsearch/Logstash/beats/kibana安装及使用介绍、插件介绍)

目录 主要参考链接 一、什么是ELK&#xff08;端口9200&#xff09; 主要特点&#xff1a; 1.存储&#xff1a;面向文档JSON 2.检索&#xff1a;倒排乐观锁 3.分析&#xff1a;监控预警可视化 4.支持集群 二、Logstash&#xff08;端口5044&#xff09; 三、Beats 四…

ELK 是什么?

前言 本文隶属于专栏《1000个问题搞定大数据技术体系》&#xff0c;该专栏为笔者原创&#xff0c;引用请注明来源&#xff0c;不足和错误之处请在评论区帮忙指出&#xff0c;谢谢&#xff01; 本专栏目录结构和文献引用请见1000个问题搞定大数据技术体系 正文 ELK ELK是三个软…

【ElasticSearch】ELK简介

本文目录 一、什么是ELK&#xff1f; 二、ELK简介 2.1 E -- ElasticSearch 2.2 L -- Logstash 2.3 K -- Kibana 三、ELK优点 一、什么是ELK&#xff1f; ELK 是 Elasticsearch、Logstash、Kibana 三大开源框架的首字母大写简称。市面上也被称为Elastic Stack。其中 Elas…

ELK详解(一)——ELK基本原理

今天继续给大家介绍Linux运维相关知识&#xff0c;本文主要内容是ELK的基本原理。 一、ELK简介 ELK是三个软件的统称&#xff0c;即Elasticsearch、Logstash和Kibana三个开源软件的缩写。这三款软件都是开源软件&#xff0c;通常配合使用&#xff0c;并且都先后归于Elastic.c…

ELK介绍

文章目录 1.ELK简介2.ELK架构图3.Filebeat工作原理4.Logstash工作原理 1.ELK简介 ELK是三个开源软件的缩写&#xff0c;分别表示&#xff1a;Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat&#xff0c;它是一个轻量级的日志收集处理工具(Agent)&a…

ELK整理

ELK 一、ELK介绍二、 Elasticsearch的安装部署1、依赖于java,所以首先安装java环境-jdk2、 Elasticsearch的安装3、Elasticsearch-head插件的安装4、插入&#xff0c;查询&#xff0c;更新和删除数据 三、集群的搭建1、将三个节点搭建成功2、故障转移 四、kibana的安装以及使用…

ELK搜索高级

ELK搜索高级 1&#xff0e; 简介 ​ ELK是包含但不限于Elasticsearch&#xff08;简称es&#xff09;、Logstash、Kibana 三个开源软件的组成的一个整体&#xff0c;分别取其首字母组成ELK。ELK是用于数据抽取&#xff08;Logstash&#xff09;、搜索分析&#xff08;Elastic…

ELK初学者

一般我们需要进行日志分析场景&#xff1a;直接在日志文件中 grep、awk 就可以获得自己想要的信息。但在规模较大的场景中&#xff0c;此方法效率低下&#xff0c;面临问题包括日志量太大如何归档、文本搜索太慢怎么办、如何多维度查询。需要集中化的日志管理&#xff0c;所有服…

部署ELK+Kafka+Filebeat日志收集分析系统

ELKKafkaFilebeat日志系统 文章目录 ELKKafkaFilebeat日志系统1.环境规划2.部署elasticsearch集群2.1.配置es-1节点2.2.配置es-2节点2.3.配置es-3节点2.4.使用es-head插件查看集群状态 3.部署kibana4.部署zookeeper4.1.配置zookeeper-1节点4.2.配置zookeeper-2节点4.3.配置zook…

什么是ELK(小白简单快速的认识什么是ELK)

Elastic Stack 写在前面&#xff1a;刚接触elk&#xff0c;总是有点懵懵懂懂&#xff0c;我一向是比较习惯在使用过后更好更快的了解这个东西是做什么的&#xff0c;但这个elk是真的有点恶心到我了&#xff0c;那就是对于初期的模拟应用对小白太太太不友好了&#xff0c;所以在…

elk(Elasticsearch、Kibana、Logstash )有这篇就够了,超级详细,包教会

目录 1. elk介绍 2. elk安装&#xff08;windows版&#xff09; 3. elk安装&#xff08;linux版&#xff09; 4. 收集springboot项目日志&#xff08;windows版&#xff09; 5. 收集springboot项目日志&#xff08;linux版&#xff09; 6. elk 补充&#xff08;后台运行&…

linux中找不到vim命令

1.首先查看vim 安装包&#xff0c;如下图 rpm -qa | grep vim 2.下载vim&#xff08;需要连接网络&#xff09; yum install -y vim* 3.安装成功后查看 rpm -qa | grep vim

vim命令模式指令一览

提示&#xff1a;本文介绍了linux下vim中的快捷指令。 文章目录 注意&#xff1a;本文所有指令都只在命令行模式下有效&#xff01;&#xff01;&#xff01; vim指令图&#xff1a; 指令解析命令解析h光标向左移动j光标向下移动k光标向上移动l光标向下移动yy/nyy复制当前行/…

Linux中vim命令详解

vim 是linux中最基本的操作 vim常用模式 1、命令模式 2、插入模式 3、底行模式 4、可视化模式,命令模式按v进入 5、替换模式,命令模式下按r进入 1、插入模式 默认进入文件打开的是命令模式 在这个模式下是不能插入字符的 按“i”键,然后就进入到插入模式了,屏幕下…

vi/vim命令

四种模式 在日常的使用中&#xff0c;Linux并没有像Windows一样很方便的可视化界面&#xff0c;通常需要记很多的命令&#xff0c;复杂难记&#xff0c;今天我以不同模式的方式跟大家梳理哪些命令在哪种模式下使用&#xff0c;方便记忆。 vi/vim共分为四种模式&#xff0c;命…