ELK日志分析

article/2025/11/3 23:02:09

目录

一、概述

ELK工作原理

二、Elasticsearch 

1.介绍

2.基础核心概念

(1)接近实时(NRT)

(2)集群(cluster)

(3)节点(node)    

(4)索引(index)

(5)类型(type)

(6)文档(document)

(7)分片和副本(shards & replicas)

三、logstash介绍 

1.logStash的主要组件

2.LogStash主机分类

四、Kibana介绍

五、配置ELK日志分析系统 

1.配置elasticsearch环境

(1)node1

(2)node2

2.部署elasticsearch软件

node1

(1)安装elasticsearch—rpm包

(2)加载系统服务

(3)更改elasticsearch主配置文件

(4)创建数据存放路径并授权

(5)启动elasticsearch是否成功开启

 (6)查看节点信息

node2

(1)安装elasticsearch—rpm包

(2)加载系统服务

(3)更改elasticsearch主配置文件

(4)创建数据存放路径并授权

(5)启动elasticsearch是否成功开启

(6)查看节点信息

(7)集群检查健康和状态

3.安装elasticsearch-head插件

node1

(1)安装phantomjs前端框架

(2)安装elasticsearch-head数据可视化工具

(3)修改主配置文件

(4)启动elasticsearch-head  启动服务器

node2

(1)安装phantomjs

         (2)安装elasticsearch-hea

(3)修改主配置文件

(4)启动elasticsearch-head  启动服务器

(5)创建索引

4.安装logstash

(1)安装Apahce服务(httpd)

(2)安装Java环境

(3)安装logstash 

(4)对接测试

(5)Apache服务器

​(6)使用rubydebug显示详细输出,codec为一种编解码器 

5. Apache做对接配置

(1)logstash配置文件

(2)配置文件中定义的是收集系统日志(system)

6.安装kibana


一、概述

         日志分析是运维工程师解决系统故障,发现、定位问题的主要途径。日志主要包括系统日志、应用程序日志和安全日志系统运维和开发人员可以通过日志了解服务器软硬件信息、检查配置过程中的错误及错误发生的原因。经常分析日志可以了解服务器的负荷,性能安全性,从而及时采取措施纠正错误。
        elk 日志分析的工具(一般会给研发/开发+测试使用),管理的权限范围,不一定所有人全有。
        通常,日志被分散的储存在不同的设备上。如果你管理数十上百台服务器,你还在使用依次登录每台机器的传统方法查阅日志,即繁琐又效率低下。为此,我们可以使用集中化的日志管理,例如:开源的syslog,将所有服务器上的日志收集汇总。
       集中化管理日志后,日志的统计和检索又成为一件比较麻烦的事情,一般我们使用grep、awk和wc等Linux命令能实现检索和统计,但是对于更高要求的查询、排序和统计等,再加上庞大的机器数量,使用这样的方法依然难免有点力不从心。
         开源实时日志分析ELK平台能够完美的解决我们上述的问题,ELK由ElasticSearch、Logstash和Kiabana三个开源工具组成。
         官方网站:https://www.elastic.co/products     Elasticsearch是个开源分布式搜索引擎,它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本(replicat)机制,restful风格接口,多数据源,自动搜索负载等。
         Logstash是一个完全开源的工具,它可以对你的日志进行收集、过滤,并将其存储,供以后使用(如,搜索)。
         Kibana 也是一个开源和免费的工具,Kibana可以为 Logstash 和 ElasticSearch 提供友好的日志分析Web 界面,可以帮助汇总、分析和搜索重要数据日志。

ELK工作原理

APPServer集群→logstash Agent 采集器→ElasticSearch Cluster→Kibana Server→Browser

input   filter              output 

采集  过滤/格式化   输出

        Logstash收集AppServer产生的Log,并存放到ElasticSearch集群中,而Kibana则从ES集群中查询数据生成图表,再返回给Browser。简单来说,进行日志处理分析,一般需要经过以下步骤:

1)将日志进行集中化管理(beats)
beats包含四种工具:
    Packetbeat(搜集网络流量数据)
    Topbeat(搜集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
    Filebeat(搜集文件数据)轻量级的工具(相较于logstash)
    Winlogbeat(搜集 Windows 事件日志数据)
2)将日志格式化(logstash)
3)对格式化后的数据进行索引和存储(elasticsearch)
4)前端数据的展示(kibana)

二、Elasticsearch 

1.介绍

        Elasticsearch是一个基于Lucene的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于RESTful web接口。
        Elasticsearch是用Java开发的,并作为Apache许可条款下的开放源码发布,是第二流行的企业搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。

2.基础核心概念

(1)接近实时(NRT)

        elasticsearch是一个接近实时的搜索平台,从索引一个文档直到这个文档能够被搜索到有一个轻微的延迟(通常是1秒)。

(2)集群(cluster)

        一个集群就是由一个或多个节点组成在一起,共同持有整个的数据,并一起提供索引和搜索功能(共享数据)。其中一个节点为主节点,这个主节点是可以通过选举产生的,并提供跨节点的联合索引和搜索的功能。集群有一个唯一性标示的名字,默认是elasticsearch,集群名字很重要,每个节点是基于集群名字加入到其集群中的。因此,确保在不同环境中使用不同的集群名字(server_id)。
        一个集群可以只有一个节点。强烈建议在配置elasticsearch时,配置成集群模式。

        es 具有集群机制,节点通过集群名称加入到集群中,同时在集群中的节点会有一个自己的唯一身份标识(自己的名称)。


(3)节点(node)
    

        节点就是一台单一的服务器,是集群的一部分,存储数据并参与集群的索引和搜索功能。像集群一样,节点也是通过名字来标识,默认是在节点启动时随机分配的字符名。当然,你可以自己定义。该名字也很重要,在集群中用于识别服务器对应的节点。
        节点可以通过指定集群名字来加入到集群中。默认情况,每个节点被设置成加入到elasticsearch集群。如果启动了多个节点,假设能自动发现对方,他们将会自动组建一个名为elasticsearch的集群。


(4)索引(index)

       一个索引就是一个拥有几分相似特征的文档的集合。可以有一个客户数据的索引,另一个产品目录的索引,还有一个订单数据的索引。
        一个索引由一个名字来标识(必须全部是小写字母的),并且当要对对应于这个索引中的文档进行索引、搜索、更新和删除的时候,都要使用到这个名字。在一个集群中,可以定义任意多的索引。
        索引相对于关系型数据库的库。(mysql create database school;)

(5)类型(type)

        在一个索引中,你可以定义一种或多种类型。一个类型是你的索引的一个逻辑上的分类/分区,通常,会为具有一组共同字段的文档定义一个类型。
         在这个索引中,可以为数据定义一个类型,为数据定义另一个类型,当然,也可以为数据定义另一个类型。
         类型相对于关系型数据库的表

(6)文档(document)

        一个文档是一个可被索引的基础信息单元。可以拥有某一个客户的文档,某一个产品的一个文档,当然,也可以拥有某个订单的一个文档。文档以JSON(Javascript Object Notation)格式来表示,而JSON(yaml 和json)是一个到处存在的互联网数据交互格式。
        在一个index/type里面,只要你想,你可以存储任意多的文档。注意,虽然一个文档在物理上位于一个索引中,实际上一个文档必须在一个索引内被索引和分配一个类型。
        文档相对于关系型数据库的列。(MYSQL 字段)

ES 索引(库)→类型(表)→文档(字段)
         MYSQL 库  表   字段/记录

(7)分片和副本(shards & replicas)

        在实际情况下,索引存储的数据可能超过单个节点的硬件限制。如一个10亿文档需1TB空间可能不适合存储在单个节点的磁盘上,或者从单个节点搜索请求太慢了。为了解决这个问题,elasticsearch提供将索引分成多个分片的功能。当在创建索引时,可以定义想要分片的数量。每一个分片就是一个全功能的独立的索引,可以位于集群中任何节点上。

        分片的两个最主要原因:a. 水平分割扩展,增大存储量      b. 分布式并行跨分片操作,提高性能和吞吐量,分布式分片的机制和搜索请求的文档如何汇总完全是由elasticsearch控制的,这些对用户而言是透明的。

         网络问题等等其它问题可以在任何时候不期而至,为了健壮性,强烈建议要有一个故障切换机制,无论何种故障以防止分片或者节点不可用。 

         为此,elasticsearch将索引分片复制一份或多份,称之为分片副本或副本。

副本也有两个最主要原因

          a. 高可用性,以应对分片或者节点故障。出于这个原因,分片副本要在不同的节点上。
          b. qps性能,增大吞吐量,搜索可以并行在所有副本上执行。

         总之,每个索引可以被分成多个分片。一个索引也可以被复制0次(意思是没有复制)或多次。一旦复制了,每个索引就有了主分片(作为复制源的原来的分片)和复制分片(主分片的拷贝)之别。分片和副本的数量可以在索引创建的时候指定。在索引创建的时候,
        可以在任何时候动态地改变副本的数量,但是事后不能改变分片的数量。
        默认情况下,Elasticsearch中的每个索引被分片5个主分片和1个副本,如果集群中至少有两个节点,索引将会有5个主分片和另外5个副本分片(1个完全拷贝),这样的话每个索引总共就有10个分片。

三、logstash介绍 

        Logstash由JRuby语言编写,基于消息(message-based)的简单架构,并运行在Java虚拟机(JVM)上。不同于分离的代理端(agent)或主机端(server),LogStash可配置单一的代理端(agent)与其它开源软件结合,以实现不同的功能。

Logstash的理念

1)Collect:数据输入
2)Enrich:数据加工,如过滤,改写等
3)Transport:数据输出(被其他模块进行调用)

1.logStash的主要组件

1)Shipper:日志收集者  。负责监控本地日志文件的变化,及时把日志文件的最新内容收集起来。通常,远程代理端(agent)只需要运行这个组件即可;

2)Indexer:日志存储者。负责接收日志并写入到本地文件。

3)Broker:日志Hub。负责连接多个Shipper和多个Indexer

4)Search and Storage:允许对事件进行搜索和存储;

5)Web Interface:基于Web的展示界面

正是由于以上组件在LogStash架构中可独立部署,才提供了更好的集群扩展性。


2.LogStash主机分类

1)代理主机(agent host):作为事件的传递者(shipper),将各种日志数据发送至中心主机;只需运行Logstash 代理(agent)程序。

2)中心主机(central host):可运行包括中间转发器(Broker)、索引器(Indexer)、搜索和存储器(Search and Storage)、Web界面端(Web Interface)在内的各个组件,以实现对日志数据的接收、处理和存储。

四、Kibana介绍

       Kibana是一个针对Elasticsearch的开源分析及可视化平台,用来搜索、查看交互存储在Elasticsearch索引中的数据。
       使用Kibana,可以通过各种图表进行高级数据分析及展示。Kibana让海量数据更容易理解。操作简单,基于浏览器的用户界面可以快速创建仪表板(dashboard)实时显示 Elasticsearch查询动态。设置Kibana非常简单。无需编写代码,几分钟内就可以完成Kibana安装并启动Elasticsearch索引监测。

主要功能:
1)Elasticsearch无缝之集成。Kibana架构为Elasticsearch定制,可以将任何结构化和非结构化数据加入Elasticsearch索引。
        Kibana还充分利用了Elasticsearch强大的搜索和分析功能。

2)整合数据。Kibana能够更好地处理海量数据,并据此创建柱形图、折线图、散点图、直方图、饼图和地图。

3)复杂数据分析。Kibana提升了Elasticsearch分析能力,能够更加智能地分析数据,执行数学转换并且根据要求对数据切割分块。

4)让更多团队成员受益。强大的数据库可视化接口让各业务岗位都能够从数据集合受益。

5)接口灵活,分享更容易。使用Kibana可以更加方便地创建、保存、分享数据,并将可视化数据快速交流。

6)配置简单。Kibana的配置和启用非常简单,用户体验非常友好。Kibana自带Web服务器,可以快速启动运行。

7)可视化多数据源。Kibana可以非常方便地把来自Logstash、ES-Hadoop、Beats或第三方技术的数据整合到Elasticsearch,支持的第三方技术包括Apache Flume、Fluentd(作为一套收集容器日志的采集器)等。

8)简单数据导出。Kibana可以方便地导出感兴趣的数据,与其它数据集合并融合后快速建模分析,直观的发现新结果。

五、配置ELK日志分析系统 

        配置和安装ELK日志分析系统,安装集群方式,2个elasticsearch节点,并监控apache服务器日志。

主机操作系统    主机名IP地址 主要软件
服务器Centos7.6node1192.168.22.Elasticsearch   Kibana
服务器    Centos7.6node2192.168.22.Elasticsearch   
服务器    Centos7.6apache192.168.22.Logstash Apache

1.配置elasticsearch环境

(1)node1

vim /etc/hostsjava -versionrpm -ivh jdk-8u201-linux-x64.rpm vim /etc/profileexport JAVA_HOME=/usr/local/jdk1.8.0_91
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATHsource /etc/profile

 

 

 

 

(2)node2

vim /etc/hostsrpm -ivh jdk-8u201-linux-x64.rpm java -versionvim /etc/profile.d/java.sh			export JAVA_HOME=/usr/java/jdk1.8.0_201-amd64
export CLASSPATH=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
export PATH=$JAVA_HOME/bin:$PATHsource /etc/profile.d/java.shjava -version

 

 

 

 

2.部署elasticsearch软件

node1

(1)安装elasticsearch—rpm包

cd /optrpm -ivh elasticsearch-5.5.0.rpm 

(2)加载系统服务

sudo systemctl daemon-reloadsudo systemctl enable elasticsearch.service

 

(3)更改elasticsearch主配置文件

cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bakvim /etc/elasticsearch/elasticsearch.yml17  cluster.name: my-elk-cluster                 集群名字
23  node.name: node1                             节点名字
33  path.data: /data/elk_data                    数据存放路径
37  path.logs: /var/log/elasticsearch/           日志存放路径
43  bootstrap.memory_lock: false                 
不在启动的时候锁定内存(前端缓存。与IOPS-性能测试方式,每秒读写次数相关)55  network.host: 0.0.0.0                           提供服务绑定的IP地址,0.0.0.0代表所有地址
59  http.port: 9200                                 侦听端口为920068  discovery.zen.ping.unicast.hosts: ["node1", "node2"]  集群发现通过单播实现“单播”grep -v "^#" /etc/elasticsearch/elasticsearch.yml

 

 

(4)创建数据存放路径并授权

mkdir -p /data/elk_datachown elasticsearch:elasticsearch /data/elk_data/

(5)启动elasticsearch是否成功开启

systemctl start elasticsearch.service
需要等待一段时间让他启动,可以直接看日志:tail -f /var/log/elasticsearch/elas-cluster.lognetstat -antp | grep 9200

 (6)查看节点信息

 

 

node2

(1)安装elasticsearch—rpm包

cd /optrpm -ivh elasticsearch-5.5.0.rpm 

(2)加载系统服务

systemctl daemon-reload    systemctl enable elasticsearch.service

 

(3)更改elasticsearch主配置文件

cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bakvim /etc/elasticsearch/elasticsearch.yml17  cluster.name: my-elk-cluster                集群名字
23  node.name: node2                            节点名字
33  path.data: /data/elk_data                   数据存放路径
37  path.logs: /var/log/elasticsearch/          数据存放路径
43  bootstrap.memory_lock: false                不在启动的时候锁定内存
55  network.host: 0.0.0.0                       提供服务绑定的IP地址,0.0.0.0代表所有地址
59  http.port: 9200                              侦听端口为9200
68  discovery.zen.ping.unicast.hosts: ["node1", "node2"]       群发现通过单播实现grep -v "^#" /etc/elasticsearch/elasticsearch.yml

 

 

 

(4)创建数据存放路径并授权

mkdir -p /data/elk_datachown elasticsearch:elasticsearch /data/elk_data/

(5)启动elasticsearch是否成功开启

systemctl start elasticsearch.servicenetstat -antp | grep 9200

 (6)查看节点信息

 

 

(7)集群检查健康和状态

 

 

3.安装elasticsearch-head插件

node1

yum install gcc gcc-c++ make -ycd /opt
tar xzvf node-v8.2.1.tar.gz
cd node-v8.2.1/
./configure 
make -j3
make install

 

 

 

 

 

 

 

(1)安装phantomjs前端框架

cd /usr/local/src/
tar xjvf phantomjs-2.1.1-linux-x86_64.tar.bz2
cd phantomjs-2.1.1-linux-x86_64/bin
cp phantomjs /usr/local/bin

 

 

(2)安装elasticsearch-head数据可视化工具

cd /usr/local/src/
tar xzvf elasticsearch-head.tar.gz
cd elasticsearch-head/
npm install

(3)修改主配置文件

cd 
vim /etc/elasticsearch/elasticsearch.yml    下面配置文件,末尾 http.cors.enabled: true                     开启跨域访问支持,默认为false
http.cors.allow-origin: "*"                 跨域访问允许的域名地址systemctl restart elasticsearch

 

 

(4)启动elasticsearch-head  启动服务器

cd /usr/local/src/elasticsearch-head/npm run start &                         切换到后台运行netstat -lnupt | grep 9100netstat -lnupt | grep 9200

 node2

yum install gcc gcc-c++ make -ycd /opt
tar xzvf node-v8.2.1.tar.gz
cd node-v8.2.1/
./configure 
make -j3
make install

 

 

 

 

 

 

 

(1)安装phantomjs

cd /usr/local/src/
tar xjvf phantomjs-2.1.1-linux-x86_64.tar.bz2
cd phantomjs-2.1.1-linux-x86_64/bin
cp phantomjs /usr/local/bin

 

 

(2)安装elasticsearch-head

cd /usr/local/src/
tar xzvf elasticsearch-head.tar.gz
cd elasticsearch-head/
npm install

 

 

(3)修改主配置文件

cd 
vim /etc/elasticsearch/elasticsearch.yml   下面配置文件,末尾http.cors.enabled: true
http.cors.allow-origin: "*"systemctl restart elasticsearch

 

 

(4)启动elasticsearch-head  启动服务器

cd /usr/local/src/elasticsearch-head/
npm run start &                         切换到后台运行netstat -lnupt | grep 9100netstat -lnupt | grep 9200

 

 

 

 

 

 

 

 

 

 

es

索引(库)→ 类型(表)→ 文档(字段)

(5)创建索引

curl -XPUT 'localhost:9200/index-demo/test/1?pretty&pretty' -H 'content-Type: application/json' -d '{"user":"zhangsan","mesg":"hello world"}'

 

 

 

 

 

4.安装logstash

做一些日志搜集输出到elasticsearch中

(1)安装Apahce服务(httpd)

yum -y install httpdsystemctl start httpd

 

 

 

 

(2)安装Java环境

java -version      如果没有,安装yum -y install java

 

(3)安装logstash

cd /opt
rpm -ivh logstash-5.5.1.rpm                             安装logstash
systemctl start logstash.service                        启动logstash
systemctl enable logstash.service
ln -s /usr/share/logstash/bin/logstash /usr/local/bin/  建立logstash软连接

 

(4)对接测试

logstash(Apache)与elasticsearch(node)功能是否正常

-f通过这个选项可以指定logstash的配置文件,根据配置文件配置logstash
-e后面跟着字符串 该字符串可以被当做logstash的配置(如果是” ”,则默认使用stdin做为输入、stdout作为输出)
-t测试配置文件是否正确,然后退出

(5)Apache服务器

输入采用标准输入 输出采用标准输出

logstash agent 
① input
② filter
③ output 

logstash -e 'input { stdin{} } output { stdout{} }'www.baidu.com                        需要输入www.baidu.comwww.sina.com.cn                      需要输入www.sina.com.cn

 (6)使用rubydebug显示详细输出,codec为一种编解码器 

logstash -e 'input { stdin{} } output { stdout{ codec=>rubydebug } }'www.baidu.com

 

使用logstash将信息写入elasticsearch中   输入 输出 对接

logstash -e 'input { stdin{} } output { elasticsearch { hosts=>["192.168.22.196:9200"] } }'www.baidu.com                    输入内容
www.sina.com.cn                  输入内容
www.google.com.cn                输入内容

 

 

 

 

5. Apache做对接配置

(1)logstash配置文件

Logstash配置文件主要由三部分组成:input、output、filter(根据需要)

chmod o+r /var/log/messagesll /var/log/messages

 

(2)配置文件中定义的是收集系统日志(system)

vim /etc/logstash/conf.d/system.conf input {file{path => "/var/log/messages"type => "system"start_position => "beginning"}}
output {elasticsearch {hosts => ["192.168.22.196:9200"]index => "system-%{+YYYY.MM.dd}"}}systemctl restart logstash.service

 

 

 

 

6.安装kibana

cd /usr/local/src/
rpm -ivh kibana-5.5.1-x86_64.rpm
cd /etc/kibana/
cp kibana.yml kibana.yml.bakvim kibana.yml2  server.port: 5601                               kibana打开的端口
7  server.host: "0.0.0.0"                          kibana侦听的地址
21 elasticsearch.url: "http://192.168.22.:9200"    和elasticsearch建立联系
30  kibana.index: ".kibana"                        在elasticsearch中添加.kibana索引systemctl start kibana.service                     启动kibana服务
systemctl enable kibana.service                    开机启动kibana服务

  

 

 

 

 

 

 

 

 

 

 

 

 对接Apache主机的Apache 日志文件(访问的、错误的)

cd /etc/logstash/conf.d/
touch apache_log.conf
vim apache_log.confinput {file{path => "/etc/httpd/logs/access_log"type => "access"start_position => "beginning"}file{path => "/etc/httpd/logs/error_log"type => "error"start_position => "beginning"} }
output {if [type] == "access" {elasticsearch {hosts => ["192.168.22.196:9200"]index => "apache_access-%{+YYYY.MM.dd}"}}if [type] == "error" {elasticsearch {hosts => ["192.168.22.196:9200"]index => "apache_error-%{+YYYY.MM.dd}"}}}/usr/share/logstash/bin/logstash -f apache_log.conf

 

   

 

 

 

 

 


http://chatgpt.dhexx.cn/article/g3Npyo1g.shtml

相关文章

ELK日志分析系统(一)之ELK原理

文章目录 前言一、ELK简介1.ELK日志分析系统组成1.1Elasticsearch(es)1.2Logstash1.3Kibana 2.日志处理步骤 二、Elasticsearch1.Elasticsearch概述2.Elasticsearch核心概念2.1接近实时(NRT)2.2集群(cluster&#xff0…

ELK相关软件下载安装

一、Windows安装elasticsearch 1、安装JDK,至少1.8.0_73以上版本,验证:java -version 2、下载和解压缩Elasticsearch安装包,查看目录结构 下载地址:https://www.elastic.co/cn/downloads/elasticsearch 目录结构&am…

ELK日志分析系统

目录 一、ELK日志分析系统 1、日志分析 2、elk 日志分析的工具 3、Logstash 4、elasticsearch介绍 5、Elasticsearch的基础核心概念 7、logstash介绍 8、Kibana介绍 二、实验 1、配置elasticsearch环境 2、安装elasticsearch-head插件 3、安装logstash 4、在node1主…

centos7搭建elk

ELK 是 ElasticSearch、 LogStash、 Kibana 三个开源工具的简称,现在还包括 Beats,其分工如下: LogStash/Beats: 负责数据的收集与处理ElasticSearch: 一个开源的分布式搜索引擎,负责数据的存储、检索和分析Kibana: 提供了可视化的界面。负责数据的可视化操作基于 ELK Stack…

ELK简介

目录 1.什么是ELK 2.为什么使用ELK 3.ELK的工作流程简介 4.ELK重点组件介绍 ①Filebeat工作原理: ②Logstash工作原理: 5.ELK架构举例 ①: ②: ③: 1.什么是ELK ELK是三个开源软件的缩写,分别是E…

ELK分布式日志解决方案

一、简介 ELK,包含三款产品,Elasticsearch、Logstash、Kibana,可在项目中作为日志框架使用。 项目中框架整合所需技术: 在整个方案中,各组件的作用如下: 应用服务 生产日志,通过Logger产生日…

ElasticSearch(九):ELK 架构

日志收集——》格式化分析——》检索和可视化——》风险告警 ELK架构 经典的ELK整合消息队列Nginx架构 什么是Logstash Logstash核心概念Logstash数据传输原理Logstash配置文件结构Logstash QueueLogstash导入数据到ES同步数据库数据到Elasticsearch 什么是Beats FileBeat简介…

ELK入门

整体思路 filebeat采集数据--->Kafka--->Logstash提取Kafka--->ES-->Kibana可视化 ElasticSearch 首次启动时,密码在控制台日志中, 建议保留首次运行时的日志 elk 下载地址: 下载 Elastic 产品 | Elastic -> Elasticsearch security f…

ELK 环境搭建

ELK ELK 其实是Elasticsearch、Logstash和Kibana三个产品的首字母缩写,这三款都是开源产品。 ElasticSearch (简称 ES),是一个实时的分布式搜索和分析引擎,它可以用于全文搜索,结构化搜索以及分析;Logstash 是一个数…

ELK(入门篇)

简介 ELK由Elasticsearch、Logstash、Kibana三个优秀的开源项目组成,取首字母简写命名为ELK,主要提供对数据的加载、处理、查询等功能。其中: Elasticsearch:对数据进行搜集、分析、存储。 Logstash:对数据的搜集、分…

ELK详解

一,搜索原理 1,前提条件数据准备 a.获取数据 - 从互联网中获取数据 爬虫,网站数据b.建立文档 - 方便本地查询,将之前获取的数据,以文档的样式存在采取专用的存储软件,将文件(Document&#…

ELK学习总结——我们为什么要用ELK

一. ELK是什么? ELK 是elastic公司提供的一套完整的日志收集以及展示的解决方案,是三个产品的首字母缩写,分别是ElasticSearch、Logstash 和 Kibana。 ElasticSearch简称ES,它是一个实时的分布式搜索和分析引擎,它可以…

1、ELK介绍

一、ELK简介 ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent),Filebeat占用资源少,适合于在各个服务器上搜集…

ELK超详细配置

文章目录 一、ELK日志分析系统简介1.1、ELK日志分析系统组成1.2、日志处理步骤二、3款软件各自概念2.1、Elasticsearch介绍2.2、Logstash介绍2.3、Kibana介绍三、ELK日志分析系统部署3.1、实验环境及准备3.2、实验步骤3.2.1、elk-1和elk-2中部署Elasticsearch3.2.2、apache主机…

ELK入门——ELK详细介绍(ELK概念和特点、Elasticsearch/Logstash/beats/kibana安装及使用介绍、插件介绍)

目录 主要参考链接 一、什么是ELK(端口9200) 主要特点: 1.存储:面向文档JSON 2.检索:倒排乐观锁 3.分析:监控预警可视化 4.支持集群 二、Logstash(端口5044) 三、Beats 四…

ELK 是什么?

前言 本文隶属于专栏《1000个问题搞定大数据技术体系》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢! 本专栏目录结构和文献引用请见1000个问题搞定大数据技术体系 正文 ELK ELK是三个软…

【ElasticSearch】ELK简介

本文目录 一、什么是ELK? 二、ELK简介 2.1 E -- ElasticSearch 2.2 L -- Logstash 2.3 K -- Kibana 三、ELK优点 一、什么是ELK? ELK 是 Elasticsearch、Logstash、Kibana 三大开源框架的首字母大写简称。市面上也被称为Elastic Stack。其中 Elas…

ELK详解(一)——ELK基本原理

今天继续给大家介绍Linux运维相关知识,本文主要内容是ELK的基本原理。 一、ELK简介 ELK是三个软件的统称,即Elasticsearch、Logstash和Kibana三个开源软件的缩写。这三款软件都是开源软件,通常配合使用,并且都先后归于Elastic.c…

ELK介绍

文章目录 1.ELK简介2.ELK架构图3.Filebeat工作原理4.Logstash工作原理 1.ELK简介 ELK是三个开源软件的缩写,分别表示:Elasticsearch , Logstash, Kibana , 它们都是开源软件。新增了一个FileBeat,它是一个轻量级的日志收集处理工具(Agent)&a…

ELK整理

ELK 一、ELK介绍二、 Elasticsearch的安装部署1、依赖于java,所以首先安装java环境-jdk2、 Elasticsearch的安装3、Elasticsearch-head插件的安装4、插入,查询,更新和删除数据 三、集群的搭建1、将三个节点搭建成功2、故障转移 四、kibana的安装以及使用…