您好,欢迎访问一九零五行业门户网

分布式实时日志分析解决方案 ELK 部署架构

elk 已经成为目前最流行的集中式日志解决方案,它主要是由beats、logstash、elasticsearch、kibana等组件组成,来共同完成实时日志的收集,存储,展示等一站式的解决方案。本篇文章主要给大家介绍了关于分布式实时日志分析解决方案 elk 部署架构 ,有需要的朋友可以看一下
课程推荐→:《elasticsearch全文搜索实战》(实战视频)
来自课程《千万级数据并发解决方案(理论+实战)》
一、概述elk 已经成为目前最流行的集中式日志解决方案,它主要是由beats、logstash、elasticsearch、kibana等组件组成,来共同完成实时日志的收集,存储,展示等一站式的解决方案。本文将会介绍elk常见的架构以及相关问题解决。
filebeat:filebeat是一款轻量级,占用服务资源非常少的数据收集引擎,它是elk家族的新成员,可以代替logstash作为在应用服务器端的日志收集引擎,支持将收集到的数据输出到kafka,redis等队列。
logstash:数据收集引擎,相较于filebeat比较重量级,但它集成了大量的插件,支持丰富的数据源收集,对收集的数据可以过滤,分析,格式化日志格式。
elasticsearch:分布式数据搜索引擎,基于apache
  lucene实现,可集群,提供数据的集中式存储,分析,以及强大的数据搜索和聚合功能。
kibana:数据的可视化平台,通过该web平台可以实时的查看 elasticsearch 中的相关数据,并提供了丰富的图表统计功能。
二、elk常见部署架构2.1、logstash作为日志收集器
这种架构是比较原始的部署架构,在各应用服务器端分别部署一个logstash组件,作为日志收集器,然后将logstash收集到的数据过滤、分析、格式化处理后发送至elasticsearch存储,最后使用kibana进行可视化展示,这种架构不足的是:logstash比较耗服务器资源,所以会增加应用服务器端的负载压力。
2.2、filebeat作为日志收集器
该架构与第一种架构唯一不同的是:应用端日志收集器换成了filebeat,filebeat轻量,占用服务器资源少,所以使用filebeat作为应用服务器端的日志收集器,一般filebeat会配合logstash一起使用,这种部署方式也是目前最常用的架构。
2.3、引入缓存队列的部署架构
该架构在第二种架构的基础上引入了kafka消息队列(还可以是其他消息队列),将filebeat收集到的数据发送至kafka,然后在通过logstasth读取kafka中的数据,这种架构主要是解决大数据量下的日志收集方案,使用缓存队列主要是解决数据安全与均衡logstash与elasticsearch负载压力。
2.4、以上三种架构的总结
第一种部署架构由于资源占用问题,现已很少使用,目前使用最多的是第二种部署架构,至于第三种部署架构个人觉得没有必要引入消息队列,除非有其他需求,因为在数据量较大的情况下,filebeat 使用压力敏感协议向 logstash 或 elasticsearch 发送数据。如果 logstash 正在繁忙地处理数据,它会告知 filebeat 减慢读取速度。拥塞解决后,filebeat 将恢复初始速度并继续发送数据。
推荐一个交流学习群:478030634 里面会分享一些资深架构师录制的视频录像:有spring,mybatis,netty源码分析,高并发、高性能、分布式、微服务架构的原理,jvm性能优化这些成为架构师必备的知识体系。还能领取免费的学习资源,目前受益良多:
三、问题及解决方案问题:如何实现日志的多行合并功能?
系统应用中的日志一般都是以特定格式进行打印的,属于同一条日志的数据可能分多行进行打印,那么在使用elk收集日志的时候就需要将属于同一条日志的多行数据进行合并。
解决方案:使用filebeat或logstash中的multiline多行合并插件来实现
在使用multiline多行合并插件的时候需要注意,不同的elk部署架构可能multiline的使用方式也不同,如果是本文的第一种部署架构,那么multiline需要在logstash中配置使用,如果是第二种部署架构,那么multiline需要在filebeat中配置使用,无需再在logstash中配置multiline。
1、multiline在filebeat中的配置方式:
pattern:正则表达式
negate:默认为false,表示匹配pattern的行合并到上一行;true表示不匹配pattern的行合并到上一行
match:after表示合并到上一行的末尾,before表示合并到上一行的行首
如:
pattern: '['
negate: true
match: after
该配置表示将不匹配pattern模式的行合并到上一行的末尾
2、multiline在logstash中的配置方式
(1)logstash中配置的what属性值为previous,相当于filebeat中的after,logstash中配置的what属性值为next,相当于filebeat中的before。
(2)pattern => %{loglevel}s*] 中的loglevel是logstash预制的正则匹配模式,预制的还有好多常用的正则匹配模式,详细请看:https://github.com/logstash-p...
问题:如何将kibana中显示日志的时间字段替换为日志信息中的时间?
默认情况下,我们在kibana中查看的时间字段与日志信息中的时间不一致,因为默认的时间字段值是日志收集时的当前时间,所以需要将该字段的时间替换为日志信息中的时间。
解决方案:使用grok分词插件与date时间格式化插件来实现
在logstash的配置文件的过滤器中配置grok分词插件与date时间格式化插件,如:
如要匹配的日志格式为:“debug[defaultbeandefinitiondocumentreader:106] loading bean definitions”,解析出该日志的时间字段的方式有:
① 通过引入写好的表达式文件,如表达式文件为customer_patterns,内容为:
customer_time %{year}%{monthnum}%{monthday}s+%{time}
注:内容格式为:[自定义表达式名称] [正则表达式]
然后logstash中就可以这样引用:
② 以配置项的方式,规则为:(?<自定义表达式名称>正则匹配规则),如:
问题:如何在kibana中通过选择不同的系统日志模块来查看数据
一般在kibana中显示的日志数据混合了来自不同系统模块的数据,那么如何来选择或者过滤只查看指定的系统模块的日志数据?
解决方案:新增标识不同系统模块的字段或根据不同系统模块建es索引
1、新增标识不同系统模块的字段,然后在kibana中可以根据该字段来过滤查询不同模块的数据
这里以第二种部署架构讲解,在filebeat中的配置内容为:
通过新增:log_from字段来标识不同的系统模块日志
2、根据不同的系统模块配置对应的es索引,然后在kibana中创建对应的索引模式匹配,即可在页面通过索引模式下拉框选择不同的系统模块数据。
这里以第二种部署架构讲解,分为两步:
① 在filebeat中的配置内容为:
通过document_type来标识不同系统模块
② 修改logstash中output的配置内容为:
在output中增加index属性,%{type}表示按不同的document_type值建es索引
四、总结本文主要介绍了elk实时日志分析的三种部署架构,以及不同架构所能解决的问题,这三种架构中第二种部署方式是时下最流行也是最常用的部署方式,最后介绍了elk作在日志分析中的一些问题与解决方案,说在最后,elk不仅仅可以用来作为分布式日志数据集中式查询和管理,还可以用来作为项目应用以及服务器资源监控等场景。
以上就是分布式实时日志分析解决方案 elk 部署架构的详细内容。
其它类似信息

推荐信息