基于logstash的标准输出 写采集python程序-02
日志采集和监控 已经是企业中必不可少的 重要组成部分
我们之前 学习 Prometheus监控讲座的时候 也反复的提过 监控的重要性 以及 监控的几个重要类别(还记得不? ^_^)
其中日志监控就是监控种类中 分量非常重的一项内容 (业务,工作量)
更有甚至 跟其他的监控分类相比 日志监控往往需要的实时性准确性更强(CPU 脚本5-10), 日志监控更能真实反映当前业务的运行状况
日志监控 往往还会单独提出来 做成一个独立的集群项目 进行开发和维护
目前 企业中 常用的日志监控手段和工具很多, 我们这一讲 主要是针对 使用Prometheus这一款强大的数学计算监控工具 来实现 业务级的日志监控报警
(后期 大米运维课堂 还会讲到其他的日志监控技术 例如 Splunk …flume .. scribe 等等)
另外, 由于 日志监控的难度 比起其他基础监控来说 提高了不少
所以 我们这一讲中 光使用prometheus 是不够的, 我们还需要结合 Python + ELK + grafana + pushgateway + puppet 来综合实现 业务级日志监控
接下来 我们来看一下 本篇的 内容和大纲
引言和目标-日志监控的背景
成品日志监控的 功能展示图 和 最终框架图
ELK的服务端安装
puppet => filebeats客户端安装
基于logstash的标准输出 写采集python程序(重点)
prometheus+pushgateway安装 (提一些要点)
模拟线上集群的 压力测试日志采集演示
grafana最终形成监控图 和 报警规则
扩展在企业中的另一种 使用 prometheus采集日志的案例 (使用一次性采集方法)
总结
公开笔记对他人可见,有机会被管理员评为“优质笔记”
{{ noteEditor.content.length }}/2000
讲师收到你的提问会尽快为你解答。若选择公开提问,可以获得更多学员的帮助。
课程大纲