prometheus+grafana搭建监控系统

迈不过友情╰ 2022-03-26 14:12 401阅读 0赞

环境

prometheus+grafana 192.168.210.99
agent01(被监控端) 192.168.210.100
agent02(被监控端) 192.168.210.101

一、介绍Prometheus

Prometheus(普罗米修斯)是一套开源的监控&报警&时间序列数据库的组合,起始是由SoundCloud公司开发的。随着发展,越来越多公司和组织接受采用Prometheus,社会也十分活跃,他们便将它独立成开源项目,并且有公司来运作。Google SRE的书内也曾提到跟他们BorgMon监控系统相似的实现是Prometheus。现在最常见的Kubernetes容器管理系统中,通常会搭配Prometheus进行监控。

Prometheus基本原理是通过HTTP协议周期性抓取被监控组件的状态,这样做的好处是任意组件只要提供HTTP接口就可以接入监控系统,不需要任何SDK或者其他的集成过程。这样做非常适合虚拟化环境比如VM或者Docker 。

Prometheus应该是为数不多的适合Docker、Mesos、Kubernetes环境的监控系统之一。

输出被监控组件信息的HTTP接口被叫做exporter 。目前互联网公司常用的组件大部分都有exporter可以直接使用,比如Varnish、Haproxy、Nginx、MySQL、Linux 系统信息 (包括磁盘、内存、CPU、网络等等),具体支持的源看:https://github.com/prometheus。

与其他监控系统相比,Prometheus的主要特点是:

  1. 一个多维数据模型(时间序列由指标名称定义和设置键/值尺寸)。
  2. 非常高效的存储,平均一个采样数据占~3.5bytes左右,320万的时间序列,每30秒采样,保持60天,消耗磁盘大概228G
  3. 一种灵活的查询语言。
  4. 不依赖分布式存储,单个服务器节点。
  5. 时间集合通过HTTP上的PULL模型进行。
  6. 通过中间网关支持推送时间。
  7. 通过服务发现或静态配置发现目标。
  8. 多种模式的图形和仪表板支持。

二、Prometheus架构概览

该图说明了普罗米修斯(Prometheus)及其一些生态系统组件的整体架构:

这里写图片描述

它的服务过程是这样的Prometheus daemon负责定时去目标上抓取metrics(指标) 数据,每个抓取目标需要暴露一个http服务的接口给它定时抓取。

Prometheus:支持通过配置文件、文本文件、zookeeper、Consul、DNS SRV lookup等方式指定抓取目标。支持很多方式的图表可视化,例如十分精美的Grafana,自带的Promdash,以及自身提供的模版引擎等等,还提供HTTP API的查询方式,自定义所需要的输出。

Alertmanager:是独立于Prometheus的一个组件,可以支持Prometheus的查询语句,提供十分灵活的报警方式。

PushGateway:这个组件是支持Client主动推送metrics到PushGateway,而Prometheus只是定时去Gateway上抓取数据。

如果有使用过statsd的用户,则会觉得这十分相似,只是statsd是直接发送给服务器端,而Prometheus主要还是靠进程主动去抓取。

大多数Prometheus组件都是用Go编写的,它们可以轻松地构建和部署为静态二进制文件。访问prometheus.io以获取完整的文档,示例和指南。

三、Prometheus的数据模型

Prometheus从根本上所有的存储都是按时间序列去实现的,相同的metrics(指标名称) 和label(一个或多个标签) 组成一条时间序列,不同的label表示不同的时间序列。为了支持一些查询,有时还会临时产生一些时间序列存储。

metrics name&label指标名称和标签

每条时间序列是由唯一的”指标名称”和一组”标签(key=value)”的形式组成。

指标名称:一般是给监测对像起一名字,例如http_requests_total这样,它有一些命名规则,可以包字母数字之类的的。通常是以应用名称开头监测对像数值类型单位这样。例如:push_total、userlogin_mysql_duration_seconds、app_memory_usage_bytes。

标签:就是对一条时间序列不同维度的识别了,例如一个http请求用的是POST还是GET,它的endpoint是什么,这时候就要用标签去标记了。最终形成的标识便是这样了:http_requests_total{method=”POST”,endpoint=”/api/tracks”}。

记住,针对http_requests_total这个metrics name无论是增加标签还是删除标签都会形成一条新的时间序列。

查询语句就可以跟据上面标签的组合来查询聚合结果了。

如果以传统数据库的理解来看这条语句,则可以考虑http_requests_total是表名,标签是字段,而timestamp是主键,还有一个float64字段是值了。(Prometheus里面所有值都是按float64存储)。

四、Prometheus四种数据类型

Counter

Counter用于累计值,例如记录请求次数、任务完成数、错误发生次数。一直增加,不会减少。重启进程后,会被重置。

例如:http_response_total{method=”GET”,endpoint=”/api/tracks”} 100,10秒后抓取http_response_total{method=”GET”,endpoint=”/api/tracks”} 100。

Gauge

Gauge常规数值,例如 温度变化、内存使用变化。可变大,可变小。重启进程后,会被重置。

例如: memory_usage_bytes{host=”master-01″} 100 < 抓取值、memory_usage_bytes{host=”master-01″} 30、memory_usage_bytes{host=”master-01″} 50、memory_usage_bytes{host=”master-01″} 80 < 抓取值。

Histogram

Histogram(直方图)可以理解为柱状图的意思,常用于跟踪事件发生的规模,例如:请求耗时、响应大小。它特别之处是可以对记录的内容进行分组,提供count和sum全部值的功能。

例如:{小于10=5次,小于20=1次,小于30=2次},count=7次,sum=7次的求和值。

Summary

Summary和Histogram十分相似,常用于跟踪事件发生的规模,例如:请求耗时、响应大小。同样提供 count 和 sum 全部值的功能。

例如:count=7次,sum=7次的值求值。

它提供一个quantiles的功能,可以按%比划分跟踪的结果。例如:quantile取值0.95,表示取采样值里面的95%数据。

五、安装运行Prometheus(二进制版)

下面介绍如何使用Prometheus和Grafana对MySQL服务器性能进行监控。

我们用到了以下两个exporter:

  1. node_exporter 用于机器系统数据收集
  2. mysqld_exporter 用于MySQL服务器数据收集

Grafana是一个开源的功能丰富的数据可视化平台,通常用于时序数据的可视化。它内置了以下数据源的支持:

下面是我们安装时用到的架构图:

这里写图片描述

下载安装Prometheus(https://prometheus.io/download/)

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70

  1. $ wget https://github.com/prometheus/prometheus/releases/download/v2.6.1/prometheus-2.6.1.linux-amd64.tar.gz
  2. $ tar zxvf prometheus-2.6.1.linux-amd64.tar.gz -C /opt
  3. $ cd /opt
  4. $ mv prometheus-2.6.1.linux-amd64 prometheus
  5. $ cd prometheus

修改Prometheus配置文件prometheus.yml (替换你要监控的IP地址):

  1. - job_name: 'prometheus'
  2. # metrics_path defaults to '/metrics'
  3. # scheme defaults to 'http'.
  4. static_configs:
  5. - targets: ['localhost:9090']
  6. labels:
  7. instance: prometheus
  8. - job_name: linux
  9. static_configs:
  10. - targets: ['192.168.210.100:9100','192.168.210.101:9100']
  11. labels:
  12. instance: db1
  13. - job_name: mysql
  14. static_configs:
  15. - targets: ['192.168.210.101:9104']
  16. labels:
  17. instance: db1

192.168.210.101是我们数据库主机的IP,端口则是对应的exporter的监听端口。

动态文件加载方式

  1. # my global config
  2. global:
  3. scrape_interval: 15s # Set the scrape interval to every 15 seconds. Default is every 1 minute.
  4. evaluation_interval: 15s # Evaluate rules every 15 seconds. The default is every 1 minute.
  5. # scrape_timeout is set to the global default (10s).
  6. # Alertmanager configuration
  7. alerting:
  8. alertmanagers:
  9. - static_configs:
  10. - targets:
  11. # - alertmanager:9093
  12. # Load rules once and periodically evaluate them according to the global 'evaluation_interval'.
  13. rule_files:
  14. # - "first_rules.yml"
  15. # - "second_rules.yml"
  16. # A scrape configuration containing exactly one endpoint to scrape:
  17. # Here it's Prometheus itself.
  18. scrape_configs:
  19. # The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
  20. - job_name: 'prometheus'
  21. # metrics_path defaults to '/metrics'
  22. # scheme defaults to 'http'.
  23. static_configs:
  24. - targets: ['localhost:9090']
  25. - job_name: 'linux'
  26. file_sd_configs:
  27. - files: ['/opt/prometheus/config/node/*.yml']
  28. refresh_interval: 5s
  29. - job_name: 'java'
  30. file_sd_configs:
  31. - files: ['/opt/prometheus/config/java/*.yml']
  32. refresh_interval: 5s
  33. - targets: ['192.168.210.100:8081']
  34. labels:
  35. instance: 'zhihuademo'
  36. application: 'zhihua-demo'
  37. hostname: '192.168.210.100'
  38. - targets: ['192.168.210.100:1003']
  39. labels:
  40. instance: '192.168.210.100-configservice'
  41. application: 'prometheus-configservice'
  42. hostname: '192.168.210.100'

启动Prometheus

  1. nohup ./prometheus --config.file=prometheus.yml &

或者直接 nohup ./prometheus &

Prometheus内置了一个web界面,我们可通过http://192.168.210.99:9090进行访问:

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 1

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 2

在Status->Targets页面下,我们可以看到我们配置的两个Target,它们的State为DOWN。

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 3

下一步我们需要安装并运行exporter,下载exporters并解压到被监控端服务器:

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 4

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 5

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 6

  1. $ cd /opt
  2. $ wget https://github.com/prometheus/node_exporter/releases/download/v0.17.0/node_exporter-0.17.0.linux-amd64.tar.gz
  3. $ wget https://github.com/prometheus/mysqld_exporter/releases/download/v0.11.0/mysqld_exporter-0.11.0.linux-amd64.tar.gz

安装运行node_exporter

  1. $ tar zxvf node_exporter-0.17.0.linux-amd64.tar.gz -C /opt
  2. $ mv node_exporter-0.17.0.linux-amd64.tar.gz node_exporter
  3. $ nohup /opt/node_exporter/node_exporter &

安装运行mysqld_exporter

mysqld_exporter需要连接到Mysql,所以需要Mysql的权限,我们先为它创建用户并赋予所需的权限.

  1. mysql> GRANT REPLICATION CLIENT,PROCESS ON *.* TO 'mysql_monitor'@'localhost' identified by 'mysql_monitor';
  2. mysql> GRANT SELECT ON *.* TO 'mysql_monitor'@'localhost';

创建.my.cnf文件并运行mysqld_exporter:

  1. $ tar xvf mysqld_exporter-0.11.0.linux-amd64.tar.gz -C /opt
  2. $ cd /opt
  3. $ mv mysqld_exporter-0.11.0.linux-amd64 mysqld_exporter
  4. $ cd mysqld_exporter
  5. $ cat .my.cnf
  6. [client]
  7. user=mysql_monitor
  8. password=mysql_monitor
  9. hostname=127.0.0.1
  10. port=32306
  11. $ nohup /opt/mysqld_exporter/mysqld_exporter -config.my-cnf=".my.cnf" &

我们再次回到Status->Targets页面,可以看到两个Target的状态已经变成UP了:

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 7

接下来就可以看图形了

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 8

注意:prometheus里面的时区是GMT,图形横轴显示的时间与后面的grafana显示时间不同,我们用的主机时区是CST,大家可以自己了解这个时区间的关系

Prometheus自带的图形并不够强大,于是我们可以使用Grafana作为Prometheus的Dashboard。

六、安装运行Grafana

官方地址 http://docs.grafana.org/installation/rpm/

Grafana安装配置介绍

  1. $ wget https://dl.grafana.com/oss/release/grafana-5.4.2-1.x86_64.rpm
  2. $ sudo yum localinstall grafana-5.4.2-1.x86_64.rpm

启动服务及添加开机启动:

  1. $ sudo service grafana-server start
  2. $ sudo /sbin/chkconfig --add grafana-server

加入service

  1. sudo systemctl enable grafana-server.service

最后我们运行Grafana服务

  1. $ systemctl daemon-reload
  2. $ systemctl start grafana-server
  3. $ systemctl status grafana-server

我们可通过http://monitor\_host:3000访问Grafana网页界面(默认登陆帐号/密码为admin/admin):

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 9

然后我们到Data Sources页面添加数据源:

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 10

同步一个监控主机状态的图形 watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 11

七、设置grafana告警

首先配置邮件服务

  1. yum install -y sendmail
  2. vi /etc/grafana/grafana.ini (配置文件添加如下)

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 12

重启grafana

  1. systemctl restart grafana-server

在grafana的web界面添加接收告警的邮箱地址

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 13

如果发送成功,右上角会有提示

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 14

八、prometheus告警设置

要实现prometheus的告警,需要通过altermanager这个组件;在prometheus服务端写告警规则,在altermanage组件配置邮箱;

1、prometheus告警规则写法,以下是例子

  1. groups:
  2. - name: base-monitor-rule
  3. rules:
  4. - alert: NodeCpuUsage
  5. expr: (100 - (avg by (instance) (rate(node_cpu{job=~".*",mode="idle"}[2m])) * 100)) > 99
  6. for: 15m
  7. labels:
  8. service_name: test
  9. level: warning
  10. annotations:
  11. description: "{
  12. {$labels.instance}}: CPU usage is above 99% (current value is: {
  13. { $value }}"
  14. - alert: NodeMemUsage
  15. expr: avg by (instance) ((1- (node_memory_MemFree{} + node_memory_Buffers{} + node_memory_Cached{})/node_memory_MemTotal{}) * 100) > 90
  16. for: 15m
  17. labels:
  18. service_name: test
  19. level: warning
  20. annotations:
  21. description: "{
  22. {$labels.instance}}: MEM usage is above 90% (current value is: {
  23. { $value }}"
  24. - alert: NodeDiskUsage
  25. expr: (1 - node_filesystem_free{fstype!="rootfs",mountpoint!="",mountpoint!~"/(run|var|sys|dev).*"} / node_filesystem_size) * 100 > 80
  26. for: 2m
  27. labels:
  28. service_name: test
  29. level: warning
  30. annotations:
  31. description: "{
  32. {$labels.instance}}: Disk usage is above 80% (current value is: {
  33. { $value }}"
  34. - alert: NodeFDUsage
  35. expr: avg by (instance) (node_filefd_allocated{} / node_filefd_maximum{}) * 100 > 80
  36. for: 2m
  37. labels:
  38. service_name: test
  39. level: warning
  40. annotations:
  41. description: "{
  42. {$labels.instance}}: File Descriptor usage is above 80% (current value is: {
  43. { $value }}"
  44. - alert: NodeLoad15
  45. expr: avg by (instance) (node_load15{}) > 100
  46. for: 2m
  47. labels:
  48. service_name: test
  49. level: warning
  50. annotations:
  51. description: "{
  52. {$labels.instance}}: Load15 is above 100 (current value is: {
  53. { $value }}"
  54. - alert: NodeAgentStatus
  55. expr: avg by (instance) (up{}) == 0
  56. for: 2m
  57. labels:
  58. service_name: test
  59. level: warning
  60. annotations:
  61. description: "{
  62. {$labels.instance}}: Node Agent is down (current value is: {
  63. { $value }}"
  64. - alert: NodeProcsBlocked
  65. expr: avg by (instance) (node_procs_blocked{}) > 100
  66. for: 2m
  67. labels:
  68. service_name: test
  69. level: warning
  70. annotations:
  71. description: "{
  72. {$labels.instance}}: Node Blocked Procs detected!(current value is: {
  73. { $value }}"
  74. - alert: NodeTransmitRate
  75. expr: avg by (instance) (floor(irate(node_network_transmit_bytes{device="eth0"}[2m]) / 1024 / 1024)) > 100
  76. for: 2m
  77. labels:
  78. service_name: test
  79. level: warning
  80. annotations:
  81. description: "{
  82. {$labels.instance}}: Node Transmit Rate is above 100MB/s (current value is: {
  83. { $value }}"
  84. - alert: NodeReceiveRate
  85. expr: avg by (instance) (floor(irate(node_network_receive_bytes{device="eth0"}[2m]) / 1024 / 1024)) > 100
  86. for: 2m
  87. labels:
  88. service_name: test
  89. level: warning
  90. annotations:
  91. description: "{
  92. {$labels.instance}}: Node Receive Rate is above 100MB/s (current value is: {
  93. { $value }}"
  94. - alert: NodeDiskReadRate
  95. expr: avg by (instance) (floor(irate(node_disk_bytes_read{}[2m]) / 1024 / 1024)) > 50
  96. for: 2m
  97. labels:
  98. service_name: test
  99. level: warning
  100. annotations:
  101. description: "{
  102. {$labels.instance}}: Node Disk Read Rate is above 50MB/s (current value is: {
  103. { $value }}"
  104. - alert: NodeDiskWriteRate
  105. expr: avg by (instance) (floor(irate(node_disk_bytes_written{}[2m]) / 1024 / 1024)) > 50
  106. for: 2m
  107. labels:
  108. service_name: test
  109. level: warning
  110. annotations:
  111. description: "{
  112. {$labels.instance}}: Node Disk Write Rate is above 50MB/s (current value is: {
  113. { $value }}"

操作如下:

  1. [root@mp-sre-fanhaitao prometheus-2.3.1.linux-amd64]# pwd
  2. /usr/local/prometheus
  3. [root@mp-sre-fanhaitao prometheus-2.3.1.linux-amd64]# vi prometheus.yml
  4. # Alertmanager configuration
  5. alerting:
  6. alertmanagers:
  7. - static_configs:
  8. - targets:
  9. - 192.168.210.100:9093 #此处我没有将altermanager和prometheus装在一台机器上
  10. rule_files:
  11. - rules/haitao.rules #告警规则文件,自定义一个

告警规则文件

  1. [root@mp-sre-fanhaitao rules]# pwd
  2. /usr/local/prometheus-2.3.1.linux-amd64/rules
  3. [root@mp-sre-fanhaitao rules]# vi haitao.rules
  4. groups:
  5. - name: base-monitor-rule
  6. rules:
  7. - alert: NodeDiskUsage
  8. expr: ceil(node_filesystem_avail_bytes{mountpoint="/", device="/dev/vda1"} /1024 / 1024 / 1024) > 92 #此处的语法是prometheus的重点,需要自己学习
  9. for: 1m
  10. annotations:
  11. description: "{
  12. {$labels.instance}}: Node Disk Usage is above 90GB (current value is: {
  13. { $value }}"

2、altermanager设置邮箱

  1. [root@mp-sre-fanhaitao alertmanager-0.15.0.linux-amd64]# pwd
  2. /usr/local/alertmanager-0.15.0.linux-amd64
  3. [root@mp-sre-fanhaitao alertmanager-0.15.0.linux-amd64]# vi alertmanager.yml

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 15

定义好告警规则和设置邮箱后,可以在prometheus的web端看到定义好的规则,如下

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 16

watermark_type_ZmFuZ3poZW5naGVpdGk_shadow_10_text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2ZmemhpaHVh_size_16_color_FFFFFF_t_70 17

发表评论

表情:
评论列表 (有 0 条评论,401人围观)

还没有评论,来说两句吧...

相关阅读

    相关 Zabbix监控系统

    引言: zabbix是目前系统监控领域的佼佼者,其开源且提供了强大完善的Web界面,并且兼容各种不同的设备和系统,支持多种平台,其背后的公司为Zabbix持续演进提供了技术支持