入门教程


本篇是一篇hello,world风格的入门指南,使用一个简单的例子,向大家演示怎么样安装、配置和使用Prometheus。你可以下载和本地运行Prometheus服务,通过配置文件收集Prometheus服务自己产生的数据,并在这些收集数据的基础上,进行查询、制定规则和图表化显示所关心的数据

下载和运行Prometheus

最新稳定版下载地址, 选择合适的平台,然后提取并运行它

tar xvfz prometheus-*.tar.gz

cd prometheus-*

在运行Prometheus服务之前,我们需要指定一个该服务运行所需要的配置文件

配置Prometheus服务监控本身

Prometheus通过Http方式拉取目标机上的度量指标。Prometheus服务也暴露自己运行所产生的数据,它能够抓取和监控自己的健康状况。

实际上,Prometheus服务收集自己运行所产生的时间序列数据,是没有什么意义的。但是它是一个非常好的入门级教程。保存一下的Prometheus配置到文件中,并自定义命名该文件名,如:prometheus.yml

  1. global:
  2. scrape_interval: 15s # By default, scrape targets every 15 seconds.
  3. # Attach these labels to any time series or alerts when communicating with
  4. # external systems (federation, remote storage, Alertmanager).
  5. external_labels:
  6. monitor: 'codelab-monitor'
  7. # A scrape configuration containing exactly one endpoint to scrape:
  8. # Here its Prometheus itself.
  9. scrape_configs:
  10. # The job name is added as a label `job=<job_name>` to any timeseries scraped from this config.
  11. - job_name: 'prometheus'
  12. # Override the global default and scrape targets from this job every 5 seconds.
  13. scrape_interval: 5s
  14. static_configs:
  15. - targets: ['localhost:9090']

一个完整的配置选项,可以查看文件文档

启动Prometheus服务

cd到Prometheus服务目录,并指定刚刚自定义好的配置文件,并启动Prometheus服务, 如下所示:

start Prometheus.

By default, Prometheus stores its database in ./data (flag -storage.local.path).

./prometheus -config.file={$dir}/prometheus.yml # $dir = absolutely/relative path

Prometheus服务启动成功后,然后再打开浏览器在页面上数据http://localhost:9090. 服务运行几秒后,会开始收集自身的时间序列数据

你也可以通过在浏览器输入http://localhost:9090/metrics, 直接查看Prometheus服务收集到的自身数据

Prometheus服务执行的操作系统线程数量由GOMAXPROCS环境变量控制。从Go 1.5开始,默认值是可用的CPUs数量

盲目地设置GOMAXPROCS到一个比较高德值,有可能会适得其反。见Go FAQs

注意:Prometheus服务默认需要3GB的内存代销。如果你的机器内存比较小, 你可以调整Prometheus服务使用更少的内存。详细见内存使用文档

使用表达式浏览器

我们试着查看一些Prometheus服务自身产生的数据。为了使用Prometheus内置表达式浏览器,可以在浏览器中数据http://localhost:9090/graph, 选择”Console”视图,同一层级还有”Graph”tab。

如果你可以从http://localhost:9090/metrics查看到收集的度量指标数据,那么其中有一个指标数据名称为prometheus_target_interval_length_seconds(两次抓取数据之间的时间差)可以被提取出来,可以在表达式控制框中输入:

prometheus_target_interval_length_seconds

它应该会返回带有prometheus_target_interval_length_seconds度量指标的许多时间序列数据,只是带有不能标签, 这些标签有不同的延迟百分比和目标群组之间的间隔。

如果我们仅仅对p99延迟感兴趣,我们使用下面的查询表达式收集该信息

prometheus_target_interval_length_seconds{quantile=”0.99”}

为了统计时间序列数据记录的总数量,你可以写:

count(prometheus_target_interval_length_seconds)

更多的表达式语言,详见表达式语言文档

使用图形界面

使用http://localhost:9090/graph链接,查看图表”Graph”。
例如:输入下面的表达式,绘制在Prometheus服务中每秒存储的速率.

rate(prometheus_local_storage_chunk_ops_total[1m])

启动一些样本目标机

我们更感兴趣的是Prometheus服务抓取其他目标机的数据采样,并非自己的时间序列数据。Go客户库有一个例子,它会产生一些自己造的RPC延迟。启动三个带有不同的延时版本。

首先需要确保你有Go的环境

下载Go的Prometheus客户端,并运行下面三个服务:

  1. # Fetch the client library code and compile example.
  2. git clone https://github.com/prometheus/client_golang.git
  3. cd client_golang/examples/random
  4. go get -d
  5. go build
  6. # Start 3 example targets in separate terminals:
  7. ./random -listen-address=:8080
  8. ./random -listen-address=:8081
  9. ./random -listen-address=:8082

你现在应该浏览器输入http://localhost:8080/metrics, http://localhost:8081/metrics, and http://localhost:8082/metrics, 会看到这些服务所产生的度量指标数据.

配置Prometheus服务,监听样本目标实例

现在我们将配置Prometheus服务,收集这三个例子的度量指标数据。我们把这三个服务实例命名为一个任务称为example-random, 并把8080端口服务和8081端口服务作为生产目标group,8082端口成为canary group。 为了在Prometheus服务中建模这个,我们需要添加两个群组到这个任务中,增加一些标签到不同的目标群组中。在这个例子中,我们会增加group="production"标签到带个目标组中,另外一个则是group="canary"

为了达到这个目的,在prometheus.yml配置文件中,增加下面任务定义到scrape_config区域中, 并重启Prometheus服务:

  1. scrape_configs:
  2. - job_name: 'example-random'
  3. # Override the global default and scrape targets from this job every 5 seconds.
  4. scrape_interval: 5s
  5. static_configs:
  6. - targets: ['localhost:8080', 'localhost:8081']
  7. labels:
  8. group: 'production'
  9. - targets: ['localhost:8082']
  10. labels:
  11. group: 'canary'

去表达式浏览器中验证Prometheus服务是否能统计到这两个群组的目标机度量数据,如:rpc_durations_seconds度量指标

为聚集到抓取的数据,设置规则并写入到新的时间序列中

当计算ad-hoc时,如果在累计到上千个时间序列数据的查询,可能会变慢。为了使这种多时间序列数据点查询更有效率,我们允许通过使用配置的记录规则,把预先记录表达式实时收集的数据存入到新的持久时间序列中。该例子中,如果我们对每秒RPCs数量(rpc_durations_seconds_count)的5分钟窗口流入的统计数量感兴趣的话。我们可以下面的表达式:

avg(rate(rpc_durations_seconds_count)[5m]) by (job, service)

试着使用图形化这个表达式

为了存储这个表达式所统计到的数据,我们可以使用新的度量指标,如job_service:rpc_durations_seconds_count:avg_rate5m, 创建一个配置规则文件,并把该文件保存为prometheus.rules:

job_service:rpc_durations_seconds_count:avg_rate5m = avg(rate(rpc_durations_seconds_count[5m])) by (job, service)

为了使Prometheus服务使用这个新的规则,在prometheus.yml配置文件的global配置区域添加一个rule_files语句。这个配置应该向下面这样写:

  1. global:
  2. scrape_interval: 15s # By default, scrape targets every 15 seconds.
  3. evaluation_interval: 15s # Evaluate rules every 15 seconds.
  4. # Attach these extra labels to all timeseries collected by this Prometheus instance.
  5. external_labels:
  6. monitor: 'codelab-monitor'
  7. rule_files:
  8. - 'prometheus.rules'
  9. scrape_configs:
  10. - job_name: 'prometheus'
  11. # Override the global default and scrape targets from this job every 5 seconds.
  12. scrape_interval: 5s
  13. static_configs:
  14. - targets: ['localhost:9090']
  15. - job_name: 'example-random'
  16. # Override the global default and scrape targets from this job every 5 seconds.
  17. scrape_interval: 5s
  18. static_configs:
  19. - targets: ['localhost:8080', 'localhost:8081']
  20. labels:
  21. group: 'production'
  22. - targets: ['localhost:8082']
  23. labels:
  24. group: 'canary'

指定这个新的配置文件,并重启Prometheus服务。验证新的时间序列度量指标job_service:rpc_durations_seconds_count:avg_rate5m是否能够在Console控制框中查找出时间序列数据