TiDB 集群监控

TiDB 提供了以下两种接口来监控集群状态:

  • 状态接口:通过 HTTP 接口对外汇报组件的信息。
  • Metrics 接口:使用 Prometheus 记录组件中各种操作的详细信息,使用 Grafana 进行可视化展示。

使用状态接口

状态接口用于监控组件的一些基本信息,并且可以作为 keepalive 的监测接口。另外,通过 PD 的状态接口可以看到整个 TiKV 集群的详细信息。

TiDB Server

  • TiDB API 地址:http://${host}:${port}
  • 默认端口:10080
  • 各类 api_name 详细信息:参见 TiDB API 文档

以下示例中,通过访问 http://${host}:${port}/status 获取当前 TiDB Server 的状态,并判断该 TiDB Server 是否存活。结果以 JSON 格式返回:

  1. curl http://127.0.0.1:10080/status
  2. {
  3. connections: 0, # 当前 TiDB Server 上的客户端连接数
  4. version: "5.7.25-TiDB-v3.0.0-beta-250-g778c3f4a5", # TiDB 版本号
  5. git_hash: "778c3f4a5a716880bcd1d71b257c8165685f0d70" # TiDB 当前代码的 Git Hash
  6. }

PD Server

  • PD API 地址:http://${host}:${port}/pd/api/v1/${api_name}
  • 默认端口:2379
  • 各类 api_name 详细信息:参见 PD API Doc

通过该接口可以获取当前所有 TiKV 节点的状态以及负载均衡信息。下面以一个单节点的 TiKV 集群为例,说明用户需要了解的信息:

  1. curl http://127.0.0.1:2379/pd/api/v1/stores
  2. {
  3. "count": 1, # TiKV 节点数量
  4. "stores": [ # TiKV 节点的列表
  5. # 集群中单个 TiKV 节点的信息
  6. {
  7. "store": {
  8. "id": 1,
  9. "address": "127.0.0.1:20160",
  10. "version": "3.0.0-beta",
  11. "state_name": "Up"
  12. },
  13. "status": {
  14. "capacity": "20 GiB", # 存储总容量
  15. "available": "16 GiB", # 存储剩余容量
  16. "leader_count": 17,
  17. "leader_weight": 1,
  18. "leader_score": 17,
  19. "leader_size": 17,
  20. "region_count": 17,
  21. "region_weight": 1,
  22. "region_score": 17,
  23. "region_size": 17,
  24. "start_ts": "2019-03-21T14:09:32+08:00", # 启动时间
  25. "last_heartbeat_ts": "2019-03-21T14:14:22.961171958+08:00", # 最后一次心跳的时间
  26. "uptime": "4m50.961171958s"
  27. }
  28. }
  29. ]

使用 metrics 接口

Metrics 接口用于监控整个集群的状态和性能。

  • 如果使用 TiDB-Ansible 部署 TiDB 集群,监控系统(Prometheus 和 Grafana)会同时部署。
  • 如果使用其他方式部署 TiDB 集群,在使用 metrics 接口前,需先部署 Prometheus 和 Grafana

成功部署 Prometheus 和 Grafana 之后,配置 Grafana

部署 Prometheus 和 Grafana

假设 TiDB 的拓扑结构如下:

节点 主机 IP 服务
Node1 192.168.199.113 PD1, TiDB, node_export, Prometheus, Grafana
Node2 192.168.199.114 PD2, node_export
Node3 192.168.199.115 PD3, node_export
Node4 192.168.199.116 TiKV1, node_export
Node5 192.168.199.117 TiKV2, node_export
Node6 192.168.199.118 TiKV3, node_export

第 1 步:下载二进制包

  1. # 下载二进制包
  2. $ wget https://github.com/prometheus/prometheus/releases/download/v2.2.1/prometheus-2.2.1.linux-amd64.tar.gz
  3. $ wget https://github.com/prometheus/node_exporter/releases/download/v0.15.2/node_exporter-0.15.2.linux-amd64.tar.gz
  4. $ wget https://s3-us-west-2.amazonaws.com/grafana-releases/release/grafana-4.6.3.linux-x64.tar.gz
  5. # 解压二进制包
  6. $ tar -xzf prometheus-2.2.1.linux-amd64.tar.gz
  7. $ tar -xzf node_exporter-0.15.2.linux-amd64.tar.gz
  8. $ tar -xzf grafana-4.6.3.linux-x64.tar.gz

第 2 步:在 Node1,Node2,Node3,Node4 上启动 node_exporter

  1. $ cd node_exporter-0.15.2.linux-amd64
  2. # 启动 node_exporter 服务
  3. $ ./node_exporter --web.listen-address=":9100" \
  4. --log.level="info" &

第 3 步:在 Node1 上启动 Prometheus

编辑 Prometheus 的配置文件:

  1. $ cd prometheus-2.2.1.linux-amd64
  2. $ vi prometheus.yml
  3. ...
  4. global:
  5. scrape_interval: 15s
  6. evaluation_interval: 15s
  7. # scrape_timeout 设置为全局默认值 (10s)
  8. external_labels:
  9. cluster: 'test-cluster'
  10. monitor: "prometheus"
  11. scrape_configs:
  12. - job_name: 'overwritten-nodes'
  13. honor_labels: true # 不要覆盖 job 和实例的 label
  14. static_configs:
  15. - targets:
  16. - '192.168.199.113:9100'
  17. - '192.168.199.114:9100'
  18. - '192.168.199.115:9100'
  19. - '192.168.199.116:9100'
  20. - '192.168.199.117:9100'
  21. - '192.168.199.118:9100'
  22. - job_name: 'tidb'
  23. honor_labels: true # 不要覆盖 job 和实例的 label
  24. static_configs:
  25. - targets:
  26. - '192.168.199.113:10080'
  27. - job_name: 'pd'
  28. honor_labels: true # 不要覆盖 job 和实例的 label
  29. static_configs:
  30. - targets:
  31. - '192.168.199.113:2379'
  32. - '192.168.199.114:2379'
  33. - '192.168.199.115:2379'
  34. - job_name: 'tikv'
  35. honor_labels: true # 不要覆盖 job 和实例的 label
  36. static_configs:
  37. - targets:
  38. - '192.168.199.116:20180'
  39. - '192.168.199.117:20180'
  40. - '192.168.199.118:20180'
  41. ...

启动 Grafana 服务:

  1. $ ./prometheus \
  2. --config.file="./prometheus.yml" \
  3. --web.listen-address=":9090" \
  4. --web.external-url="http://192.168.199.113:9090/" \
  5. --web.enable-admin-api \
  6. --log.level="info" \
  7. --storage.tsdb.path="./data.metrics" \
  8. --storage.tsdb.retention="15d" &

第 4 步:在 Node1 上启动 Grafana

编辑 Grafana 的配置文件:

  1. $ cd grafana-4.6.3
  2. $ vi conf/grafana.ini
  3. ...
  4. [paths]
  5. data = ./data
  6. logs = ./data/log
  7. plugins = ./data/plugins
  8. [server]
  9. http_port = 3000
  10. domain = 192.168.199.113
  11. [database]
  12. [session]
  13. [analytics]
  14. check_for_updates = true
  15. [security]
  16. admin_user = admin
  17. admin_password = admin
  18. [snapshots]
  19. [users]
  20. [auth.anonymous]
  21. [auth.basic]
  22. [auth.ldap]
  23. [smtp]
  24. [emails]
  25. [log]
  26. mode = file
  27. [log.console]
  28. [log.file]
  29. level = info
  30. format = text
  31. [log.syslog]
  32. [event_publisher]
  33. [dashboards.json]
  34. enabled = false
  35. path = ./data/dashboards
  36. [metrics]
  37. [grafana_net]
  38. url = https://grafana.net
  39. ...

启动 Grafana 服务:

  1. $ ./bin/grafana-server \
  2. --config="./conf/grafana.ini" &

配置 Grafana

本小节介绍如何配置 Grafana。

第 1 步:添加 Prometheus 数据源

  1. 登录 Grafana 界面。

  2. 点击 Grafana 图标打开侧边栏。

  3. 在侧边栏菜单中,点击 Data Source

  4. 点击 Add data source

  5. 指定数据源的相关信息:

    • Name 处,为数据源指定一个名称。
    • Type 处,选择 Prometheus
    • URL 处,指定 Prometheus 的 IP 地址。
    • 根据需求指定其它字段。
  6. 点击 Add 保存新的数据源。

第 2 步:导入 Grafana 面板

执行以下步骤,为 PD Server、TiKV Server 和 TiDB Server 分别导入 Grafana 面板:

  1. 点击侧边栏的 Grafana 图标。

  2. 在侧边栏菜单中,依次点击 Dashboards > Import 打开 Import Dashboard 窗口。

  3. 点击 Upload .json File 上传对应的 JSON 文件(下载 TiDB Grafana 配置文件)。

    注意:TiKV、PD 和 TiDB 面板对应的 JSON 文件分别为 tikv_pull.jsonpd.jsontidb.json

  4. 点击 Load

  5. 选择一个 Prometheus 数据源。

  6. 点击 Import,Prometheus 面板即导入成功。

查看组件 metrics

在顶部菜单中,点击 New dashboard,选择要查看的面板。

view dashboard

可查看以下集群组件信息:

  • TiDB Server:

    • query 处理时间,可以看到延迟和吞吐
    • ddl 过程监控
    • TiKV client 相关的监控
    • PD client 相关的监控
  • PD Server:

    • 命令执行的总次数
    • 某个命令执行失败的总次数
    • 某个命令执行成功的耗时统计
    • 某个命令执行失败的耗时统计
    • 某个命令执行完成并返回结果的耗时统计
  • TiKV Server:

    • GC 监控
    • 执行 KV 命令的总次数
    • Scheduler 执行命令的耗时统计
    • Raft propose 命令的总次数
    • Raft 执行命令的耗时统计
    • Raft 执行命令失败的总次数
    • Raft 处理 ready 状态的总次数