理解应用在部署过程中如何运转,对提供可靠的服务和对应用进行扩展是至关重要的。在 Kubernetes 集群中,可以在多个层级对应用进行监测:容器级, pod 级, service 级, 以及整个集群级。作为 Kubernetes 的一部分,我们从所有这些层面向用户提供他们运行的应用的资源详细使用信息。这样可以使用户对应用如何运行及何处可能发现瓶颈有更深刻的洞见。在Heapster项目中,提供了一个 Kubernetes 上的基础监控平台。
概述
Heapster 汇聚整个集群范围内的所有监控和事件数据。当前,Heapster 原生支持 Kubernetes 并且可以在所有 Kubernetes 安装中运行。 与普通 Kubernetes 应用类似, Heapster 在集群中以 pod 形式运行。Heapster pod 自动发现集群中所有节点并从节点上运行的 Kubernetes 代理进程 (Kubelet) 中查询资源使用信息。 Kubelet 则从 cAdvisor 获取数据。Heapster将收集的信息按照 pod 及其相关标签进行分组,然后将其推送到用于存储和可视化的后端中。当前支持的后端包括 InfluxDB (使用 Grafana 进行可视化),Google Cloud Monitoring ,和许多其它的后端(详情参见)。监控服务整体架构可参见下图:
接下来让我们详细了解一下其他组件。
cAdvisor
cAdvisor 是一款开源的容器资源使用和性能分析代理。它是专门为容器构建的并且原生支持 Docker 容器。在 Kubernetes 中,cAdvisor 被集成在 Kubelet 里。它自动发现本机运行的所有容器并且收集 CPU,内存,文件系统和网络资源的使用统计。它也可以通过分析本机运行的 ‘root’ 容器,来提供本机整体的资源使用统计。
在大多数 Kubernetes 集群中,cAdvisor 使用本机的4194端口对外提供了一个查看本机容器监控数据的简单UI。下面是 cAdvisor 展示整机资源使用状况的界面的部分快照:
Kubelet
Kubelet 是连接 Kubernetes mater 和 nodes 的桥梁。它管理着本机运行的 pod 和 容器。Kubelet 从 cAdvisor 获取 pod 中每个容器所用资源的统计信息,然后将该 pod 中所有容器的统计信息进行汇聚,通过 REST API 开放给外部使用。
存储后端
InfluxDB 和 Grafana
Grafana 搭配 InfluxDB 的组合是开源世界十分流行的监控方案。InfluxDB 提供了非常易用的 API 来读写时间序列数据。在大多数 Kubernetes 集群中,Heapster 默认使用它作为存储后端。详细的安装指南请参见这里。InfluxDB 和 Grafana 以 Pod 形态运行并提供相应的 Kubernetes service 给 Heapster 使用。
Grafana 容器提供 WEB UI 服务,该 UI 提供了配置方便的仪表盘接口。默认的 Kubernetes 仪表盘包含了监控集群整体资源使用和集群内所有 pod 资源使用的样例仪表盘,您可以方便的基于它进行定制或扩展。请在这里查看 InfluxDB 的存储 schema。
下面的视频展示了如何使用 heapster, InfluxDB 和 Grafana 来监控 Kubernetes 集群:
这是一个默认Kubernetes Grafana 仪表盘的快照,它展示了整个集群、单个 pod 和容器的 CPU 与内存使用情况:
Google Cloud 监控
Google Cloud 监控是一项托管监控服务,它允许您基于应用的重要指标进行可视化和报警。可以配置 Heapster 将收集到的指标数据自动向 Google Cloud 监控推送。推送的指标信息将出现在 云监控控制台 。该存储后端是最易于安装和维护的。在监控控制台上您可以轻松的使用导出的数据来创建和定制仪表盘。
下面的视频展示了如何安装和运行基于 Heapster 的 Google Cloud 监控:
下面是一个Google Cloud 监控仪表盘,它展示了整个集群的资源使用情况。
动手试试吧
现在您已经对 Heapster 有了一定的了解,大胆在您的集群中尝试一下吧!在 GitHub 上有Heapster 仓库。其中有安装 Heapster 和对应存储后端的详细指导。Heapster 在大多数 Kubernetes 集群上是默认运行的,所以您的集群里可能已经有了哦!随时欢迎您的反馈,如果在使用过程中遇到任何麻烦,请通过故障处理通道 知会我们。
作者: Vishnu Kannan 与 Victor Marmol, 谷歌软件工程师. 该文最早发布在 Kubernetes 博客.
译者:xuyang02965 原文链接