監控

Kubernetes 社區提供了一些列的工具來監控容器和集群的狀態,並藉助 Prometheus 提供告警的功能。

  • cAdvisor 負責單節點內部的容器和節點資源使用統計,內置在 Kubelet 內部,並通過 Kubelet /metrics/cadvisor 對外提供 API

  • InfluxDB 是一個開源分佈式時序、事件和指標數據庫;而 Grafana 則是 InfluxDB 的 Dashboard,提供了強大的圖表展示功能。它們常被組合使用展示圖表化的監控數據。

  • metrics-server 提供了整個集群的資源監控數據,但要注意

    • Metrics API 只可以查詢當前的度量數據,並不保存歷史數據

    • Metrics API URI 爲 /apis/metrics.k8s.io/,在 k8s.io/metrics 維護

    • 必須部署 metrics-server 才能使用該 API,metrics-server 通過調用 Kubelet Summary API 獲取數據

  • kube-state-metrics 提供了 Kubernetes 資源對象(如 DaemonSet、Deployments 等)的度量。

  • Prometheus 是另外一個監控和時間序列數據庫,還提供了告警的功能。

  • Node Problem Detector 監測 Node 本身的硬件、內核或者運行時等問題。

  • Heapster 提供了整個集群的資源監控,並支持持久化數據存儲到 InfluxDB 等後端存儲中(已棄用)

cAdvisor

cAdvisor 是一個來自 Google 的容器監控工具,也是 Kubelet 內置的容器資源收集工具。它會自動收集本機容器 CPU、內存、網絡和文件系統的資源佔用情況,並對外提供 cAdvisor 原生的 API(默認端口爲 --cadvisor-port=4194)。

從 v1.7 開始,Kubelet metrics API 不再包含 cadvisor metrics,而是提供了一個獨立的 API 接口:

  • Kubelet metrics: http://127.0.0.1:8001/api/v1/proxy/nodes/<node-name>/metrics

  • Cadvisor metrics: http://127.0.0.1:8001/api/v1/proxy/nodes/<node-name>/metrics/cadvisor

這樣,在 Prometheus 等工具中需要使用新的 Metrics API 來獲取這些數據,比如下面的 Prometheus 自動配置了 cadvisor metrics API:

注意:cadvisor 監聽的端口將在 v1.12 中刪除,建議所有外部工具使用 Kubelet Metrics API 替代。

InfluxDB 和 Grafana

InfluxDB 是一個開源分佈式時序、事件和指標數據庫;而 Grafana 則是 InfluxDB 的 Dashboard,提供了強大的圖表展示功能。它們常被組合使用展示圖表化的監控數據。

Heapster

Kubelet 內置的 cAdvisor 只提供了單機的容器資源佔用情況,而 Heapster 則提供了整個集群的資源監控,並支持持久化數據存儲到 InfluxDB、Google Cloud Monitoring 或者 其他的存儲後端。注意:

  • 僅 Kubernetes v1.7.X 或者更老的集群推薦使用 Heapster。

  • 從 Kubernetes v1.8 開始,資源使用情況的度量(如容器的 CPU 和內存使用)就已經通過 Metrics API 獲取,並且 HPA 也從 metrics-server 查詢必要的數據。

  • Heapster 已在 v1.11 中棄用,推薦 v1.8 及以上版本部署 metrics-server 替代 Heapster

Heapster 首先從 Kubernetes apiserver 查詢所有 Node 的信息,然後再從 kubelet 提供的 API 採集節點和容器的資源佔用,同時在 /metrics API 提供了 Prometheus 格式的數據。Heapster 採集到的數據可以推送到各種持久化的後端存儲中,如 InfluxDB、Google Cloud Monitoring、OpenTSDB 等。

部署 Heapster、InfluxDB 和 Grafana

在 Kubernetes 部署成功後,dashboard、DNS 和監控的服務也會默認部署好,比如通過 cluster/kube-up.sh 部署的集群默認會開啓以下服務:

如果這些服務沒有自動部署的話,可以參考 kubernetes/heapster 來部署這些服務:

注意在訪問這些服務時,需要先在瀏覽器中導入 apiserver 證書纔可以認證。爲了簡化訪問過程,也可以使用 kubectl 代理來訪問(不需要導入證書):

然後打開 http://<master-ip>:8080/api/v1/proxy/namespaces/kube-system/services/monitoring-grafana 就可以訪問 Grafana。

Prometheus

Prometheus 是另外一個監控和時間序列數據庫,並且還提供了告警的功能。它提供了強大的查詢語言和 HTTP 接口,也支持將數據導出到 Grafana 中展示。

prometheus

使用 Prometheus 監控 Kubernetes 需要配置好數據源,一個簡單的示例是 prometheus.yml

推薦使用 Prometheus OperatorPrometheus Chart 來部署和管理 Prometheus,比如

使用端口轉發的方式訪問 Prometheus,如 kubectl --namespace monitoring port-forward service/kube-prometheus-prometheus :9090

prometheus-web

如果發現 exporter-kubelets 功能不正常,比如報 server returned HTTP status 401 Unauthorized 錯誤,則需要給 Kubelet 配置 webhook 認證:

如果發現 K8SControllerManagerDown 和 K8SSchedulerDown 告警,則說明 kube-controller-manager 和 kube-scheduler 是以 Pod 的形式運行在集群中的,並且 prometheus 部署的監控服務與它們的標籤不一致。可通過修改服務標籤的方法解決,如

查詢 Grafana 的管理員密碼

然後,以端口轉發的方式訪問 Grafana 界面

添加 Prometheus 類型的 Data Source,填入原地址 http://prometheus-prometheus-server.monitoring

注意:Prometheus Operator 不支持通過 prometheus.io/scrape 註解來發現服務,需要你定義ServiceMonitor 纔會去抓取服務的度量數據。

Node Problem Detector

Kubernetes node 有可能會出現各種硬件、內核或者運行時等問題,這些問題有可能導致服務異常。而 Node Problem Detector(NPD)就是用來監測這些異常的服務。NPD 以 DaemonSet 的方式運行在每臺 Node 上面,並在異常發生時更新 NodeCondition(比如 KernelDaedlock、DockerHung、BadDisk 等)或者 Node Event(比如 OOM Kill 等)。

可以參考 kubernetes/node-problem-detector 來部署 NPD,或者也可以使用 Helm 來部署:

Node 重啓守護進程

Kubernetres 集群中的節點通常會開啓自動安全更新,這樣有助於儘可能避免因系統漏洞帶來的損失。但一般來說,涉及到內核的更新需要重啓系統纔可生效。此時,就需要手動或自動的方法來重啓節點。

Kured (KUbernetes REboot Daemon) 就是這樣一個守護進程,它會

  • 監控 /var/run/reboot-required 信號後重啓節點

  • 通過 DaemonSet Annotation 的方式每次僅重啓一臺節點

  • 重啓前驅逐節點,重啓後恢復調度

  • 根據 Prometheus 告警 (--alert-filter-regexp=^(RebootRequired|AnotherBenignAlert|...$) 取消重啓

  • Slack 通知

部署方法

其他容器監控系統

除了以上監控工具,還有很多其他的開源或商業系統可用來輔助監控,如

sysdig

sysdig 是一個容器排錯工具,提供了開源和商業版本。對於常規排錯來說,使用開源版本即可。

除了 sysdig,還可以使用其他兩個輔助工具

  • csysdig:與 sysdig 一起自動安裝,提供了一個命令行界面

  • sysdig-inspect:爲 sysdig 保存的跟蹤文件(如 sudo sysdig -w filename.scap)提供了一個圖形界面(非實時)

安裝 sysdig

使用示例

Weave Scope

Weave Scope 是另外一款可視化容器監控和排錯工具。與 sysdig 相比,它沒有強大的命令行工具,但提供了一個簡單易用的交互界面,自動描繪了整個集群的拓撲,並可以通過插件擴展其功能。從其官網的介紹來看,其提供的功能包括

Weave Scope 由 App 和 Probe 兩部分組成,它們

  • Probe 負責收集容器和宿主的信息,併發送給 App

  • App 負責處理這些信息,並生成相應的報告,並以交互界面的形式展示

安裝 Weave scope

安裝完成後,可以通過 weave-scope-app 來訪問交互界面

點擊 Pod,還可以查看該 Pod 所有容器的實時狀態和度量數據:

參考文檔

Last updated