1

嘿嘿,

我在 GKE v1.16.x 中使用 kubernetes 部署了 prometheus、grafana、kube-state-metrics、alertmanager 等设置。我使用https://github.com/do-community/doks-monitoring作为 yaml 文件的起点。

几天来,我一直在尝试调试情况,非常感谢您的帮助。我的普罗米修斯节点没有从 cadvisor 获得指标。

  • 部署中的所有服务和 Pod 都在运行。prometheus、kube-state-metrics、node-exporter,都在运行——没有错误。
  • prometheus UI 中的 cadvisor 目标显示为“向上”。
  • Prometheus 能够从集群中收集其他指标,但没有 pod/容器级别的使用指标。
  • 我查询时可以看到 cadvisor 指标kubectl get --raw "/api/v1/nodes/<your_node>/proxy/metrics/cadvisor",但是当我在 prometheus 中查找container_cpu_usageorcontainer_memory_usage时,没有数据。
  • 我在普罗米修斯中的 cadvisor 刮作业配置
    - job_name: kubernetes-cadvisor
      honor_timestamps: true
      scrape_interval: 15s
      scrape_timeout: 10s
      metrics_path: /metrics/cadvisor
      scheme: https
      bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
      tls_config:
        ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
        insecure_skip_verify: true
      kubernetes_sd_configs:
      - role: node
      relabel_configs:
        - action: labelmap
          regex: __meta_kubernetes_node_label_(.+)

抄自 prometheus/docs/examples。

我在路径和抓取配置上尝试了一大堆不同的变体,但没有运气。基于我可以使用kubectl get(它们存在)查询指标的事实,在我看来问题是普罗米修斯与 cadvisor 目标进行通信。

如果有人有配置此配置的经验,我肯定会感谢一些调试帮助。

干杯

4

2 回答 2

2

我能够找到一个博客,其中有一个对我有用的示例配置。cadvisor(和 kubelet)指标的 GKE 端点与文档示例中的标准端点不同。这是我工作的普罗米修斯工作的摘录:

    - job_name: kubernetes-cadvisor
      honor_timestamps: true
      scrape_interval: 15s
      scrape_timeout: 10s
      metrics_path: /metrics/cadvisor
      scheme: https
      bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
      tls_config:
        ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
        insecure_skip_verify: true
      kubernetes_sd_configs:
      - role: node
      relabel_configs:
        - action: labelmap
          regex: __meta_kubernetes_node_label_(.+)
        - target_label: __address__
          replacement: kubernetes.default.svc.cluster.local:443
        - source_labels: [__meta_kubernetes_node_name]
          regex: (.+)
          target_label: __metrics_path__
          replacement: /api/v1/nodes/${1}/proxy/metrics/cadvisor
    - job_name: kubernetes-kubelet
      honor_timestamps: true
      scrape_interval: 15s
      scrape_timeout: 10s
      metrics_path: /metrics
      scheme: https
      bearer_token_file: /var/run/secrets/kubernetes.io/serviceaccount/token
      tls_config:
        ca_file: /var/run/secrets/kubernetes.io/serviceaccount/ca.crt
        insecure_skip_verify: true
      kubernetes_sd_configs:
      - role: node
      relabel_configs:
      - action: labelmap
        regex: __meta_kubernetes_node_label_(.+)
      - target_label: __address__
        replacement: kubernetes.default.svc.cluster.local:443
      - target_label: __metrics_path__
        source_labels: [__meta_kubernetes_node_name]
        regex: (.+)
        replacement: /api/v1/nodes/${1}/proxy/metrics

编辑:这是博客文章的链接-> https://medium.com/htc-research-engineering-blog/monitoring-kubernetes-clusters-with-grafana-e2a413febefd

于 2020-09-03T18:47:21.980 回答
1

太郁闷了,我这几天一直在挖。

从 gke master 从 1.15.12-gke.2 升级到 1.16.13-gke.401 之后,问题就开始了。

为了确认这一点,在另一个 gke 集群中做了同样的事情,结果是一样的。

上面的配置是给403禁止的。

在此处输入图像描述

于 2020-09-28T18:06:53.190 回答