So richten Sie DigitalOcean Kubernetes Cluster Monitoring mit Helm und Prometheus Operator ein

Einführung

Neben der Verfolgung und Protokollierung sind Überwachung und Alarmierung wesentliche Bestandteile eines Kubernetes-Observability-Stacks. Wenn Sie die Überwachung für Ihren Kubernetes-Cluster einrichten, können Sie die Ressourcennutzung nachverfolgen und Anwendungsfehler analysieren und debuggen.

Ein Überwachungssystem besteht normalerweise aus einer Zeitreihendatenbank mit Metrikdaten und einer Visualisierungsebene. Darüber hinaus erstellt und verwaltet eine Alarmierungsschicht Alerts und leitet sie bei Bedarf an Integrationen und externe Services weiter. Schließlich generieren eine oder mehrere Komponenten die Metrikdaten, die von diesem Überwachungsstapel gespeichert, visualisiert und für Warnungen verarbeitet werden.

Eine beliebte Überwachungslösung ist der Open-Source-StackPrometheus,Grafana undAlertmanager:

  • Prometheus ist ein Zeitreihendatenbank- und Überwachungstool, das Metrikendpunkte abfragt und die von diesen Endpunkten bereitgestellten Daten abkratzt und verarbeitet. Sie können diese Daten mitPromQL abfragen, einer Zeitreihendaten-Abfragesprache.

  • Grafana ist ein Datenvisualisierungs- und Analysetool, mit dem Sie Dashboards und Diagramme für Ihre Metrikdaten erstellen können.

  • Alertmanager, die normalerweise zusammen mit Prometheus bereitgestellt werden, bilden die Warnschicht des Stapels. Sie verarbeiten von Prometheus generierte Warnungen und deduplizieren, gruppieren und leiten sie an Integrationen wie E-Mail oderPagerDuty weiter.

Darüber hinaus stellen Tools wiekube-state-metrics undnode_exporter Kubernetes-Objektmetriken auf Clusterebene sowie Metriken auf Maschinenebene wie CPU- und Speichernutzung bereit.

Die Implementierung dieses Überwachungsstapels in einem Kubernetes-Cluster kann kompliziert sein, aber zum Glück kann ein Teil dieser Komplexität mit dem PaketmanagerHelmund den CoreOS-ProjektenPrometheus Operatorundkube-prometheusverwaltet werden. Diese Projekte werden in Standardkonfigurationen und Dashboards für Prometheus und Grafana gebrannt und abstrahieren einige der untergeordneten Kubernetes-Objektdefinitionen. Mit Helmprometheus-operator chart können Sie eine vollständige Clusterüberwachungslösung einrichten, indem Sie Prometheus Operator und die übrigen oben aufgeführten Komponenten zusammen mit einem Standardsatz von Dashboards, Regeln und Warnungen installieren, die für die Überwachung von Kubernetes-Clustern nützlich sind.

In diesem Tutorial zeigen wir, wie das Helmdiagrammprometheus-operatorauf einem DigitalOcean Kubernetes-Cluster installiert wird. Am Ende des Lernprogramms haben Sie einen vollständigen Überwachungsstapel in Ihrem Cluster installiert.

Voraussetzungen

Um diesem Tutorial zu folgen, benötigen Sie:

[[Schritt 1 - Erstellen einer benutzerdefinierten Wertedatei] == Schritt 1 - Erstellen einer benutzerdefinierten Wertedatei

Bevor wir dasprometheus-operator-Helmdiagramm installieren, erstellen wir eine benutzerdefinierte Wertedatei, die einige der Standardeinstellungen des Diagramms mit DigitalOcean-spezifischen Konfigurationsparametern überschreibt. Weitere Informationen zum Überschreiben von Standarddiagrammwerten finden Sie im AbschnittHelm Installin den Helm-Dokumenten.

Erstellen und öffnen Sie zunächst eine Datei mit dem Namencustom-values.yaml auf Ihrem lokalen Computer mitnano oder Ihrem bevorzugten Editor:

nano custom-values.yaml

Kopieren Sie die folgenden benutzerdefinierten Werte, und fügen Sie sie ein. Dadurch wird der dauerhafte Speicher für die Prometheus-, Grafana- und Alertmananger-Komponenten aktiviert und die Überwachung für Kubernetes-Steuerebenenkomponenten deaktiviert, die nicht in DigitalOcean-Kubernetes verfügbar sind:

custom-values.yaml

# Define persistent storage for Prometheus (PVC)
prometheus:
  prometheusSpec:
    storageSpec:
      volumeClaimTemplate:
        spec:
          accessModes: ["ReadWriteOnce"]
          storageClassName: do-block-storage
          resources:
            requests:
              storage: 5Gi

# Define persistent storage for Grafana (PVC)
grafana:
  # Set password for Grafana admin user
  adminPassword: your_admin_password
  persistence:
    enabled: true
    storageClassName: do-block-storage
    accessModes: ["ReadWriteOnce"]
    size: 5Gi

# Define persistent storage for Alertmanager (PVC)
alertmanager:
  alertmanagerSpec:
    storage:
      volumeClaimTemplate:
        spec:
          accessModes: ["ReadWriteOnce"]
          storageClassName: do-block-storage
          resources:
            requests:
              storage: 5Gi

# Change default node-exporter port
prometheus-node-exporter:
  service:
    port: 30206
    targetPort: 30206

# Disable Etcd metrics
kubeEtcd:
  enabled: false

# Disable Controller metrics
kubeControllerManager:
  enabled: false

# Disable Scheduler metrics
kubeScheduler:
  enabled: false

In dieser Datei überschreiben wir einige der Standardwerte, die mit dem Diagramm invalues.yaml file gepackt sind.

Wir aktivieren zuerst den dauerhaften Speicher für Prometheus, Grafana und Alertmanager, damit ihre Daten auch nach einem Neustart des Pods erhalten bleiben. Hinter den Kulissen definiert dies einen PVC (Persistent Volume Claim) von5 Gifür jede Komponente unter Verwendung der Speicherklasse von DigitalOceanBlock Storage. Sie sollten die Größe dieser PVCs an Ihre Speicheranforderungen für die Überwachung anpassen. Weitere Informationen zu PVCs finden Sie inPersistent Volumesin den offiziellen Kubernetes-Dokumenten.

Ersetzen Sie als Nächstesyour_admin_password durch ein sicheres Kennwort, mit dem Sie sich beimGrafana-Metrik-Dashboard mit dem Benutzer vonadminanmelden.

Wir konfigurieren dann einen anderen Port fürnode-exporter. Node-Exporter wird auf jedem Kubernetes-Knoten ausgeführt und stellt Prometheus Betriebssystem- und Hardwaremetriken zur Verfügung. Wir müssen den Standardport ändern, um die Standardeinstellungen der DigitalOcean Kubernetes-Firewall zu umgehen, die den Port 9100 blockieren, aber Ports im Bereich 30000-32767 zulassen. Alternativ können Sie eine benutzerdefinierte Firewall-Regel für Node-Exporter konfigurieren. Informationen dazu finden Sie inHow to Configure Firewall Rulesin den offiziellen DigitalOcean Cloud Firewalls-Dokumenten.

Schließlich deaktivieren wir die Metrikerfassung für drei Kubernetescontrol plane components, die keine Metriken für DigitalOcean Kubernetes verfügbar machen: den Kubernetes Scheduler und Controller Manager sowie den etcd-Cluster-Datenspeicher.

Die vollständige Liste der konfigurierbaren Parameter für das Diagrammprometheus-operatorfinden Sie im AbschnittConfigurationin der README-Datei des Diagramm-Repos oder in der Standardwertedatei.

Speichern und schließen Sie die Datei, wenn Sie mit der Bearbeitung fertig sind. Wir können das Diagramm jetzt mit Helm installieren.

[[Schritt-2 - Installieren des Prometheus-Operator-Diagramms]] == Schritt 2 - Installieren desprometheus-operator-Diagramms

Dasprometheus-operator-Helmdiagramm installiert die folgenden Überwachungskomponenten in Ihrem DigitalOcean Kubernetes-Cluster:

  • Prometheus Operator, ein KubernetesOperator, mit dem Sie Prometheus-Cluster konfigurieren und verwalten können. Kubernetes-Operatoren integrieren domänenspezifische Logik in den Prozess des Packens, Bereitstellens und Verwaltens von Anwendungen mit Kubernetes. Weitere Informationen zu Kubernetes-Operatoren finden Sie inCoreOS Operators Overview. Um mehr über den Prometheus-Operator zu erfahren, konsultieren Siethis introductory post zum Prometheus-Operator und den Prometheus-OperatorGitHub repo. Prometheus Operator wird alsDeployment installiert.

  • Prometheus, installiert alsStatefulSet.

  • Alertmanager, ein Dienst, der vom Prometheus-Server gesendete Alerts verarbeitet und an Integrationen wie PagerDuty oder E-Mail weiterleitet. Weitere Informationen zu Alertmanager finden Sie inAlerting in den Prometheus-Dokumenten. Der Alertmanager wird als StatefulSet installiert.

  • Grafana, ein Tool zur Visualisierung von Zeitreihendaten, mit dem Sie Dashboards für Ihre Prometheus-Metriken visualisieren und erstellen können. Grafana wird als Deployment installiert.

  • Node-Exporter, ein Prometheus-Exporter, der auf Clusterknoten ausgeführt wird und Prometheus Betriebssystem- und Hardwaremetriken bereitstellt. Konsultieren Sie dienode-exporter GitHub repo, um mehr zu erfahren. Der Knotenexporter wird alsDaemonSet installiert.

  • kube-state-metrics, ein Add-On-Agent, der den Kubernetes-API-Server überwacht und Metriken zum Status von Kubernetes-Objekten wie Deployments und Pods generiert. Sie können mehr erfahren, indem Sie diekube-state-metrics GitHub repo konsultieren. kube-state-metrics werden als Deployment installiert.

Standardmäßig ist Prometheus zusammen mit den Scraping-Metriken, die von Node-Exporter, Cube-State-Metriken und den anderen oben aufgeführten Komponenten generiert wurden, so konfiguriert, dass Metriken aus den folgenden Komponenten gescrappt werden:

  • kube-apiserver, dieKubernetes API server.

  • CoreDNS, der Kubernetes-Cluster-DNS-Server.

  • kubelet, der primäre Knotenagent, der mit kube-apiserver interagiert, um Pods und Container auf einem Knoten zu verwalten.

  • cAdvisor, ein Knotenagent, der laufende Container erkennt und deren CPU-, Speicher-, Dateisystem- und Netzwerknutzungsmetriken erfasst.

Beginnen wir auf Ihrem lokalen Computer mit der Installation desprometheus-operator-Helmdiagramms und der Übergabe der oben erstellten benutzerdefinierten Wertedatei:

helm install --namespace monitoring --name doks-cluster-monitoring -f custom-values.yaml stable/prometheus-operator

Hier führen wirhelm install aus und installieren alle Komponenten im Namespacemonitoring, den wir gleichzeitig erstellen. Auf diese Weise können wir den Überwachungsstapel sauber vom Rest des Kubernetes-Clusters trennen. Wir benennen die Helm-Versiondoks-cluster-monitoring und übergeben die benutzerdefinierte Wertedatei, die wir inStep 1 erstellt haben. Schließlich geben wir an, dass wir dasprometheus-operator-Diagramm aus dem Helmstabledirectory installieren möchten.

Sie sollten die folgende Ausgabe sehen:

OutputNAME:   doks-cluster-monitoring
LAST DEPLOYED: Mon Apr 22 10:30:42 2019
NAMESPACE: monitoring
STATUS: DEPLOYED

RESOURCES:
==> v1/PersistentVolumeClaim
NAME                             STATUS   VOLUME            CAPACITY  ACCESS MODES  STORAGECLASS  AGE
doks-cluster-monitoring-grafana  Pending  do-block-storage  10s

==> v1/ServiceAccount
NAME                                              SECRETS  AGE
doks-cluster-monitoring-grafana                   1        10s
doks-cluster-monitoring-kube-state-metrics        1        10s

. . .

==> v1beta1/ClusterRoleBinding
NAME                                                  AGE
doks-cluster-monitoring-kube-state-metrics            9s
psp-doks-cluster-monitoring-prometheus-node-exporter  9s


NOTES:
The Prometheus Operator has been installed. Check its status by running:
  kubectl --namespace monitoring get pods -l "release=doks-cluster-monitoring"

Visit https://github.com/coreos/prometheus-operator for instructions on how
to create & configure Alertmanager and Prometheus instances using the Operator.

Dies zeigt an, dass Prometheus Operator, Prometheus, Grafana und die anderen oben aufgeführten Komponenten erfolgreich in Ihrem DigitalOcean Kubernetes-Cluster installiert wurden.

Überprüfen Sie anhand des Hinweises in der Ausgabe vonhelm installden Status der Pods der Version mitkubectl get pods:

kubectl --namespace monitoring get pods -l "release=doks-cluster-monitoring"

Sie sollten Folgendes sehen:

OutputNAME                                                         READY   STATUS    RESTARTS   AGE
doks-cluster-monitoring-grafana-9d7f984c5-hxnw6              2/2     Running   0          3m36s
doks-cluster-monitoring-kube-state-metrics-dd8557f6b-9rl7j   1/1     Running   0          3m36s
doks-cluster-monitoring-pr-operator-9c5b76d78-9kj85          1/1     Running   0          3m36s
doks-cluster-monitoring-prometheus-node-exporter-2qvxw       1/1     Running   0          3m36s
doks-cluster-monitoring-prometheus-node-exporter-7brwv       1/1     Running   0          3m36s
doks-cluster-monitoring-prometheus-node-exporter-jhdgz       1/1     Running   0          3m36s

Dies zeigt an, dass alle Überwachungskomponenten aktiv sind und Sie Prometheus-Messdaten mit Grafana und seinen vorkonfigurierten Dashboards untersuchen können.

[[Schritt 3 - Zugriff auf Grafana und Erkundung von Metrikdaten] == Schritt 3 - Zugriff auf Grafana und Erkundung von Metrikdaten

Dasprometheus-operator Helm-Diagramm macht Grafana alsClusterIP Service verfügbar. Dies bedeutet, dass nur über eine clusterinterne IP-Adresse auf sie zugegriffen werden kann. Um auf Grafana außerhalb Ihres Kubernetes-Clusters zuzugreifen, können Sie entwederkubectl patch verwenden, um den vorhandenen Dienst auf einen öffentlich zugänglichen Typ wieNodePort oderLoadBalancer oderkubectl port-forward zu aktualisieren Leiten Sie einen lokalen Port an einen Grafana Pod-Port weiter.

In diesem Tutorial werden wir Ports weiterleiten. Um jedoch mehr überkubectl patch und Kubernetes-Diensttypen zu erfahren, können SieUpdate API Objects in Place Using kubectl patch undServices in den offiziellen Kubernetes-Dokumenten konsultieren.

Beginnen Sie mit der Auflistung der ausgeführten Dienste im Namespacemonitoring:

kubectl get svc -n monitoring

Sie sollten die folgenden Dienste sehen:

OutputNAME                                               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)             AGE
alertmanager-operated                              ClusterIP   None                     9093/TCP,6783/TCP   34m
doks-cluster-monitoring-grafana                    ClusterIP   10.245.105.130           80/TCP              34m
doks-cluster-monitoring-kube-state-metrics         ClusterIP   10.245.140.151           8080/TCP            34m
doks-cluster-monitoring-pr-alertmanager            ClusterIP   10.245.197.254           9093/TCP            34m
doks-cluster-monitoring-pr-operator                ClusterIP   10.245.14.163            8080/TCP            34m
doks-cluster-monitoring-pr-prometheus              ClusterIP   10.245.201.173           9090/TCP            34m
doks-cluster-monitoring-prometheus-node-exporter   ClusterIP   10.245.72.218            30206/TCP           34m
prometheus-operated                                ClusterIP   None                     9090/TCP            34m

Wir werden den lokalen Port8000 an den Port80 desdoks-cluster-monitoring-grafana-Dienstes weiterleiten, der wiederum an den Port3000 eines laufenden Grafana Pod weiterleitet. Diese Service- und Pod-Ports sind in derstable/grafana Helm-Tabellevalues file konfiguriert:

kubectl port-forward -n monitoring svc/doks-cluster-monitoring-grafana 8000:80

Sie sollten die folgende Ausgabe sehen:

OutputForwarding from 127.0.0.1:8000 -> 3000
Forwarding from [::1]:8000 -> 3000

Dies zeigt an, dass der lokale Port8000 erfolgreich an einen Grafana Pod weitergeleitet wird.

Besuchen Siehttp://localhost:8000 in Ihrem Webbrowser. Sie sollten die folgende Grafana-Anmeldeseite sehen:

Grafana Login Page

Geben Sieadmin als Benutzernamen und das incustom-values.yaml konfigurierte Passwort ein. Drücken Sie dannLog In.

Sie werden zu den folgendenHome Dashboard weitergeleitet:

Grafana Home Page

Wählen Sie in der linken Navigationsleiste die SchaltflächeDashboards aus und klicken Sie aufManage:

Grafana Dashboard Tab

Sie werden zur folgenden Dashboard-Verwaltungsoberfläche weitergeleitet, in der die vom Helmdiagramm vonprometheus-operatorinstallierten Dashboards aufgelistet sind:

Grafana Dashboard List

Diese Dashboards werden vonkubernetes-mixin generiert, einem Open-Source-Projekt, mit dem Sie einen standardisierten Satz von Grafana-Dashboards und Prometheus-Warnungen zur Clusterüberwachung erstellen können. Weitere Informationen finden Sie inKubernetes Mixin GitHub repo.

Klicken Sie in das Dashboard vonKubernetes / Nodes, in dem die CPU-, Speicher-, Festplatten- und Netzwerknutzung für einen bestimmten Knoten angezeigt wird:

Grafana Nodes Dashboard

Die Beschreibung der einzelnen Dashboards und ihre Verwendung zur Visualisierung der Metrikdaten Ihres Clusters geht über den Rahmen dieses Lernprogramms hinaus. Weitere Informationen zur USE-Methode zur Analyse der Systemleistung finden Sie auf derThe Utilization Saturation and Errors (USE) Method-Seite von Brendan Gregg. SRE Bookvon Google ist eine weitere hilfreiche Ressource, insbesondere Kapitel 6:Monitoring Distributed Systems. Informationen zum Erstellen eigener Grafana-Dashboards finden Sie auf derGetting Started-Seite von Grafana.

Im nächsten Schritt folgen wir einem ähnlichen Prozess, um eine Verbindung zum Prometheus-Überwachungssystem herzustellen und es zu erkunden.

[[Schritt 4 - Zugriff auf Prometheus und Alarmmanager]] == Schritt 4 - Zugriff auf Prometheus und Alertmanager

Um eine Verbindung zu den Prometheus Pods herzustellen, müssen wir erneutkubectl port-forward verwenden, um einen lokalen Port weiterzuleiten. Wenn Sie Grafana erkundet haben, können Sie den Port-Forward-Tunnel schließen, indem SieCTRL-C drücken. Alternativ können Sie eine neue Shell- und Port-Forward-Verbindung öffnen.

Beginnen Sie mit der Auflistung der ausgeführten Dienste im Namespacemonitoring:

kubectl get svc -n monitoring

Sie sollten die folgenden Dienste sehen:

OutputNAME                                               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)             AGE
alertmanager-operated                              ClusterIP   None                     9093/TCP,6783/TCP   34m
doks-cluster-monitoring-grafana                    ClusterIP   10.245.105.130           80/TCP              34m
doks-cluster-monitoring-kube-state-metrics         ClusterIP   10.245.140.151           8080/TCP            34m
doks-cluster-monitoring-pr-alertmanager            ClusterIP   10.245.197.254           9093/TCP            34m
doks-cluster-monitoring-pr-operator                ClusterIP   10.245.14.163            8080/TCP            34m
doks-cluster-monitoring-pr-prometheus              ClusterIP   10.245.201.173           9090/TCP            34m
doks-cluster-monitoring-prometheus-node-exporter   ClusterIP   10.245.72.218            30206/TCP           34m
prometheus-operated                                ClusterIP   None                     9090/TCP            34m

Wir werden den lokalen Port9090an Port9090desdoks-cluster-monitoring-pr-prometheus Service weiterleiten:

kubectl port-forward -n monitoring svc/doks-cluster-monitoring-pr-prometheus 9090:9090

Sie sollten die folgende Ausgabe sehen:

OutputForwarding from 127.0.0.1:9090 -> 9090
Forwarding from [::1]:9090 -> 9090

Dies zeigt an, dass der lokale Port9090 erfolgreich an einen Prometheus Pod weitergeleitet wird.

Besuchen Siehttp://localhost:9090 in Ihrem Webbrowser. Sie sollten die folgende Seite von PrometheusGraphehen:

Prometheus Graph Page

Von hier aus können Sie mit PromQL, der Abfragesprache von Prometheus, in der Datenbank gespeicherte Zeitreihenmetriken auswählen und aggregieren. Um mehr über PromQL zu erfahren, konsultieren SieQuerying Prometheus in den offiziellen Prometheus-Dokumenten.

Geben Sie im FeldExpressionmachine_cpu_cores ein und drücken SieExecute. Sie sollten eine Liste von Zeitreihen mit der Metrikmachine_cpu_cores sehen, die die Anzahl der CPU-Kerne auf einem bestimmten Knoten angibt. In den Metrikbezeichnungen können Sie sehen, von welchem ​​Knoten die Metrik generiert und von welchem ​​Job die Metrik abgekratzt wurde.

Klicken Sie abschließend in der oberen Navigationsleiste aufStatus und dann aufTargets, um die Liste der Ziele anzuzeigen, für die Prometheus das Scrapen konfiguriert hat. Sie sollten eine Liste von Zielen sehen, die der am Anfang vonStep 2 beschriebenen Liste von Überwachungsendpunkten entspricht.

Weitere Informationen zu Promtheus und zum Abfragen Ihrer Cluster-Metriken finden Sie in den offiziellenPrometheus docs.

In ähnlicher Weise stellen wir eine Verbindung zum AlertManager her, der die von Prometheus generierten Alerts verwaltet. Sie können diese Warnungen untersuchen, indem Sie in der oberen Navigationsleiste von Prometheus aufAlerts klicken.

Um eine Verbindung zu den Alertmanager-Pods herzustellen, verwenden wir erneutkubectl port-forward, um einen lokalen Port weiterzuleiten. Wenn Sie Prometheus erkundet haben, können Sie den Port-Forward-Tunnel schließen, indem SieCTRL-C drücken. Alternativ können Sie eine neue Shell- und Port-Forward-Verbindung öffnen.

Beginnen Sie mit der Auflistung der ausgeführten Dienste im Namespacemonitoring:

kubectl get svc -n monitoring

Sie sollten die folgenden Dienste sehen:

OutputNAME                                               TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)             AGE
alertmanager-operated                              ClusterIP   None                     9093/TCP,6783/TCP   34m
doks-cluster-monitoring-grafana                    ClusterIP   10.245.105.130           80/TCP              34m
doks-cluster-monitoring-kube-state-metrics         ClusterIP   10.245.140.151           8080/TCP            34m
doks-cluster-monitoring-pr-alertmanager            ClusterIP   10.245.197.254           9093/TCP            34m
doks-cluster-monitoring-pr-operator                ClusterIP   10.245.14.163            8080/TCP            34m
doks-cluster-monitoring-pr-prometheus              ClusterIP   10.245.201.173           9090/TCP            34m
doks-cluster-monitoring-prometheus-node-exporter   ClusterIP   10.245.72.218            30206/TCP           34m
prometheus-operated                                ClusterIP   None                     9090/TCP            34m

Wir werden den lokalen Port9093an Port9093desdoks-cluster-monitoring-pr-alertmanager-Dienstes weiterleiten.

kubectl port-forward -n monitoring svc/doks-cluster-monitoring-pr-alertmanager 9093:9093

Sie sollten die folgende Ausgabe sehen:

OutputForwarding from 127.0.0.1:9093 -> 9093
Forwarding from [::1]:9093 -> 9093

Dies zeigt an, dass der lokale Port9093 erfolgreich an einen Alertmanager-Pod weitergeleitet wird.

Besuchen Siehttp://localhost:9093 in Ihrem Webbrowser. Die folgende Seite von AlertmanagerAlertsollte angezeigt werden:

Alertmanager Alerts Page

Von hier aus können Sie Feueralarme untersuchen und optional ausschalten. Weitere Informationen zu Alertmanager finden Sie inofficial Alertmanager documentation.

Fazit

In diesem Lernprogramm haben Sie einen Prometheus-, Grafana- und Alertmanager-Überwachungsstapel mit einem Standardsatz an Dashboards, Prometheus-Regeln und Warnungen in Ihrem DigitalOcean Kubernetes-Cluster installiert. Da dies mit Helm durchgeführt wurde, können Siehelm upgrade,helm rollback undhelm delete verwenden, um den Überwachungsstapel zu aktualisieren, zurückzusetzen oder zu löschen. Weitere Informationen zu diesen Funktionen finden Sie unterHow To Install Software on Kubernetes Clusters with the Helm Package Manager.

Dasprometheus-operator-Diagramm hilft Ihnen dabei, die Clusterüberwachung mit Helm schnell zum Laufen zu bringen. Möglicherweise möchten Sie Prometheus Operator manuell erstellen, bereitstellen und konfigurieren. Konsultieren Sie dazu die GitHub-ReposPrometheus Operator undkube-prometheus.

Related