Einführung
Neben der Verfolgung und Protokollierung sind Überwachung und Alarmierung wesentliche Bestandteile eines Kubernetes-Observability-Stacks. Wenn Sie die Überwachung für Ihren Kubernetes-Cluster einrichten, können Sie die Ressourcennutzung nachverfolgen und Anwendungsfehler analysieren und debuggen.
Ein Überwachungssystem besteht normalerweise aus einer Zeitreihendatenbank mit Metrikdaten und einer Visualisierungsebene. Darüber hinaus erstellt und verwaltet eine Alarmierungsschicht Alerts und leitet sie bei Bedarf an Integrationen und externe Services weiter. Schließlich generieren eine oder mehrere Komponenten die Metrikdaten, die von diesem Überwachungsstapel gespeichert, visualisiert und für Warnungen verarbeitet werden.
Eine beliebte Überwachungslösung ist der Open-Source-StackPrometheus,Grafana undAlertmanager:
-
Prometheus ist ein Zeitreihendatenbank- und Überwachungstool, das Metrikendpunkte abfragt und die von diesen Endpunkten bereitgestellten Daten abkratzt und verarbeitet. Sie können diese Daten mitPromQL abfragen, einer Zeitreihendaten-Abfragesprache.
-
Grafana ist ein Datenvisualisierungs- und Analysetool, mit dem Sie Dashboards und Diagramme für Ihre Metrikdaten erstellen können.
-
Alertmanager, die normalerweise zusammen mit Prometheus bereitgestellt werden, bilden die Warnschicht des Stapels. Sie verarbeiten von Prometheus generierte Warnungen und deduplizieren, gruppieren und leiten sie an Integrationen wie E-Mail oderPagerDuty weiter.
Darüber hinaus stellen Tools wiekube-state-metrics undnode_exporter Kubernetes-Objektmetriken auf Clusterebene sowie Metriken auf Maschinenebene wie CPU- und Speichernutzung bereit.
Die Implementierung dieses Überwachungsstapels in einem Kubernetes-Cluster kann kompliziert sein, aber zum Glück kann ein Teil dieser Komplexität mit dem PaketmanagerHelmund den CoreOS-ProjektenPrometheus Operatorundkube-prometheusverwaltet werden. Diese Projekte werden in Standardkonfigurationen und Dashboards für Prometheus und Grafana gebrannt und abstrahieren einige der untergeordneten Kubernetes-Objektdefinitionen. Mit Helmprometheus-operator
chart können Sie eine vollständige Clusterüberwachungslösung einrichten, indem Sie Prometheus Operator und die übrigen oben aufgeführten Komponenten zusammen mit einem Standardsatz von Dashboards, Regeln und Warnungen installieren, die für die Überwachung von Kubernetes-Clustern nützlich sind.
In diesem Tutorial zeigen wir, wie das Helmdiagrammprometheus-operator
auf einem DigitalOcean Kubernetes-Cluster installiert wird. Am Ende des Lernprogramms haben Sie einen vollständigen Überwachungsstapel in Ihrem Cluster installiert.
Voraussetzungen
Um diesem Tutorial zu folgen, benötigen Sie:
-
ADigitalOcean Kubernetes Cluster.
-
Die Befehlszeilenschnittstelle von
kubectl
, die auf Ihrem lokalen Computer installiert und für die Verbindung mit Ihrem Cluster konfiguriert ist. Weitere Informationen zum Installieren und Konfigurieren vonkubectl
in its official documentation finden Sie hier. -
Der PaketmanagerHelm (2.10+), der auf Ihrem lokalen Computer installiert ist, und Tiller, der auf Ihrem Cluster installiert ist, wie inHow To Install Software on Kubernetes Clusters with the Helm Package Manager beschrieben.
[[Schritt 1 - Erstellen einer benutzerdefinierten Wertedatei] == Schritt 1 - Erstellen einer benutzerdefinierten Wertedatei
Bevor wir dasprometheus-operator
-Helmdiagramm installieren, erstellen wir eine benutzerdefinierte Wertedatei, die einige der Standardeinstellungen des Diagramms mit DigitalOcean-spezifischen Konfigurationsparametern überschreibt. Weitere Informationen zum Überschreiben von Standarddiagrammwerten finden Sie im AbschnittHelm Installin den Helm-Dokumenten.
Erstellen und öffnen Sie zunächst eine Datei mit dem Namencustom-values.yaml
auf Ihrem lokalen Computer mitnano
oder Ihrem bevorzugten Editor:
nano custom-values.yaml
Kopieren Sie die folgenden benutzerdefinierten Werte, und fügen Sie sie ein. Dadurch wird der dauerhafte Speicher für die Prometheus-, Grafana- und Alertmananger-Komponenten aktiviert und die Überwachung für Kubernetes-Steuerebenenkomponenten deaktiviert, die nicht in DigitalOcean-Kubernetes verfügbar sind:
custom-values.yaml
# Define persistent storage for Prometheus (PVC)
prometheus:
prometheusSpec:
storageSpec:
volumeClaimTemplate:
spec:
accessModes: ["ReadWriteOnce"]
storageClassName: do-block-storage
resources:
requests:
storage: 5Gi
# Define persistent storage for Grafana (PVC)
grafana:
# Set password for Grafana admin user
adminPassword: your_admin_password
persistence:
enabled: true
storageClassName: do-block-storage
accessModes: ["ReadWriteOnce"]
size: 5Gi
# Define persistent storage for Alertmanager (PVC)
alertmanager:
alertmanagerSpec:
storage:
volumeClaimTemplate:
spec:
accessModes: ["ReadWriteOnce"]
storageClassName: do-block-storage
resources:
requests:
storage: 5Gi
# Change default node-exporter port
prometheus-node-exporter:
service:
port: 30206
targetPort: 30206
# Disable Etcd metrics
kubeEtcd:
enabled: false
# Disable Controller metrics
kubeControllerManager:
enabled: false
# Disable Scheduler metrics
kubeScheduler:
enabled: false
In dieser Datei überschreiben wir einige der Standardwerte, die mit dem Diagramm invalues.yaml file gepackt sind.
Wir aktivieren zuerst den dauerhaften Speicher für Prometheus, Grafana und Alertmanager, damit ihre Daten auch nach einem Neustart des Pods erhalten bleiben. Hinter den Kulissen definiert dies einen PVC (Persistent Volume Claim) von5 Gi
für jede Komponente unter Verwendung der Speicherklasse von DigitalOceanBlock Storage. Sie sollten die Größe dieser PVCs an Ihre Speicheranforderungen für die Überwachung anpassen. Weitere Informationen zu PVCs finden Sie inPersistent Volumesin den offiziellen Kubernetes-Dokumenten.
Ersetzen Sie als Nächstesyour_admin_password
durch ein sicheres Kennwort, mit dem Sie sich beimGrafana-Metrik-Dashboard mit dem Benutzer vonadminanmelden.
Wir konfigurieren dann einen anderen Port fürnode-exporter. Node-Exporter wird auf jedem Kubernetes-Knoten ausgeführt und stellt Prometheus Betriebssystem- und Hardwaremetriken zur Verfügung. Wir müssen den Standardport ändern, um die Standardeinstellungen der DigitalOcean Kubernetes-Firewall zu umgehen, die den Port 9100 blockieren, aber Ports im Bereich 30000-32767 zulassen. Alternativ können Sie eine benutzerdefinierte Firewall-Regel für Node-Exporter konfigurieren. Informationen dazu finden Sie inHow to Configure Firewall Rulesin den offiziellen DigitalOcean Cloud Firewalls-Dokumenten.
Schließlich deaktivieren wir die Metrikerfassung für drei Kubernetescontrol plane components, die keine Metriken für DigitalOcean Kubernetes verfügbar machen: den Kubernetes Scheduler und Controller Manager sowie den etcd-Cluster-Datenspeicher.
Die vollständige Liste der konfigurierbaren Parameter für das Diagrammprometheus-operator
finden Sie im AbschnittConfigurationin der README-Datei des Diagramm-Repos oder in der Standardwertedatei.
Speichern und schließen Sie die Datei, wenn Sie mit der Bearbeitung fertig sind. Wir können das Diagramm jetzt mit Helm installieren.
[[Schritt-2 - Installieren des Prometheus-Operator-Diagramms]] == Schritt 2 - Installieren desprometheus-operator
-Diagramms
Dasprometheus-operator
-Helmdiagramm installiert die folgenden Überwachungskomponenten in Ihrem DigitalOcean Kubernetes-Cluster:
-
Prometheus Operator, ein KubernetesOperator, mit dem Sie Prometheus-Cluster konfigurieren und verwalten können. Kubernetes-Operatoren integrieren domänenspezifische Logik in den Prozess des Packens, Bereitstellens und Verwaltens von Anwendungen mit Kubernetes. Weitere Informationen zu Kubernetes-Operatoren finden Sie inCoreOS Operators Overview. Um mehr über den Prometheus-Operator zu erfahren, konsultieren Siethis introductory post zum Prometheus-Operator und den Prometheus-OperatorGitHub repo. Prometheus Operator wird alsDeployment installiert.
-
Prometheus, installiert alsStatefulSet.
-
Alertmanager, ein Dienst, der vom Prometheus-Server gesendete Alerts verarbeitet und an Integrationen wie PagerDuty oder E-Mail weiterleitet. Weitere Informationen zu Alertmanager finden Sie inAlerting in den Prometheus-Dokumenten. Der Alertmanager wird als StatefulSet installiert.
-
Grafana, ein Tool zur Visualisierung von Zeitreihendaten, mit dem Sie Dashboards für Ihre Prometheus-Metriken visualisieren und erstellen können. Grafana wird als Deployment installiert.
-
Node-Exporter, ein Prometheus-Exporter, der auf Clusterknoten ausgeführt wird und Prometheus Betriebssystem- und Hardwaremetriken bereitstellt. Konsultieren Sie dienode-exporter GitHub repo, um mehr zu erfahren. Der Knotenexporter wird alsDaemonSet installiert.
-
kube-state-metrics, ein Add-On-Agent, der den Kubernetes-API-Server überwacht und Metriken zum Status von Kubernetes-Objekten wie Deployments und Pods generiert. Sie können mehr erfahren, indem Sie diekube-state-metrics GitHub repo konsultieren. kube-state-metrics werden als Deployment installiert.
Standardmäßig ist Prometheus zusammen mit den Scraping-Metriken, die von Node-Exporter, Cube-State-Metriken und den anderen oben aufgeführten Komponenten generiert wurden, so konfiguriert, dass Metriken aus den folgenden Komponenten gescrappt werden:
-
kube-apiserver, dieKubernetes API server.
-
CoreDNS, der Kubernetes-Cluster-DNS-Server.
-
kubelet, der primäre Knotenagent, der mit kube-apiserver interagiert, um Pods und Container auf einem Knoten zu verwalten.
-
cAdvisor, ein Knotenagent, der laufende Container erkennt und deren CPU-, Speicher-, Dateisystem- und Netzwerknutzungsmetriken erfasst.
Beginnen wir auf Ihrem lokalen Computer mit der Installation desprometheus-operator
-Helmdiagramms und der Übergabe der oben erstellten benutzerdefinierten Wertedatei:
helm install --namespace monitoring --name doks-cluster-monitoring -f custom-values.yaml stable/prometheus-operator
Hier führen wirhelm install
aus und installieren alle Komponenten im Namespacemonitoring
, den wir gleichzeitig erstellen. Auf diese Weise können wir den Überwachungsstapel sauber vom Rest des Kubernetes-Clusters trennen. Wir benennen die Helm-Versiondoks-cluster-monitoring
und übergeben die benutzerdefinierte Wertedatei, die wir inStep 1 erstellt haben. Schließlich geben wir an, dass wir dasprometheus-operator
-Diagramm aus dem Helmstable
directory installieren möchten.
Sie sollten die folgende Ausgabe sehen:
OutputNAME: doks-cluster-monitoring
LAST DEPLOYED: Mon Apr 22 10:30:42 2019
NAMESPACE: monitoring
STATUS: DEPLOYED
RESOURCES:
==> v1/PersistentVolumeClaim
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
doks-cluster-monitoring-grafana Pending do-block-storage 10s
==> v1/ServiceAccount
NAME SECRETS AGE
doks-cluster-monitoring-grafana 1 10s
doks-cluster-monitoring-kube-state-metrics 1 10s
. . .
==> v1beta1/ClusterRoleBinding
NAME AGE
doks-cluster-monitoring-kube-state-metrics 9s
psp-doks-cluster-monitoring-prometheus-node-exporter 9s
NOTES:
The Prometheus Operator has been installed. Check its status by running:
kubectl --namespace monitoring get pods -l "release=doks-cluster-monitoring"
Visit https://github.com/coreos/prometheus-operator for instructions on how
to create & configure Alertmanager and Prometheus instances using the Operator.
Dies zeigt an, dass Prometheus Operator, Prometheus, Grafana und die anderen oben aufgeführten Komponenten erfolgreich in Ihrem DigitalOcean Kubernetes-Cluster installiert wurden.
Überprüfen Sie anhand des Hinweises in der Ausgabe vonhelm install
den Status der Pods der Version mitkubectl get pods
:
kubectl --namespace monitoring get pods -l "release=doks-cluster-monitoring"
Sie sollten Folgendes sehen:
OutputNAME READY STATUS RESTARTS AGE
doks-cluster-monitoring-grafana-9d7f984c5-hxnw6 2/2 Running 0 3m36s
doks-cluster-monitoring-kube-state-metrics-dd8557f6b-9rl7j 1/1 Running 0 3m36s
doks-cluster-monitoring-pr-operator-9c5b76d78-9kj85 1/1 Running 0 3m36s
doks-cluster-monitoring-prometheus-node-exporter-2qvxw 1/1 Running 0 3m36s
doks-cluster-monitoring-prometheus-node-exporter-7brwv 1/1 Running 0 3m36s
doks-cluster-monitoring-prometheus-node-exporter-jhdgz 1/1 Running 0 3m36s
Dies zeigt an, dass alle Überwachungskomponenten aktiv sind und Sie Prometheus-Messdaten mit Grafana und seinen vorkonfigurierten Dashboards untersuchen können.
[[Schritt 3 - Zugriff auf Grafana und Erkundung von Metrikdaten] == Schritt 3 - Zugriff auf Grafana und Erkundung von Metrikdaten
Dasprometheus-operator
Helm-Diagramm macht Grafana alsClusterIP
Service verfügbar. Dies bedeutet, dass nur über eine clusterinterne IP-Adresse auf sie zugegriffen werden kann. Um auf Grafana außerhalb Ihres Kubernetes-Clusters zuzugreifen, können Sie entwederkubectl patch
verwenden, um den vorhandenen Dienst auf einen öffentlich zugänglichen Typ wieNodePort
oderLoadBalancer
oderkubectl port-forward
zu aktualisieren Leiten Sie einen lokalen Port an einen Grafana Pod-Port weiter.
In diesem Tutorial werden wir Ports weiterleiten. Um jedoch mehr überkubectl patch
und Kubernetes-Diensttypen zu erfahren, können SieUpdate API Objects in Place Using kubectl patch undServices in den offiziellen Kubernetes-Dokumenten konsultieren.
Beginnen Sie mit der Auflistung der ausgeführten Dienste im Namespacemonitoring
:
kubectl get svc -n monitoring
Sie sollten die folgenden Dienste sehen:
OutputNAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
alertmanager-operated ClusterIP None 9093/TCP,6783/TCP 34m
doks-cluster-monitoring-grafana ClusterIP 10.245.105.130 80/TCP 34m
doks-cluster-monitoring-kube-state-metrics ClusterIP 10.245.140.151 8080/TCP 34m
doks-cluster-monitoring-pr-alertmanager ClusterIP 10.245.197.254 9093/TCP 34m
doks-cluster-monitoring-pr-operator ClusterIP 10.245.14.163 8080/TCP 34m
doks-cluster-monitoring-pr-prometheus ClusterIP 10.245.201.173 9090/TCP 34m
doks-cluster-monitoring-prometheus-node-exporter ClusterIP 10.245.72.218 30206/TCP 34m
prometheus-operated ClusterIP None 9090/TCP 34m
Wir werden den lokalen Port8000
an den Port80
desdoks-cluster-monitoring-grafana
-Dienstes weiterleiten, der wiederum an den Port3000
eines laufenden Grafana Pod weiterleitet. Diese Service- und Pod-Ports sind in derstable/grafana
Helm-Tabellevalues file konfiguriert:
kubectl port-forward -n monitoring svc/doks-cluster-monitoring-grafana 8000:80
Sie sollten die folgende Ausgabe sehen:
OutputForwarding from 127.0.0.1:8000 -> 3000
Forwarding from [::1]:8000 -> 3000
Dies zeigt an, dass der lokale Port8000
erfolgreich an einen Grafana Pod weitergeleitet wird.
Besuchen Siehttp://localhost:8000
in Ihrem Webbrowser. Sie sollten die folgende Grafana-Anmeldeseite sehen:
Geben Sieadmin als Benutzernamen und das incustom-values.yaml
konfigurierte Passwort ein. Drücken Sie dannLog In.
Sie werden zu den folgendenHome Dashboard weitergeleitet:
Wählen Sie in der linken Navigationsleiste die SchaltflächeDashboards aus und klicken Sie aufManage:
Sie werden zur folgenden Dashboard-Verwaltungsoberfläche weitergeleitet, in der die vom Helmdiagramm vonprometheus-operator
installierten Dashboards aufgelistet sind:
Diese Dashboards werden vonkubernetes-mixin
generiert, einem Open-Source-Projekt, mit dem Sie einen standardisierten Satz von Grafana-Dashboards und Prometheus-Warnungen zur Clusterüberwachung erstellen können. Weitere Informationen finden Sie inKubernetes Mixin GitHub repo.
Klicken Sie in das Dashboard vonKubernetes / Nodes, in dem die CPU-, Speicher-, Festplatten- und Netzwerknutzung für einen bestimmten Knoten angezeigt wird:
Die Beschreibung der einzelnen Dashboards und ihre Verwendung zur Visualisierung der Metrikdaten Ihres Clusters geht über den Rahmen dieses Lernprogramms hinaus. Weitere Informationen zur USE-Methode zur Analyse der Systemleistung finden Sie auf derThe Utilization Saturation and Errors (USE) Method-Seite von Brendan Gregg. SRE Bookvon Google ist eine weitere hilfreiche Ressource, insbesondere Kapitel 6:Monitoring Distributed Systems. Informationen zum Erstellen eigener Grafana-Dashboards finden Sie auf derGetting Started-Seite von Grafana.
Im nächsten Schritt folgen wir einem ähnlichen Prozess, um eine Verbindung zum Prometheus-Überwachungssystem herzustellen und es zu erkunden.
[[Schritt 4 - Zugriff auf Prometheus und Alarmmanager]] == Schritt 4 - Zugriff auf Prometheus und Alertmanager
Um eine Verbindung zu den Prometheus Pods herzustellen, müssen wir erneutkubectl port-forward
verwenden, um einen lokalen Port weiterzuleiten. Wenn Sie Grafana erkundet haben, können Sie den Port-Forward-Tunnel schließen, indem SieCTRL-C
drücken. Alternativ können Sie eine neue Shell- und Port-Forward-Verbindung öffnen.
Beginnen Sie mit der Auflistung der ausgeführten Dienste im Namespacemonitoring
:
kubectl get svc -n monitoring
Sie sollten die folgenden Dienste sehen:
OutputNAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
alertmanager-operated ClusterIP None 9093/TCP,6783/TCP 34m
doks-cluster-monitoring-grafana ClusterIP 10.245.105.130 80/TCP 34m
doks-cluster-monitoring-kube-state-metrics ClusterIP 10.245.140.151 8080/TCP 34m
doks-cluster-monitoring-pr-alertmanager ClusterIP 10.245.197.254 9093/TCP 34m
doks-cluster-monitoring-pr-operator ClusterIP 10.245.14.163 8080/TCP 34m
doks-cluster-monitoring-pr-prometheus ClusterIP 10.245.201.173 9090/TCP 34m
doks-cluster-monitoring-prometheus-node-exporter ClusterIP 10.245.72.218 30206/TCP 34m
prometheus-operated ClusterIP None 9090/TCP 34m
Wir werden den lokalen Port9090
an Port9090
desdoks-cluster-monitoring-pr-prometheus
Service weiterleiten:
kubectl port-forward -n monitoring svc/doks-cluster-monitoring-pr-prometheus 9090:9090
Sie sollten die folgende Ausgabe sehen:
OutputForwarding from 127.0.0.1:9090 -> 9090
Forwarding from [::1]:9090 -> 9090
Dies zeigt an, dass der lokale Port9090
erfolgreich an einen Prometheus Pod weitergeleitet wird.
Besuchen Siehttp://localhost:9090
in Ihrem Webbrowser. Sie sollten die folgende Seite von PrometheusGraphehen:
Von hier aus können Sie mit PromQL, der Abfragesprache von Prometheus, in der Datenbank gespeicherte Zeitreihenmetriken auswählen und aggregieren. Um mehr über PromQL zu erfahren, konsultieren SieQuerying Prometheus in den offiziellen Prometheus-Dokumenten.
Geben Sie im FeldExpressionmachine_cpu_cores
ein und drücken SieExecute. Sie sollten eine Liste von Zeitreihen mit der Metrikmachine_cpu_cores
sehen, die die Anzahl der CPU-Kerne auf einem bestimmten Knoten angibt. In den Metrikbezeichnungen können Sie sehen, von welchem Knoten die Metrik generiert und von welchem Job die Metrik abgekratzt wurde.
Klicken Sie abschließend in der oberen Navigationsleiste aufStatus und dann aufTargets, um die Liste der Ziele anzuzeigen, für die Prometheus das Scrapen konfiguriert hat. Sie sollten eine Liste von Zielen sehen, die der am Anfang vonStep 2 beschriebenen Liste von Überwachungsendpunkten entspricht.
Weitere Informationen zu Promtheus und zum Abfragen Ihrer Cluster-Metriken finden Sie in den offiziellenPrometheus docs.
In ähnlicher Weise stellen wir eine Verbindung zum AlertManager her, der die von Prometheus generierten Alerts verwaltet. Sie können diese Warnungen untersuchen, indem Sie in der oberen Navigationsleiste von Prometheus aufAlerts klicken.
Um eine Verbindung zu den Alertmanager-Pods herzustellen, verwenden wir erneutkubectl port-forward
, um einen lokalen Port weiterzuleiten. Wenn Sie Prometheus erkundet haben, können Sie den Port-Forward-Tunnel schließen, indem SieCTRL-C
drücken. Alternativ können Sie eine neue Shell- und Port-Forward-Verbindung öffnen.
Beginnen Sie mit der Auflistung der ausgeführten Dienste im Namespacemonitoring
:
kubectl get svc -n monitoring
Sie sollten die folgenden Dienste sehen:
OutputNAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
alertmanager-operated ClusterIP None 9093/TCP,6783/TCP 34m
doks-cluster-monitoring-grafana ClusterIP 10.245.105.130 80/TCP 34m
doks-cluster-monitoring-kube-state-metrics ClusterIP 10.245.140.151 8080/TCP 34m
doks-cluster-monitoring-pr-alertmanager ClusterIP 10.245.197.254 9093/TCP 34m
doks-cluster-monitoring-pr-operator ClusterIP 10.245.14.163 8080/TCP 34m
doks-cluster-monitoring-pr-prometheus ClusterIP 10.245.201.173 9090/TCP 34m
doks-cluster-monitoring-prometheus-node-exporter ClusterIP 10.245.72.218 30206/TCP 34m
prometheus-operated ClusterIP None 9090/TCP 34m
Wir werden den lokalen Port9093
an Port9093
desdoks-cluster-monitoring-pr-alertmanager
-Dienstes weiterleiten.
kubectl port-forward -n monitoring svc/doks-cluster-monitoring-pr-alertmanager 9093:9093
Sie sollten die folgende Ausgabe sehen:
OutputForwarding from 127.0.0.1:9093 -> 9093
Forwarding from [::1]:9093 -> 9093
Dies zeigt an, dass der lokale Port9093
erfolgreich an einen Alertmanager-Pod weitergeleitet wird.
Besuchen Siehttp://localhost:9093
in Ihrem Webbrowser. Die folgende Seite von AlertmanagerAlertsollte angezeigt werden:
Von hier aus können Sie Feueralarme untersuchen und optional ausschalten. Weitere Informationen zu Alertmanager finden Sie inofficial Alertmanager documentation.
Fazit
In diesem Lernprogramm haben Sie einen Prometheus-, Grafana- und Alertmanager-Überwachungsstapel mit einem Standardsatz an Dashboards, Prometheus-Regeln und Warnungen in Ihrem DigitalOcean Kubernetes-Cluster installiert. Da dies mit Helm durchgeführt wurde, können Siehelm upgrade
,helm rollback
undhelm delete
verwenden, um den Überwachungsstapel zu aktualisieren, zurückzusetzen oder zu löschen. Weitere Informationen zu diesen Funktionen finden Sie unterHow To Install Software on Kubernetes Clusters with the Helm Package Manager.
Dasprometheus-operator
-Diagramm hilft Ihnen dabei, die Clusterüberwachung mit Helm schnell zum Laufen zu bringen. Möglicherweise möchten Sie Prometheus Operator manuell erstellen, bereitstellen und konfigurieren. Konsultieren Sie dazu die GitHub-ReposPrometheus Operator undkube-prometheus.