Wissen im Service | USU Blog

Server-Monitoring vs. hybrides Cloud-Monitoring – was ändert sich?

Geschrieben von Jens Harms | Mar 12, 2021 8:12:20 AM

Galt es vor Jahren noch, einfache Client-Server-Strukturen zu überwachen, stellt vor allem das Konzept der Cloud heute das Monitoring moderner hybrider IT-Umgebungen vor neue Herausforderungen. Laut IDC nutzen derzeit 85 Prozent der Unternehmen eine Multi-Cloud-Umgebung. Mehr als die Hälfte davon setzt dabei mindestens fünf verschiedene Public Cloud-Dienste ein – und kämpft mit steigender Komplexität und Dynamik. Treiber dieser Entwicklung ist auch die Vernetzung von Maschinen (IoT). Daher reicht es nicht mehr aus, die Cloud nur als weitere Daten-Quelle für das zentrale IT-Monitoring zu betrachten – klassische Systeme stoßen hier an ihre Grenzen. Bei der Überwachung von Cloud-Services ergeben sich eine Reihe neuer Anforderungen für Monitoring-Systeme, von denen einige im Folgenden erläutert werden.

Überwachung agiler Workloads

Einer der großen Vorteile von Cloud-Hosting ist die automatische Skalierung grundlegender Infrastruktur-Komponenten wie Rechenleistung, Storage oder Netzwerkkapazitäten (Infrastructure-as-a-Service). Denn viele Unternehmen haben Tages- oder Wochenspitzen für ihre Anwendungen. So gibt es beispielsweise nach einer Mailing-Kampagne regelmäßig einen Ansturm auf die Angebote eines Webshops. Hierzu werden kurzfristig weitere Server eingesetzt, die ohne manuellen Aufwand überwacht werden müssen. Eine entsprechende Monitoring-Lösung muss also die Autoskalierung der zur Verfügung gestellten IT-Ressourcen unterstützen. Die Anzahl der Instanzen kann sich ständig ändern, und jede einzelne muss überwacht werden.

Überwachung von Platform-as-a-Service (PaaS)

Bei PaaS handelt es sich um einen Typ von Service, der ein Programmiermodell und Entwicklerwerkzeuge bereitstellt, um Cloud-basierte Anwendungen zu erstellen und auszuführen. Jedoch stellen diese Optionen zur Anwendungsbereitstellung wie Azure App Services oder Google Cloud Engine u.U. ein Überwachungsproblem dar. Im Falle von Azure fehlt beispielsweise der volle Zugriff auf den zugrundeliegenden Server. Auch die Windows-Leistungsindikatoren sind nicht verfügbar. Bei Verwendung der Azure KUDU-Konsole ist es möglich, auf einen Event-Viewer, IIS-Protokolle, laufende Prozesse und auf andere Informationen zuzugreifen. Ein spezieller Webjob kann in diesem Szenario als Monitoring-Agent fungieren und die Überwachung der Instanzen gewährleisten.

Überwachung von Microservices & Containern

Einer der effektivsten Ansätze, die Modularisierung von Applikationen weiter voranzutreiben, sind Microservices. Die Idee dahinter: Sind Anwendungen als Service-Sets aufgebaut, können sie unabhängig voneinander entwickelt, getestet und skaliert werden. Am Ende bildet ein Netz von Microservices ein Gesamtsystem. Dieser Ansatz hat sehr viele Vorteile, in einer Microservices-Architektur kann es aber auch eine besondere Herausforderung darstellen, die genaue Ursache von Fehlern oder Leistungsengpässen zu ermitteln. Ein einzelner Benutzervorgang kann mehrere Dienste betreffen. Services können im Cluster an Netzwerk-E/A-Grenzen stoßen. Eine Kette von übergreifenden Aufrufen für Dienste kann im System zu Rückstaus und somit zu langen Wartezeiten oder kaskadierenden Fehlern führen. Microservices sind in der Regel in so genannten Containern verpackt. Daher müssen Unternehmen Monitoring-Metriken nicht nur auf der VM-Ebene, sondern auch auf der Containerebene sammeln. Dies kann beispielsweise mit der Kubernetes-Technologie erfolgen, die Statistiken zu CPU, Arbeitsspeicher, Dateisystem und Netzwerkressourcen jedes Containers sammelt.

Container- und Docker-Monitoring

Docker-Monitoring ist eine der wesentlichen Anforderungen für die effiziente Überwachung einer „containerisierten Welt“. Docker ist eine Open-Source-Technologie zur automatisierten Bereitstellung von Applikationen, die in einem Container dynamisch organisiert sind. Docker selbst bietet zwar rudimentäre Informationen über die Container an, allerdings benötigt man für das Monitoring entsprechend aufgebauter Applikationen umfangreiche Funktionen für die Datenaggregation und -Darstellung. Relevante Metriken, die systemseitig überwacht werden sollten sind beispielsweise CPU, Memory, DISK I/O, Network I/O, Events, also Alarme vom Docker Container, oder Services, z.B. die Anzahl definierter Container. Die Verwaltung der Container-Umgebung ist mit den Orchestrierungs-Anwendungen Kubernetes oder Openshift wesentlich einfacher. Diese Tools bieten auch eine Vielzahl an Metriken, die ins Monitoring der IT-Landschaft miteinfließen müssen.

E2E Digital Experience Monitoring

Immer mehr digitale Dienste bewegen sich außerhalb der Unternehmens-Firewalls. Neue Lösungen zur Überwachung des Endbenutzererlebnisses werden künftig stärker nachgefragt werden. Sie kümmern sich um das aktive und passive Monitoring einer Vielzahl von Service-Infrastrukturen, die außerhalb der IT-Peripherie liegen – mit detailliertem Einblick in Probleme, die sich auf die Benutzererfahrung und die Geschäftsergebnisse auswirken. Daher sind sogenannte synthetische Überwachungstechnologien auf dem Vormarsch, welche die Interaktion der Benutzer in immer komplexeren digitalen Diensten und in immer dynamischeren, verteilten und heterogenen Umgebungen simulieren.

Predictive Monitoring in Zeiten von IoT & KI

Auch für das Monitoring wächst das zu analysierende Datenvolumen im IoT-Zeitalter massiv an. Dazu kommt erfolgskritische Bedeutung der IT für die notwendige Digitalisierung der Geschäftsmodelle. Dadurch ergeben sich weitere Herausforderungen für das Monitoring, z.B. die Analyse und Korrelation von großen Logfiles. Generell reicht es nämlich nicht mehr aus, bei Störungen sehr rasch zu reagieren und diese innerhalb kurzer Zeit zu beseitigen. Ziel muss es vielmehr sein, sich anbahnende Störungen per Früherkennung zu bemerken und zu beheben. Klassische Monitoring-Ansätze auf Basis von Mittel- und Schwellwerten müssen dafür ergänzt werden durch ein Verfahren, das eine informationsreichere Abbildung von Daten erlaubt. Ein in der Praxis erfolgreich erprobter Ansatz ist die statistische Methode der Wahrscheinlichkeitsdichte, ein Verfahren zur Beschreibung einer Wahrscheinlichkeitsverteilung innerhalb eines gegebenen Intervalls. Damit erhält man statt des Mittelwerts eine Dichte, die anzeigt, wie sich der Datenverkehr und die Datenmenge verteilen. Neben der besseren Sicht auf die IT benötigen entsprechende Systeme jedoch außerdem die Fähigkeit, sich über maschinelles Lernen fortlaufend zu trainieren. Falls bestimmte antrainierte Muster auftreten, können diese extrem schnell reagieren. Künstliche Intelligenz steckt im Monitoring noch in den Kinderschuhen. Aber die ersten Praxisversuche stimmen sehr optimistisch, und der Bedarf in den Unternehmen ist groß.

Cloud Monitoring Software

Business Service-Monitoring von morgen

Die Verwaltung neuer Technologien wie Cloud, Microservices oder Container zwingen Organisationen dazu, ihre IT-Monitoring-Strategien neu auszurichten. Der digitale Wandel in den Unternehmen erfordert zunehmend auch eine neue Generation von Monitoring-Systemen, welche in der Lage sind, die komplexen und heterogenen hybriden Infrastrukturen ebenso flexibel wie aktiv zu überwachen und auch die Real User Experience, also das Verhalten der Services aus Sicht des Anwenders, zu erfassen. In Zukunft werden KI-gesteuerte Systeme darüber hinaus auch riesige Logfiledaten in Echtzeit auslesen, analysieren und so für die Früherkennung von Problemen verwenden können.