Von manueller Überwachung zum intelligenten Cloud-basierten Applikations-Monitoring

Stefanie Netzer und Thomas Kelm, Service Delivery Manager von Henkel, berichten in ihrem Vortrag, wie sie von „historisch gewachsenen“ und sehr unterschiedlichen Monitoring-Systemen für 7 Applikationen, die bei 4 verschiedenen Cloud-Providern beheimatet sind, ein einheitliches Monitoring-System aufgebaut haben.

„Wir möchten unseren IT-Kollegen helfen, komplexe Probleme zu lösen“

Stefanie Netzer und Thomas Kelm geben spannende Einblicke in das Monitoring der neuen Cloud-Applikationen bei Henkel und erklären, warum sie sich beim Monitoring nicht von den einzelnen Cloud-Providern abhängig machen wollen.

Warum haben sie dieses Projekt gestartet?

Kelm: Allgemein gesprochen: Wir möchten die verschiedenen IT-Teams bei Henkel dabei unterstützen, komplexe Probleme zu lösen. Im Besonderen geht es aber auch darum, einen guten Weg zu finden, mit dem wir die neuen dynamischen, nativen Cloudapplikationen, mit denen wir unsere Kunden im B2B und im B2C versorgen, in ihrer Performance zu überwachen und bei Problemen schnell und genau gegenzusteuern.

Was sind das für Applikationen?

Netzer: Ganz unterschiedliche. Alle 7, die wir zurzeit betreuen, residieren zwar in der Cloud, haben aber unterschiedliche Zielgruppen und nutzen verschiedene Technologien. Dafür waren wir nicht undankbar, weil wir dadurch natürlich mehr lernen können. Konkret handelt es sich dabei um 2 E-Shops,ein Produktinformationssystem, eine mobile IoT-App, unsere Marken-Websites und das Sales Promotion Planning von SAP. Diese Applikationen verteilen sich auf die Clouds von AWS, Azure, Adobe und SAP.

Birgt eine solche Multicloud-Umgebung besondere Herausforderungen?

Kelm: Insofern als die verschiedenen Cloud-Anbieter in der Regel ihre eigenen Monitoring-Systeme anbieten. Die kann man häufig mit den Applikationen zusammen buchen. Allerdings lässt sich so kein Überblick über die Performance der verschiedenen Applikationen schaffen, auch die Definition einheitlicher KPIs fällt schwer, weil die Systeme unterschiedliche Rohdaten liefern. Wird jede Applikation einzeln betrachtet, ist das vielleicht nicht so gravierend. Wenn aber Applikationen voneinander abhängen, kann das bei der Fehlersuche und der Beseitigung von Performance-Engpässen schon behindern. Deshalb haben wir uns entschieden ein zentrales Performance-Monitoring aufzubauen und zwar in der Azure-Cloud. Das Produkt ist Dynatrace und als Dienstleister betreut uns amasol.

Welcher von den 7 Use Cases ist der spannendste?

Netzer: Jede ist spannend. Aus Endanwenderperspektive ist vielleicht unsere Salon-App erwähnenswert. Das ist eine echte IoT-App, die auch noch mobil ist. Frisöre nutzen sie, um die Haarstruktur ihrer Kunden zu analysieren und auf dieser Basis dann die passenden Produkte zu empfehlen. Das Messgerät, das ein bisschen an ein Glätteisen erinnert, ist mit einem iPad verbunden. Und wir monitoren das gesamte System End-to-End, vom Messgerät über das iPad bis hin zum Cloud-Service. Am Anfang wurde das Produkt nur in Japan eingesetzt, der Service dafür residiert aber in Frankfurt. Also durchaus spannend das Ganze.

Gibt es neben der einheitlichen Sicht auf die neuen Applikationen noch andere konkrete Erfolge des neuen Monitorings?

Wir stehen noch am Anfang und wollen das Applikationsmonitoring noch ausdehnen, aber schon jetzt wissen wir, dass wir die Problemeingrenzung und Behebung deutlich beschleunigt haben. Zum Beispiel hatten wir bei einigen Applikationen auf Datenbankebene Performance-Probleme, die wir ohne das neue Monitoring nicht wirklich eingrenzen konnten. Mit den neuen Werkzeugen konnten wir das schnell lokalisieren und aus der Welt schaffen. Ein anderes konkretes Beispiel ist die Synchronisierung von Produktbildern in den global eingesetzten E-Shops. Das hat früher Tage gedauert und funktioniert jetzt in einigen Stunden. Ebenfalls zeichnet sich ab, dass wir bei der Softwareentwicklung deutlich schneller werden, weil wir die deutlich zügiger vorliegen haben, schneller unsere Schlüsse daraus ziehen können und deshalb auch Veränderungen nicht mehr so lange dauern. Das ist ein echter BizOps-Aspekt: kürzere Time-to-Market und mehr Innovationen in kürzerer Zeit.

Wie geht es weiter mit dem Monitoring bei Henkel?

Darüber diskutieren wir zurzeit. Zum einen überlegen wir in Richtung Systemmonitoring, zum anderen denken wir darüber nach, wie wir kleinere Applikationen von kleineren Teams monitoren können. Dynatrace ist ein mächtiges Werkzeug. Bei den großen DevOps-Teams ist das kein Thema, weil sich dort eine Kraft dediziert darum kümmert. Systemmonitoring bleibt auch in der Cloud ein Thema, weil Anwenderunternehmen auch wissen müssen, wo es Performance-Engpässe in der Infrastruktur gibt, nicht nur der Cloud-Provider. Das gilt natürlich bei einem Multi-Cloud-Ansatz umso mehr.