Dummy Title http://example.com en-gb TYPO3 News Tue, 27 Jul 2021 17:47:31 +0000 Tue, 27 Jul 2021 17:47:31 +0000 TYPO3 EXT:news news-48 Thu, 22 Jul 2021 16:06:48 +0000 amasol SecOps – Netzwerk-Forensik in Echtzeit https://www.amasol.de/blog/detail-page/amasol-secops-netzwerk-forensik-in-echtzeit  

Im römischen Reich wurden Späher und Informanten eingesetzt, um unerwünschte Personen und deren Aktivitäten im Blick zu behalten. Die gesammelten Daten mussten jedoch erst an einen zentralen Ort gebracht und begutachtet werden. Denn schließlich zeigt sich der wahre Wert dieser Aufzeichnungen erst dann, wenn aus den Daten durch Einordnung in einen Kontext Informationen werden. Durch Verknüpfen dieser Informationen kann Wissen über die bestehende Lage aufgebaut werden. Und wer wäre dafür besser geeignet, fundierte Entscheidungen aufgrund dieses Wissens zu treffen, als ein vorausschauender, lernfähiger Befehlshaber? Eine Voraussetzung dafür ist jedoch, dass die Informationen schnell ankommen, denn der Feind schläft nicht, während die Daten bereitgestellt und analysiert werden. In dynamischen, unübersichtlichen Situationen ist daher eine kurze Bereitstellungs- und Reaktionszeit von äußerster Bedeutung, damit der Befehlshaber Entscheidungen über die nächsten Schritte auf Basis von aktuellen Informationen treffen kann.

Real-time Network Analytics mit ExtraHop

Diese Rolle übernimmt eine der drei Komponenten der amasol-SecOps-Lösung: ExtraHop Reveal(x). Da das Tool ursprünglich aus dem NPM-Bereich kommt, beruht der Ansatz auf der Sammlung von Netzwerkdaten. Diese stellen eine zentrale Wissensquelle dar, wenn es um Netzwerk-Forensik geht. Gleich den Informationen eines verdeckten römischen Spähers, die an die Legion herangetragen werden, wertet auch ExtraHop Netzwerkdaten aus, um darin Anomalien zu erkennen. Um große Datenmengen zu bewältigen, kommt hierbei Machine Learning zum Einsatz. Selbst bei verschlüsselten Nachrichten weist ein unüblicher Austausch zwischen zwei Kommunikationsendpunkten auf verdächtige Aktivitäten hin.

Wie ein taktisch erfahrener Befehlshaber bewertet Reveal(x) die auftretenden Anomalien, ordnet diese bekannten MITRE-ATT&CK-Techniken zu und schlägt in angemessener Lautstärke Alarm. Basierend darauf können entsprechende Maßnahmen getroffen und ein Trupp von IT-Experten an die betroffene Stelle zur Eindämmung des Angriffs entsandt werden.

Wenn Sie also Ihr IT-Netzwerk nicht nur am Perimeter, sondern auch innerhalb dessen Grenzen schützen möchten – insbesondere dort, wo kein Wachposten aufgebaut werden kann oder dieser verstärkt werden soll –, so bietet sich der Einsatz von Reveal(x) an. Auch etwaig vorhandene Matrix-Switch-Infrastruktur zur Trafficspiegelung kann hier sinnvoll weiterverwendet werden. Schließlich konnten auch die Römer neben ihren Spähern auf Informationen von Dorfbewohnern zurückgreifen.

Ein positiver Nebeneffekt der Netzwerk-Forensik ist, dass neben der Security weiterhin die Performance im Netzwerk gemessen und optimiert werden kann. Damit kommen die für Ihr Business relevanten Daten nicht nur sicher, sondern auch schnell am Ziel an.

Hat amasol SecOps Ihr Interesse geweckt? Dann sprechen Sie uns gerne an: Fabian Fink, Account Manager, oder Olga Wall, Consultant für Application Performance Management.

Im nächsten Teil dieser Beitragsreihe wird die zweite Komponente der amasol-SecOps-Lösung – Dynatrace Application Security – näher betrachtet.

Den ersten Teil der Beitragsreihe zum amasol-SecOps-Lösungsansatz können Sie hier nachlesen

]]>
APM
news-19 Thu, 08 Jul 2021 13:12:00 +0000 Das sollte ein SLM-Tool können https://www.amasol.de/blog/detail-page/das-sollte-ein-slm-tool-koennen-anforderungen-an-slm-softwareloesungen Zum Abschluss der Beitragsreihe zu meiner Bachelorarbeit „Definition und Umsetzung von Service-Level-Metriken für die Applikations-Performance aus Endanwendersicht“ möchte ich noch auf das Anforderungsprofil für ein Service-Level-Management-(SLM-) Tool eingehen und Ihnen einen kurzen Marktüberblick – natürlich ohne Anspruch auf Vollständigkeit – vermitteln.

Zentrale Anforderung: Sammeln und Auswerten der definierten Metriken

Auf die Bedeutung von Kennzahlen und Metriken bin ich ja bereits im zweiten Beitrag der Beitragsserie eingegangen. Da in der Praxis die Anzahl und Vielzahl von Metriken schnell steigt, ist eine Software-Lösung erforderlich, die dieses Volumen auch bewältigt, d.h. automatisiert sammelt und auswertet.  Konkret bedeutet dies, dass die Metriken auf eine geeignete Art und Weise abgebildet und dann den definierten IT-Services zugeordnet werden. Um dann den Erfüllungsgrad der Service Level auswerten zu können, müssen Messpunkte der Services mit einem Messkonzept zuverlässig überwacht werden.

In meiner Arbeit habe ich versucht, eine Anforderungssammlung zu erstellen, die die Notwendigkeit eines integrierten Gesamtsystems verdeutlicht. An dieser Stelle nochmals herzlichen Dank an meine Kollegen bei amasol, die mir beim Erstellen des Anforderungskatalogs geholfen haben.

Als Grobschema wurden die folgenden Anforderungskategorien definiert:

  • Definition der SLM-Objekte
  • Servicekatalog und Leitungsstrukturen
  • Management von SLAs
  • Management von Dienstlieferanten
  • Management der Dienstqualität
  • Schnittstellen zu Prozessen und Datenquellen
  • Grundsätzliches Verwenden des Tools
  • Tool-Hersteller

Die einzelnen Kategorien wurden dann mit drei Prioritätsstufen gewichtet:

  • Prioritätsstufe 1: essenziell
  • Prioritätsstufe 2: erforderlich
  • Prioritätsstufe 3: optional

Die Darstellung des kompletten Anforderungskatalogs würde den Umfang dieses Beitrags sprengen, ich kann ihn aber bei Interesse gerne auf Anfrage zur Verfügung stellen.

Marktüberblick: Sammeln und Überwachen vs. Verarbeiten

Betrachtet man derzeit den Markt für SLM-Softwarelösungen, so muss generell zwischen Lösungen zum Sammeln und Überwachen der Metriken und Lösungen, die diese Metriken auch verarbeiten, unterschieden werden. Zum Messen der Applikations-Performance bietet der Markt eine Vielzahl von Produkten. Der „Peer Insights“ von Gartner in der Kategorie APM enthält allein ungefähr 25 Produkte.

Die Software-Lösungen sind dabei häufig in unterschiedliche Pakete unterteilt, die jeweils nur eine bestimmte Funktionalität abdecken. Darüber hinaus setzen die Hersteller auf verschiedene Messmethoden und -technologien. Um aber eine Gesamtlösung zu erhalten, müssen diese Einzelprodukte zu einem „Bundle“ zusammengefasst werden. Problem in der Praxis: Häufig arbeiten die Programme nur mit Systemen des gleichen Herstellers zusammen.

Auch für die Auswertung der erfassten Metriken gibt es auf dem Markt mittlerweile eine ganze Reihe von Lösungen.  Diese werden in der Regel unter der Kategorie IT-Servicemanagement (ITSM) geführt, ein direkter Vergleich dieser Lösungen istallerdings häufig nicht möglich. Der Grund: Die Lösungen sind aus einer Kombination aus Hard- und Softwareverwaltungsprogramme sowie Help-Desk-Tools entstanden und damit kaum vergleichbar. Darüber hinaus wird die Definition, was ITSM genau ist, von sehr differenzierten Begriffserklärungen und Sichtweisen beeinflusst.

Deshalb mein Tipp: Eine spezifische Marktevaluierung sollte immer auf der Grundlage eines individuellen Anwendungsfalles erfolgen.

Das SLM-Toolset der amasol AG

Als naheliegenden Anwendungsfall aus der Praxis möchte ich zum Abschluss kurz zwei SLM-Lösungen vorstellen, die bei der amasol AG im Portfolio sind und für meine Arbeit zu Einsatz kamen:

Dynatrace Managed diente als Monitoring- Lösung und zeichnete Messdaten der amasol -Anwenderaktionen durch Real User Monitoring auf. Zusätzlich wurden auch synthetische Messwerte von externen Messstationen des Herstellers einbezogen. So konnte ich die Kennzahlen „optische Vollständigkeit“ und „Verfügbarkeit“ eines amsaol-internen Service messen.

Apptio Digital Fuel ITBM wurde für die Abbildung der Metriken verwendet. Die Messdaten aus Dynatrace wurden über eine Schnittstelle an ITBM angebunden und anschließend systematisch verarbeitet und aufbereitet. Damit wurde exemplarisch die SLA-Tauglichkeit der Metriken nachgewiesen.

Falls Sie Fragen zu den hier vorgestellten Produkten haben oder weitere Informationen benötigen, stehen Ihnen meine Kollegen jederzeit gerne zur Verfügung.

Damit endet die Beitragsserie zu meiner Bachelorarbeit „Definition und Umsetzung von Service-Level-Metriken für die Applikations-Performance aus Endanwendersicht“. Ich hoffe, ich konnte Ihnen einige interessante Denkanstöße zum Thema Service Level Management vermitteln.

Wenn Sie sich mit mir über die Inhalte meiner Arbeit oder das Thema Service Level Management austauschen möchten, erreichen Sie mich unter dominik.hecker(at)amasol.de.

]]>
news-47 Tue, 06 Jul 2021 14:49:05 +0000 amasol India feiert 5-Jähriges https://www.amasol.de/blog/detail-page/amasol-india-feiert-5-jaehriges Im Dezember 2018 habe sich die amasol AG und die fusionPOINT GmbH zusammengefunden, um die Kompetenzen im Bereich IT Service Level Management zu bündeln. Welch wichtige Rolle die damals noch kleine Tochter fusionPOINT India für das weitere Wachstum der amasol AG haben würde, war da noch gar nicht abzusehen. Im Dezember 2018 habe sich die amasol AG und die fusionPOINT GmbH zusammengefunden, um die Kompetenzen im Bereich IT Service Level Management zu bündeln. Welch wichtige Rolle die damals noch kleine Tochter fusionPOINT India für das weitere Wachstum der amasol AG haben würde, war da noch gar nicht abzusehen. Schnell zeigte sich, welche spannenden, neuen Möglichkeiten uns unsere Niederlassung in Delhi bietet:

  • Zugang zu einem nahezu unbegrenzten Pool an IT-Talenten
  • Umsetzung von Follow-the-Sun Betriebskonzepten
  • Einfache Zusammenarbeit durch Englisch als Business-Sprache und unser international erfahrenes Management. Es kennt die Geschäftswelt in Europa, USA und Indien und kann so einerseits das lokale Team optimal führen und weiterentwickeln und versteht andererseits die Anforderungen europäischer und US-amerikanischer Kunden.

So konnten wir die Mitarbeiterzahl unseres amasol Teams Indien in den vergangenen 2,5 Jahren verdreifachen und so mit der wachsenden Nachfrage der amasol-Kunden nach Entwicklungsleistungen zur Erweiterung und Integration von Standardprodukten, aber v.a. auch nach langfristig angelegter Übernahme von Betriebsleistungen für IT Monitoring Systeme Schritt halten.

Viele weitere, sehr positive Effekte der Zusammenarbeit haben sich darüber hinaus eingestellt: Der regelmäßige Austausch und wechselseitige Besuche (aktuell leider nur virtuell) sind für die Teams in Indien und auch in Deutschland und Österreich gleichermaßen spannend und stärken insbesondere auch die Position von amasol als attraktiven Arbeitgeber.

So wurde amasol Indien in den letzten Jahren zum unverzichtbaren Teil unseres Teams und ist heute fest in alle amasol Consulting-, Implementierungs-, Entwicklungs- und Betriebsteams integriert. Wir feiern heute zusammen über MS Teams und freuen uns darauf, uns bald auch wieder persönlich treffen zu können.

]]>
amasol Insight
news-46 Tue, 06 Jul 2021 12:49:59 +0000 amasol SecOps – Das Nutzerverhalten im Fokus https://www.amasol.de/blog/detail-page/amasol-secops-das-nutzerverhalten-im-fokus Die üblichen Sicherheitsmaßnahmen in Netzwerken gegen Angriffe bestehen vor allem im Schutz des Perimeters, denn für gewöhnlich kommen Angreifer von außerhalb. Das ist eine naheliegende Maßnahme, die sich auch früher bewährt hat. Schließlich zeigt ein Blick in die Geschichte, dass schon die alten Römer ihr großes Reich verteidigen mussten. Die üblichen Sicherheitsmaßnahmen in Netzwerken gegen Angriffe bestehen vor allem im Schutz des Perimeters, denn für gewöhnlich kommen Angreifer von außerhalb. Das ist eine naheliegende Maßnahme, die sich auch früher bewährt hat. Schließlich zeigt ein Blick in die Geschichte, dass schon die alten Römer ihr großes Reich verteidigen mussten. Dafür nutzten sie natürliche Barrieren wie Flüsse, errichteten aber auch Wachposten und Wälle, die an kritischen Standorten durch Truppen verstärkt wurden. Dies ging lange gut, aber die Gegner waren gewieft und lernten, diese Hindernisse zu umgehen und an unbeobachteten Stellen in das römische Reich zu gelangen. Ohne Kenntnis der Römer, dass die Eindringlinge bereits unter ihnen waren, konnten diese ungehindert durch das Reich ziehen und Dörfer plündern. Bis sie früher oder später von einer Legion gestellt wurden, verging jedoch immer etwas Zeit.

Lessons Learned: Kenne Deinen Feind

Was konnte also getan werden, um derartige Vorfälle zu verhindern oder zumindest die Folgen zu minimieren? Die Lösung ist simpel: Kenne Deinen Feind. Durch den Einsatz von Spähern war es möglich, die Bewegungen und Aktionen der Eindringlinge zu beobachten und entsprechende Gegenmaßnahmen zu treffen – sowohl entlang der Grenzen als auch im Inneren. Gleichzeitig musste man auf der Hut vor Falschinformationen sein, die die Verteidiger auf die falsche Fährte locken sollten. Dieser Informationsaustausch zwischen den Verteidigern konnte durch verfälschte Nachrichten, aber auch durch abgefangene Boten manipuliert oder gar verhindert werden.

Diese Erkenntnis lässt sich gut auf die Gegenwart übertragen: Das Wissen über die Verhaltensmuster von Angreifern ermöglicht es, schnell und zielgerichtet reagieren zu können. Selbst wenn diese sich zunächst wie normale Nutzer verhalten, so verlassen sie an irgendeiner Stelle den üblichen Rahmen und geben sich als Nutzer, den man nicht haben möchte, zu erkennen.

amasol SecOps – ein nutzerzentrierter Security-Ansatz mit Blick auf den Geschäftserfolg

Darauf basiert der amasol SecOps-Lösungsansatz, der den unerwünschten User in den Mittelpunkt der Betrachtung stellt.

So wie Feinde Grenzposten und Wälle umgehen und auf diese Weise ins römische Reich gelangen konnten, können sich Angreifer auch Verteidigungssystemen des Netzwerkperimeters wie IPS/IDS entziehen.  Auch Logs sind nicht unfehlbar, denn diese Dateien können manipuliert oder gelöscht werden. Zudem geben Logs oftmals erst im Nachhinein Einblick in das Vorgehen und den Kontext eines Angriffs. Daher ist es naheliegend, das Nutzerverhalten im Rahmen von User Behavior Analytics in Echtzeit zu betrachten, um Angriffe frühzeitig und effizient unterbinden zu können. Auf diese Weise können Sie nicht nur sich verteidigen oder auf bereits Geschehenes reagieren, sondern selbst aktiv auf die Jagd gehen.

Den unerwünschten User stets im Blick – in Echtzeit und simuliert

Der amasol SecOps-Lösungsansatz liefert die Werkzeuge (und Waffen), um den Blick für jede Bewegung zu schärfen: Die Komponenten Real-User Network Analytics und Runtime Application Self-Protection bieten Ihnen einen kontinuierlichen Blick auf das Geschehen in Ihrem Netzwerk und die genutzten Applikationen, während die Breach and Attack-Simulationskomponente eingesetzte Sicherheitsvorkehrungen validiert sowie potenzielle Schwachstellen aufdeckt.

Einen vertiefenden Teaser zur Etablierung einer User-zentrierten Security-Betrachtung finden Sie unter dem nachfolgenden Link:

https://www.youtube.com/watch?v=Bygsgwf3MI0

Möchten Sie mehr zum amasol SecOps-Lösungsansatz wissen? Dann sprechen Sie uns gerne an: Fabian Fink, Account Manager, oder Olga Wall, Consultant. 

Mehr Details über die Komponenten der amasol SecOps-Lösung erfahren Sie auch demnächst in den folgenden Teilen dieser Beitragsreihe.

]]>
news-45 Thu, 20 May 2021 13:44:00 +0000 Der Mehrwert von NDR? Dass dem Netzwerk nichts entgeht. https://www.amasol.de/blog/detail-page/der-mehrwert-von-ndr-dem-netzwerk-entgeht-nichts Es vergeht derzeit kaum eine Woche, ohne dass eine neue Sicherheitslücke die IT-Welt in Alarmbereitschaft versetzt. Wo es Anfang des Jahres noch der Supply Chain-Angriff über SolarWinds (auch bekannt unter „Sunburst“) war, folgten im April der Exchange-Server-Exploit und nun in diesem Monat die Ransomware-Attacke auf Colonial Pipeline.

Hervorzuheben ist, dass vielen Angriffen eine Phase vorangeht, wo Angreifer unbemerkt in das Netzwerk eindringen und lange unter dem Radar der gängigen IDS/IPS-Tools bleiben. Auch mit EDR (Endpoint Detection and Response) ausgestattete Hosts werden gerne umgangen. Erschwerend kommt hinzu, dass Agenten nicht auf allen Servern installiert werden können, um kontinuierlich alle Zugriffe und Aktivitäten zu überwachen – man denke nur an DNS-Server oder IoT-Devices. Logs sind in dieser Hinsicht ebenfalls nicht zuverlässig, denn sie können manipuliert oder gelöscht werden, um unlautere Aktivitäten zu verschleiern.

Im Fall von Colonial Pipeline hat es das Netzwerk getroffen, das für die Steuerung und Kontrolle der technischen und systemrelevanten Infrastruktur zuständig war. Idealerweise sollten solche sensiblen Netzwerke von der übrigen IT-Umgebung abgekoppelt sein. In der Realität ist das oftmals jedoch nicht der Fall und eine noch so kleine Verbindung zwischen beiden Netzwerken lässt sich finden. Sobald der letzte Perimeter überwunden (oder wahrscheinlicher: umgangen) ist, steht einer Attacke nichts mehr im Weg – es sei denn, man überwacht das Netzwerk selbst.

Mehr Sichtbarkeit durch NDR

Im Gegensatz zu Logs können Netzwerkpakete weder manipuliert noch gelöscht werden, denn das würde die Datenübertragung stören. Das wiederum fällt auf. Selbiges gilt für die Übertragung ungewohnt großer Datenmengen, die Kommunikation mittels unüblicher Protokolle oder außerordentliche Zugriffe. Das Aufspüren solcher außergewöhnlichen Verhaltensweisen ist eine der Stärken von NDR (Network Detection and Response) und kann unter dem Begriff „(User) Behavior Analytics“ zusammengefasst werden. Zusätzlich ist die grundsätzliche Erhöhung der Netzwerksicherheit durch Überwachung gängiger Security-Hygiene-Praktiken möglich.

Unter dem Strich lässt sich also feststellen, dass der Schwerpunkt des Netzwerkmanagements sich zunehmend von einer reinen Betriebsbetrachtung hin zu einer Anomalie-basierten Betrachtung verschiebt. Dieser kollaborative Ansatz bedient verschiedene IT-Teams mit derselben Datengrundlage und wird auf diese Weise künftig umfassend zur Geschäftssicherung beitragen.

Eine weitere Analyse zum Colonial Pipeline-Angriff finden Sie unter diesem Link. Oder kommen Sie direkt auf uns zu: Olga Wall, Consultant für Application Performance Management oder Fabian Fink, Account Manager.

Besuchen Sie uns auch gerne auf dem BizOps-Forum, wo wir am 9. Juni einen Workshop zum Thema „amasol SecOps – a user-centric security foundation for IT-driven business outcomes” halten werden.

]]>
news-44 Thu, 20 May 2021 13:08:00 +0000 Gartner „Magic Quadrant“: APM https://www.amasol.de/blog/detail-page/gartner-magic-quadrant-apm Auch in diesem Jahr hat Gartner wieder den Markt der Application-Performance-Management(APM)-Anbieter evaluiert und seine Einschätzung in einem entsprechenden Bericht veröffentlicht. Gartner prognostiziert als Rahmenbedingungen, dass bis 2024 75 % der Organisationen Infrastructure-as-a-Service(IaaS)- bzw. Platform-as-a-Service(PaaS)-Metriken der Cloud-Provider nutzen werden. Auch Open-Source-Instrumentierung wird laut Gartner immer relevanter. 70 % der Monitoring-Lösungen werden bis 2025 Open-Source-Daten einbinden, um die Kompatibilität sicherzustellen.

Dies sind Entwicklungen, die auch amasol in Kundenprojekten beobachtet. Schon heute haben wir kaum ein Projekt, in dem Cloud-Technologien (Private oder Public Cloud) keine Rolle spielt. Immer mehr Kunden ist es wichtig, auch hier eine entsprechende Abdeckung der Anforderungen zu erreichen. Gerade im APM-Bereich müssen wir aber auch immer häufiger eine Positionierung der kommerziellen APM-Lösungen gegenüber der Out-of-the-Box-Möglichkeiten von Microsoft Azure oder AWS vornehmen.

Sowohl unsere Kunden als auch wir und unsere Partner müssen sich immer wieder damit auseinandersetzen, wie Daten aus Open-Source, Out-of-the-Box-Monitoring und kommerziellen Tools zusammengeführt werden und ein möglichst einheitliches Bild über alle Datenquellen gestaltet wird.

Diese Herausforderung spiegelt auch Gartner in seinen Kriterien für die Bewertung der APM-Hersteller wider, indem eines der Kernkriterien die Integration von 3rd-Party-Datenquellen für die Analyse ist.

Unsere Partner werden von Gartner wie folgt bewertet:

Aternity

Aternity wird von Gartner im oberen linken Viertel im „Magic Quadrant for Application Performance Monitoring“ (MQ) platziert und hat sich damit von einem „Niche Player“ im letzten MQ aus dem Jahr 2020 zu einem „Challenger“ weiterentwickelt. Dabei stellt Gartner heraus, dass Aternity große Stärken im Bereich der Sichtbarkeit der Endpoints hat und auch den Bereich DEM (Digital Experience Management) fokussiert. Im Gegensatz zu anderen Anbietern fehlt bei Aternity das Angebot einer Lösung für synthetisches Monitoring.

Auch wir als amasol sehen die Stärke von Aternity ganz klar im Bereich des Endpoint- und User-Experience-Monitorings. Im Gegensatz zu anderen Herstellern im APM-Bereich hat Aternity eine Lösung, mit der auch verschiedene Rich-Client-Applikationen überwacht werden können, ohne eine (manuelle) Instrumentierung der Applikationen mit einem Agenten vornehmen zu müssen. Eine Lösung für synthetisches Monitoring kann bei Bedarf von einem spezialisierten Anbieter hinzugenommen und entsprechend im Projekt integriert werden.

Broadcom

Broadcom wird von Gartner aktuell nur noch als „Niche Player“ eingestuft, war in den Vorjahren hingegen im „Leaders“-Quadranten platziert. Diese Entwicklung liegt insbesondere am Fokus auf Großkunden: Für diese bietet Broadcom mit einem attraktiven Preismodell und guter Einbindung von 3rd-Party-Daten bei den neusten Versionen von DX APM allerdings eine gute Möglichkeit für eine APM-Lösung an. Neukunden haben es hier allerdings nicht ganz so einfach, die Plattform in Nutzung zu bringen.

amasol als Partner unterstützt alle Kunden, den optimalen Nutzen aus der Plattform zu ziehen und entsprechende Datenquellen mit den APM-Daten zu verknüpfen. So können auch künftige Features wie verstärkte Automations-Funktionen der Plattform optimal genutzt werden.

Dynatrace

Dynatrace wird auch in diesem Jahr von Gartner im „Leaders“ Quadranten platziert. In den Vorjahren war Dynatrace hier ebenfalls platziert. In diesem Jahr wird der Abstand zu den anderen Herstellern (Cisco / AppDynamics, NewRelic und Datadog) in diesem Quadranten allerdings größer. Cisco und NewRelic sind ebenfalls zum wiederholten Male im Leaders Quadranten platziert.

Für Dynatrace stellt Gartner besonders die modulare Plattform in den Fokus, die neben den Kern-APM-Funktionalitäten auch IT Infrastructure Monitoring, DEM, Business Analytics, AIOps, Cloud Automation und Application Security sowie einen einfachen Rollout des OneAgents bietet. Gartner hat allerdings auch festgestellt, dass Dynatrace ein entsprechendes Preismodell hat, das nicht produktive Umgebungen sowie Memory-lastige Applikationen nicht ausreichend berücksichtigt.

Auch wir von amasol schätzen die modulare Dynatrace-Plattform sehr. Fast in jedem Kundenprojekt gehören kundenspezifische Erweiterungen mit zum Leistungsumfang und es werden nicht nur die APM-Kernfunktionalitäten geschätzt, sondern es findet auch eine rege Nutzung beispielsweise der Infrastructure- oder Automation-Funktionalitäten statt. Hinsichtlich des Dynatrace-Preismodells unterstützen wir unsere Kunden, beispielsweise nach einem ersten Test der Plattform ein geeignetes Mengengerüst für den Einstieg und den weiteren Ausbau abzustimmen und hier einen passenden Lizenzumfang mit Dynatrace zu finalisieren. Eine Nutzung von Dynatrace nicht nur in produktiven Umgebungen, sondern auch in vorherigen Entwicklungs-Stages erleichtert die Nutzung und Adaption, verbessert aber auch wesentlich die inhaltliche Bewertung der gezeigten Metriken.

Splunk

Splunk wird mit seiner APM-Lösung von Gartner wie im Vorjahr im „Visionary“-Quadranten platziert.

Splunk baut den APM-Bereich über verschiedene Akquisitionen gerade aus und integriert die Produkte in die Splunk Observability Suite. Hier kann Splunk aus den Erfahrungen in den Bereichen AIOps und Automation profitieren und diese auch für das APM-Angebot attraktiv ausbauen. Die Integration der APM-Produkte in die Splunk-Plattform ist noch nicht abgeschlossen, weswegen die aktuellen Funktionen noch nicht unbedingt mit anderen APM-Produkten mithalten können.

Bei amasol schätzen wir Splunk seit Langem als offene Analytics-Plattform – aus der führenden Position im Bereich Log Analytics hat Splunk durch kontinuierlichen Ausbau Möglichkeiten im Bereich Security, Infrastructure Monitoring und mit der Übernahme von SignalFX auch im Bereich APM eine herausragende AIOps-Plattform geschaffen. Im Bereich APM kann Splunk z. B. bzgl. einfacher Implementierung und automatisierter Problemanalyse noch nicht mit den führenden APM-Produkten mithalten. Dafür ist die Plattform durch die einfache Integration von Daten aus anderen Quellen (Monitoring-Tools oder auch Business-Daten, z. B. zu Umsätzen, Bestellungen oder anderen Geschäftskennzahlen) im Zusammenspiel mit hervorragender Datenvisualisierung ideal als BizOps-Plattform geeignet. Gerade für Enterprise-Kunden mit sehr heterogenen Applikationslandschaften ist dies ein wichtiger Aspekt.

Neben dem Gartner „Magic Quadrant for Application Performance Monitoring“ lohnt sich auch ein Blick in den ebenfalls brandneuen Gartner „Market Guide for AIOps Platforms“ – den wir in einem der nächsten Blog-Beiträge vorstellen werden.

]]>
APM
news-38 Mon, 17 May 2021 13:41:58 +0000 Brücke zwischen Business und Technologie – Sprache ist das Fundament https://www.amasol.de/blog/detail-page/bruecke-zwischen-business-und-technologie-sprache-ist-das-fundament In ihrem Vortrag beschreibt Beth Nicholson von FISERV wie sie zwei verschiedene SLA-Teams miteinander integriert und auf gemeinsame Ziele eingeschworen hat. Die global verantwortliche SLA Managerin erklärt außerdem wie einer der ganz großen Zahlungsverkehrdienstleister den BizOps-Ansatz nutzt, um einheitliche Service Level Agreements zu definieren, zu überwachen und so an interne und externe Kunden zu vermitteln, dass die daraus entstehenden Businessvorteile jedem eingängig sind.

„Wir achten darauf, dass unsere Versprechen messbar gegenüber unseren Kunden eingehalten werden“

In einem kurzen Interview sprechen wir mit Beth Nicholson, Managerin Service Level Management beim global tätigen Zahlungsverkehrdienstleister FISERV über ein paar Schwerpunkte ihrer Keynote auf dem BizOps-Forum

Ihr Unternehmen ist sehr groß, macht mit 22000 Mitarbeitern eine Umsatz von über 5,2 Milliarden Dollar, aber in Deutschland ist FISERV nicht sehr bekannt. Können Sie kurz erklären, was das Unternehmen macht?

FISERV ist ein global agierender Zahlungsverkehrsdienstleister. Im Grunde bieten wir Banken und Retailern alle Dienstleistungen an, die sie wiederum benötigen, um mit Ihren Kunden Geschäfte machen zu können. Zum Beispiel betreiben wir viele der Online-Portale, die Banken ihren Kunden für Online-Banking anbieten. Wir wickeln aber auch Kreditkarten ab, E-Rechnungen und viele andere Dienstleistungen im Finanzbereich. Und diese Größe haben wir vor gut zwei Jahren durch den Kauf von First Data erreicht, die ebenfalls Zahlungsdienstleistungen im Bankenumfeld anbieten. Im Vortrag werde ich unter anderem einen Eindruck davon vermitteln, wie die Integraation der zwei unterschiedlichen Service-Level Management Teams verlaufen ist.

Wie sind Sie eigentlich in ihrem Job als global zuständige Service Level Managerin gelandet?

Ich habe mich immer für Sprache und Übersetzung interessiert und darum geht es bei SLAs ja eigentlich. Den Nutzen von Technologie zu messen und für die Business-Seite so zu übersetzen, dass Daten wie „time to transaction“, „service availability“ und die vielen anderen technischen Kennzahlen ihnen etwas sagen: Zum Beispiel, dass die Technik reibungslos funktioniert und ihr Business effektiv abwickelt oder dass es verschiedene Ansatzpunkte gibt, um den Betrieb zu verbessern. Außerdem hat mich immer Qualität und ihre Verbesserung fasziniert. Und da fühle ich mich in einem Job, der als Brücke zwischen IT und Business funktioniert, am absolut richtigen Platz. In meiner Keynote erzähle ich wie sich diese Ansatzpunkte zur Verbesserung und für eine gemeinsame Sprache finden lassen.

Was macht das Service Level Management – bitte ganz einfach ausdrücken, damit es auch für mich als Journalist verständlich ist?

Fiserv verspricht seinen Kunden, dass wir ihnen bestimmte Services in bestimmer Qualiät liefern. Auf unserem Versprechen, bauen die Kunden wiederum die Leistungen auf, die sie ihren Kunden anbieten. Wenn wir also die Services nicht bereitstellen oder in schlechter Qualität kann unser Kunde sein Leistungsversprechen nicht halten. Das ist nicht gut für uns und nicht gut für den Kunden. Deshalb haben wir eine doppelte Aufgabe (O-Ton: „Double Dings“). Wir achten darauf, dass unsere Versprechen messbar gegenüber unseren Kunden eingehalten werden. Auf Basis der Daten können wir zum Teil selbst Predictive Analytics betreiben, um Ansätze für Verbesserungen zu finden. Aber die Daten stellen auch für andere Abteilungen und für Kunden eine Goldmine dar. Auch über diese Möglichkeiten spreche ich im Vortrag.

Wie erleichtert Ihr Team das miteinander von IT und Business konkret?

Die Zauberworte lauten Plattform und ease of use. Die Plattform sorgt für einen hohen Automatisierungsgrad, so dass die Menschen sich um die Dinge und Entscheidungen kümmern können, die Rechner nicht bearbeiten können. Dafür ist aber eine gute Integration von Systemen und Sprache eine wichtige Voraussetzung. Nehmen Sie zum Beispiel die von uns herausgegebenen Reports, wenn sie von nur einer Seite verstanden werden, helfen sie eigentlich niemandem weiter. Auch darüber erzähle ich einiges, wie wir es mit neun Leuten schaffen rund 5000 Reports zu erstellen.

]]>
BizOps
news-39 Tue, 04 May 2021 13:45:00 +0000 Wie das satellitenbasierte Navigationssystem Galileo von einem KPI-Management-Tool profitiert https://www.amasol.de/blog/detail-page/wie-das-satellitenbasierte-navigationssystem-galileo-von-einem-kpi-management-tool-profitiert Stephan Gruber, Service-Manager bei T-Systems Information Services GmbH, erläutert in seinem Vortrag, wie wichtig ein KPI-Management Tool (Digital Fuel von Apptio) für internationale Großprojekte wie das Satelliten-Navigations-System Galileo ist. Zum einen können die komplexen Vertragsbeziehungen zwischen Auftraggebern, Auftragnehmern und zahllosen Subunternehmen kaum noch verwaltet werden. Zum anderen ließe sich ohne ein solches Werkzeug nicht sicherstellen, dass alle erforderlichen Funktionen und Leistungsparameter zur richtigen Zeit und am richtigen Ort erbracht werden. Auch Qualitätsmanagement und Fehlerbehebung würden ohne KPI-Management extrem zurückgeworfen.

„Es geht wahrscheinlich ohne, aber es geht besser mit“

In diesem kurzen Interview erklärt Stephan Gruber, Service-Manager bei T-Systems International wie KPI- und SLA-Management die Steuerung komplexer Projekte vereinfachen.

Was macht Projekte wie Galileo so komplex?

Ein System von 30 Navigationsatelliten zu bauen, in den Orbit zu bringen und so zu betreiben, dass sie weltweit immer auf einen Meter genaue Positionsdaten liefern, ist nun einmal nicht einfach. Hinzu kommt das Management von sehr vielen Zulieferern, die ein Netzwerk von Auftragnehmern und Subauftragnehmern bilden, die auch noch in unterschiedlichen Konsortien organisiert sind. Nehmen Sie zum Beispiel die T-Systems. Wir wurden von Spaceopal beauftragt, die das Service und Operation-Konsortium innerhalb des Galileo-Projekts bilden. Spaceopal ist wiederum ein Joint-venture aus der italienischen Telespazio und der Deutschen DLR. Das Konsortium vergibt in erster Linie Aufträge an weitere Unternehmen und deren Subunternehmen. Über der Spaceopal ist die europäische Raumfahrtbehörde angesiedelt (GSA). Sie managt das Gesamtprojekt und die Spaceopal berichtet zweimal pro Monat an die GSA. Weitere Konglomerate mit ähnlich komplexem Aufbau sind für andere Bereiche von Galileo zuständig.

Und was berichtet Spaceopal Richtung GSA?

Wir sprechen hier über 300 KPIs und Metriken. Wohlgemerkt das sind nur die Indikatoren, über die die Spaceopal ihre Auftragnehmer misst und an denen sie von der GSA gemessen wird. Ich weiß nicht wie viele KPIs in den anderen „Gewerken“ berichtet werden. Aber es dürften nicht unbedingt weniger sein.

Die KPIs bestehen häufig aus unterschiedlichen Messwerten. Wie kommt das KPI-Tool an diese Werte?

Die Werte werden automatisiert eingebunden in Digital Fuel und automatisiert ausgewertet.

Kann man ein solches Projekt wie Galileo ohne KPI-Management-Tool noch steuern?

Es geht wahrscheinlich auch ohne, aber es geht besser mit. Stellen Sie sich vor, Sie müssten das über eine Excel-Tabelle steuern. Dazu brauchen sie wahrscheinlich Dutzende Leute. Wenn dann auch noch Übertragungsfehler gemacht werden (was wahrscheinlich ist), dann kann ich mir schon vorstellen, dass es zu Ungenauigkeiten kommen kann.

]]>
BizOps
news-40 Tue, 27 Apr 2021 13:47:00 +0000 UKCloud´s Journey to AIOps / BizOps https://www.amasol.de/blog/detail-page/ukclouds-journey-to-aiops-bizops Der britische Cloud-Provider UKCloud hat das unbedingte Ziel, Ausfälle und Downtimes durch intelligentes Monitoring und Business orientierten IT-Betrieb proaktiv zu verhindern. Karsten Smet, Director von UKCloud, berichtet in seiner Keynote, welches dramatische Ereignis der Anlass für dieses Vorgehen war und wie er es geschafft hat, es umzusetzen. Außerdem erzählt er, wie BizOps und AIOps dem größten Cloud-Provider für Ministerien und Behörden in Großbritannien geholfen haben, selbst die Rüstungsindustrie für die Cloud zu begeistern.

„Wir wollten von Anfang an kein Cloud-Supermarkt werden“

In einem kurzen Interview sprechen wir mit Karsten Smet, Director des auf die öffentliche Hand spezialisierten Cloud-Provider UKCloud über einige Highlights seiner Keynote auf dem BizOps-Forum

Karsten, kannst Du uns einen kleinen Vorgeschmack geben auf Deinen Vortrag am 8. Juni um 10:40 Uhr auf dem BizOps-Forum?

Der Titel lautet UKCloud´s Journey to AiOps/ Bizops. Ich erzähle, wie wir uns in den letzten zwei, drei Jahren von einer Output- zu einer Outcome-Organisation gewandelt haben und welche Herausforderungen wir organisatorisch, technisch und menschlich dabei bewältigen mussten. Dabei spielten Technologien wie die intelligente Kontrolle unserer Operations und Konzepte wie BizOps eine wichtige Rolle.

Was hat diese Veränderung bei UKCloud ausgelöst?

Vor etwa drei Jahren hat sich eines der von uns genutzten Rechenzentrum überhitzt. Weil der Betreiber es zu spät gemerkt hat, waren einige Services und Applikationen unserer Kunden nicht verfügbar. Damals haben wir uns geschworen, wir wollen nie mehr nur reagieren, nie mehr mühsam Schäden reparieren. Wir wollen vor die Ereignisse kommen. Wir wollen so proaktiv agieren, dass Schäden erst gar nicht entstehen können.

Was genau ist passiert?

In einem unserer zentralen Rechenzentren ist die Kühlung ausgefallen. Dummerweise haben wir das sogar noch vor dem Betreiber des Rechenzentrums gemerkt. Als wir dann hinfuhren, herrschten schon Temperaturen wie in der Sauna. Einige Devices waren mit 80 oder 90 Grad schon recht kurz vorm Kochen.

Und wie habt ihr das Monitoring dann aufgebaut, dass das nicht mehr passieren kann?

Das verrate ich dann im Vortrag. Wenn Du das hier schon schreibst, kommt ja keiner mehr (lacht).

Warum funktioniert UKCloud? In Deutschland sind Versuche wie die Deutschland-Cloud gescheitert und das europäische Projekt GAIA X kommt ebenfalls nicht voran?

Die richtige Balance zwischen Automatisierung und Menschen

Ich glaube, bei uns war 2011 das Timing richtig. Sie brauchen einfach Leute, die in ein solches Geschäft investieren. Zweitens hat UKCloud auch mit Hilfe des BizOps-Konzepts verstanden, was sich gut automatisieren lässt und wo man besser Menschen einsetzt. Viele Cloud-Start-ups in jener Zeit haben alles automatisiert, was überhaupt automatisiert werden kann. Das war der falsche Ansatz.

Wir haben nur die Prozesse automatisiert, die Sinn ergeben. UKCloud hat sehr schnell die richtige Balance gefunden zwischen Automatisierung und von Menschen getriebenen Prozessen. Sie können keine Menschen automatisieren und nicht das, was sie ausmacht.

Und was haben Sie noch richtig gemacht?

Wir haben in den letzten zwei bis drei Jahren verstanden, wie wir eine Plattform managen müssen, um die Cloudumgebungen für unsere Kunden lückenlos kontrollieren zu können. Außerdem haben wir zum Beispiel mit Moogsoft die richtigen Technologien integriert, die einfache Skalierung erlauben. Darüber hinaus haben wir die richtige Geschäftsnische gewählt. Wir wollten von Anfang an kein Cloud-Supermarkt werden wie Microsoft oder AWS, der an alle verkauft. Wir haben uns von Anfang an auf Behörden und ihre speziellen Bedürfnisse konzentriert.

Welche Rolle hat BizOps bei eurem Erfolg gespielt?

Eine sehr große. Das Konzept hat uns geholfen, den richtigen Technologiemix und die richtige Balance in der Zusammenarbeit von Business und IT zu finden.

In welcher Sprache redet ihr mit euren Kunden?

Wir haben früher mit ihnen über Technologie gesprochen. Heute reden wir immer mehr über die durch Technologie herstellbaren Businessergebnisse. Wir reden über Outcome.

Deutsche Behörden mit fast militärischen Ansprüchen an Datensicherheit

Wie wichtig ist das Thema Daten-Souveränität für Dich?

Das Thema ist sehr wichtig für uns. Es war am Anfang die Grundlage unseres Geschäftes. Britische Behörden, Ministerien und andere Organisationen der öffentlichen Hand benötigen einen sicheren Hafen für ihre Daten im eigenen Land. Weil wir unsere Daten exklusiv in Großbritannien speichern, können wir diesen sicheren Hafen bieten. Anders als in Deutschland legen private Unternehmen nicht so viel Wert auf die Datenspeicherung im eigenen Land oder in Europa. Solange es nicht China, Russland oder diktatorische Regime sind, ist ihnen das nicht so wichtig. Vereinfacht gesagt: Deutsche Unternehmen verhalten sich in Sachen Datensicherheit wie die britische Regierung und deutsche Behörden und Ministerien verhalten sich wie die Rüstungsindustrie bei uns.

Und abgesehen von Deutschland und Großbritannien. Wie ist das Feedback zu diesem Thema aus anderen Ländern?

Das ist sehr unterschiedlich. Es hängt auch davon ab, welches Verhältnis die in Frage kommenden Länder zueinander haben. Die Briten haben zum Beispiel kaum Probleme damit, wenn Daten in den USA gespeichert werden. Wenn Sie mit Firmen aus dem Nahen Osten sprechen, geht das dagegen gar nicht. Insgesamt habe ich schon den Eindruck, dass das Thema an Bedeutung gewinnt und bei den Service- Entscheidungen der Unternehmen und natürlich der Behörden eine wichtige Rolle spielt.

]]>
BizOps
news-41 Mon, 05 Apr 2021 13:50:00 +0000 6 gute Gründe das BizOps Forum zu besuchen https://www.amasol.de/blog/detail-page/6-gute-gruende-das-bizops-forum-zu-besuchen Das BizOps Forum öffnet sehr bald seine digitalen Pforten. Teilnehmer erwartet ein modernes, digitales Community Event mit VR-Elementen, inspirierenden Vorträgen, spannenden Speakern und jede Menge Austausch über Lösungen, Produkte und Technologien. Die vielen auf dem BizOps Forum vorgestellten Facetten von BizOps werden außerdem zeigen, wie sehr sich das Verhältnis von Business und IT durch den neuen Ansatz verändert hat. Schauen Sie beim BizOps Forum vorbei, es lohnt sich.

Community digital erleben

Wir alle vermissen das persönliche Kennenlernen und den Austausch Face-to-Face. Doch neue Präsentationsformen und 3D-Elemente wie der auf dem BizOps Forum gebotene Digital Avatar Space lassen fast vergessen, dass man sich in der virtuellen Welt trifft. Ein ausgeklügeltes Matching System führt dazu, dass es auf dem BizOps Forum keine Blind Dates geben muss. Mit Hilfe Ihres sehr einfach zu gestaltenden Avatars bewegen Sie sich durch die virtuellen Ausstellungsflächen und Seminarräume des BizOps Forum. Auch bei der persönlichen Interaktion spielt der Avatar eine Rolle. Mehr echte Konferenz ohne physisch anwesend zu sein geht nicht! Damit Sie das BizOps Forum besser in Ihren Arbeitsalltag integrieren können, finden die Impulse und Workshops zwischen 10:00 und 13:30 Uhr statt.

Aktuelle, relevante Themen zu Lösungen, Produkten und Technologien

Im Zentrum des BizOps Forums stehen natürlich Ihre aktuellen Themen. Die Konferenz bietet thematisch alle Facetten zum Thema BizOps von modernstem Monitoring über AIOps, digital Experience, Observability bis hin zum Überthema digitale Transformation.

Erfahrungen von Anwendern erleben

Mehr als die Hälfte aller Impulse auf dem BizOps Forum sind Vorträge von Anwenderunternehmen. Doch selbst dort, wo unsere Technologie- und Lösungspartner selbst vortragen, erleben Teilnehmer einen sehr starken Praxisbezug. Der Gastgeber bietet ihnen so die Möglichkeit zusätzliches Praxiswissen zu erwerben, das Sie gleich in Ihrem Unternehmen anwenden können. Diesem Ziel dienen auch die Workshops des BizOps Forums. Mit Hilfe unserer Lösungs- und Technologiepartner können Teilnehmer direkt und tief in einzelne Produkte und Lösungen eintauchen.

BizOps in allen Varianten kennenlernen

Der größte Vorteil an Fachkonferenzen im Allgemeinen und am BizOps Forum im Besonderen ist, dass man beides bekommt: Überblick und Tiefblick. In unseren Workshops erfahren Sie jeden Kniff im Umgang mit neuen AIOps-Werkzeugen, während in den Impulsvorträgen die übergeordneten Themen diskutiert werden. Zum Beispiel, wie eine AIOps-Strategie entwickelt werden kann oder wie BizOps bei der digitalen Transformation unterstützen kann. Die gesamte Bandbreite des Themas wird auch über die zahlreichen Lösungspartner transportiert, die sämtlich auf dem BizOps Forum mit Workshops und Ansprechpartnern vertreten sind. Nutzen Sie die Chance, sie kennenzulernen.

Spannende Speaker mit inspirierenden Projekten

Sie werden unter anderem Beth Nicholson von Fiserv, Karsten Smet von UKCloud, Stefanie Netzer und Thomas Kelm von Henkel und Stephan Gruber von T-Systems kennenlernen, um nur einige zu nennen. Beth Nicholson berichtet, wie sie mit BizOps die Finanztransaktionen von tausenden Kunden überwacht: Karsten Smet erzählt, wie AIOps den britischen Cloud-Provider der öffentlichen Hand zu einem in Deutschland bis dato undenkbaren Erfolgsmodell gemacht hat; Stefanie Netzer und Thomas Kelm erläutern uns die Fortschritte, die sie im systematischen Applikation-Monitoring gemacht haben und Stephan Gruber erklärt uns den Zusammenhang von BizOps und dem Satellitensystem Galileo. Außerdem treffen Sie viele weitere Sprecher und Workshopleiter, die sich auch komplizierten Fachfragen gern stellen.

Punkte sammeln für kostenfreies BizOps Consulting

Weil Ihre Aufmerksamkeit kostbar ist und wir es zu schätzen wissen, wenn Sie dem Thema BizOps Zeit widmen, erhalten Sie für den Besuch eines Workshops oder eines Vortrags „Experience“ Punkte. Auch wenn Sie etwas kommentieren oder Feedback geben, werden Sie mit diesen Punkten bedacht. 15 000 Punkte zum Beispiel berechtigen zu einem kostenfreien Consulting bei amasol zu einem Thema Ihrer Wahl.

  Sichern Sie sich jetzt Ihr Ticket für das BizOps Forum 2021*

 

Das Event findet vom 8. bis 10. Juni jeweils von 09:30 bis 13:30 Uhr statt.

Es erwartet Sie ein modernes, digitales Community Event als 3D Virtual Reality Erlebnis mit praxisnahen Informationen via Anwendervorträge und Impuls-Workshops.

 

*Tickets für das BizOps Forum 2021 erhalten Sie bei Eventbrite bei Klick auf „Zur Anmeldung“.

 

Zur Anmeldung

PS: Das Konferenzerlebnis BizOps Forum wird auch durch die Beiträge von Sponsoren ermöglicht (https://www.bizopsforum.io/partner). Damit Sie auch nach der Veranstaltung weiterhin bequem mit den relevanten Fachleuten in Kontakt bleiben können, teilen wir Ihre Kontaktdaten mit unseren Sponsoren. Details hierzu finden Sie in unserer Datenschutzerklärung.

]]>
BizOps
news-42 Mon, 29 Mar 2021 13:52:00 +0000 BizOps – immer und überall am Business ausgerichtet https://www.amasol.de/blog/detail-page/bizops-immer-und-ueberall-am-business-ausgerichtet Business- oder IT-Perspektive ist nicht mehr die Frage. Das Business kann nur noch mit IT erfolgreich gestaltet werden. Dazu muss aber die IT die Businesssprache verstehen und sprechen. „Heute spreche ich mindestens einmal pro Woche mit der IT“, erklärte mir kürzlich der CEO eines mittelständischen Unternehmens auf die Frage, wieso er sich so gut mit Analytics und Customer Journeys auskennt. „Bis vor einigen Jahren war das anders, da hat man zwischen Business und IT nur kommuniziert, wenn etwas nicht funktioniert hat oder zu spät kam. Jetzt sitzt die IT genauso selbstverständlich mit am Tisch wie Entwicklung, Vertrieb und Marketing, wenn wir größere neue Vorhaben planen. Die verstehen das Business inzwischen viel besser und wir im Geschäft sind viel stärker auf die IT angewiesen.“

Früher war die IT zu schwerfällig

So viel Lob und Gemeinschaftsgefühl bekommt eine IT immer noch eher selten von der Businessseite entgegengebracht, aber sie hat in den letzten Jahren hart daran gearbeitet, die alte Schlucht zwischen IT und Business zu überbrücken. Diese war entstanden, weil die IT auch aus Mangel an entsprechenden Technologien nicht in der Lage war, die Systeme an die sich relativ schnell ändernden Anforderungen des Business anzupassen. Neue Technologien und Delivery-Modelle wie Cloud, Virtualisierung, Containerisierung oder auch Cloud native und Server-less trugen genauso zum Brückenschlag bei, wie neue Arbeits- und Organisationsweisen zum Beispiel Agile, Continuous Delivery oder Selbstorganisation. Das Zeug, die Lücke komplett zu schließen hat das am Business-Outcome orientierte BizOps-Konzept, das einerseits von einem sehr frühen Schulterschluss zwischen IT und Business lebt, weil es ihn im Betrieb auch tatsächlich realisiert und andererseits am Business orientierte Messgrößen und KPIs für den Betrieb (Operations) sowie eine gemeinsame Sprache zwischen den beiden Bereichen vorsieht. Auf diese Weise entsteht ein sehr effizienter Regelkreis (siehe Abbildung

 

Die vier typischen Schritte für BizOps aus Businesssicht

Die Businessseite ist in der Grafik zwar nicht explizit statt, aber weil BizOps die Elemente der modernen Softwareentwicklung und des Betriebs mit Messgrößen und Fragestellungen aus der Businessperspektive erweitert, spielt sie in allen Stationen des Feedback-Kreislaufs implizit eine große Rolle.

Ein typisches BizOps-Projekt durchläuft deshalb 4 Phasen:

Im Research geht es darum - auch mit Hilfe von Feedback aus den betroffenen Bereichen – eine realistische Einschätzung des zu lösenden Problems zu bekommen. Das beinhaltet nicht nur Gespräche, sondern auch die Analyse interner und externer Vergleichsdaten aus Business-Sicht. Geht es zum Beispiel um die Optimierung des Sales-Systems müssen erst einmal Vergleichsgrößen her. Wie gut ist das eigene Sales-Team gegenüber Mitbewerbern, wie stark verbessern sich Sales-Quantität und Qualität mit der Einführung neuer Systeme? Wie werden die Mitarbeiter gemessen? Pro-Kopf-Umsatz? Beratungsqualität? Zahl der Kunden pro Tag etc.

Im zweiten Schritt Alignment wird eine überzeugende Präsentation auf Basis der gefunden Research-Daten erstellt. Hier muss darauf geachtet werden, dass die Interessen aller beteiligten Teams berücksichtigt und ein Konsens für das weitere Vorgehen gefunden wird. Erst wenn das geklappt hat, kann man an die echte Planung der nötigen Schritte gehen. Execution bedeutet Umsetzung. Die involvierten Teams setzen die geplanten Aufgaben und Schritte um. Das BizOps-Kernteam kümmert sich in dieser Phase um Monitoring und Troubleshooting. bei einigen Aufgaben sollte das BizOps-Team vor der Umsetzung außerdem testen, ob seine Ideen funktionieren.

Der vierte Schritt Performance Management beinhaltet in erster Linie das Tracken und Monitoren von Key Performance Indicators (KPI) und Erfolgsfaktoren. Damit BizOps-Projekte erfolgreich sind, müssen diese aber Business-KPIs sein, die in Beziehung zu den eingesetzten digitalen Services werden. Man kann besagten Pro-Kopf-Umsatz eines Vertriebsmitarbeiters nicht direkt auf das Sales-System herunterbrechen. Aber man kann messen, wie lang ein Mitarbeiter benötigt, um die Kaufhistorie eines Kunden in den letzten 12 Monaten angezeigt zu bekommen; oder wie lange es braucht, die Bestellung eines Kunden zu autorisieren, wie viele Datenpunkte eines Kunden pro Jahr erfasst werden etc.

Und am Ende des Gesprächs sagte der anfangs erwähnte CEO noch diesen bemerkenswerten Satz: „Früher ging IT nicht ohne Geschäft, heute funktioniert kein Geschäft ohne IT. Es hat einige Zeit gedauert, bis wir das verinnerlicht hatten, aber heute handeln wir nach dieser Maxime.“

Quellen:

- https://www.bptrends.com/digital-transformation-bizops-and-business-architecture/
- https://www.rocketblocks.me/guide/bizops/role-overview.php
- https://www.everestgrp.com/2021-02-companies-moving-to-bizops-model-for-optimal-value-in-third-party-services-blog-.html

]]>
BizOps
news-43 Sun, 14 Mar 2021 14:08:00 +0000 BizOps als Brückenbauer zwischen IT und Business https://www.amasol.de/blog/detail-page/bizops-als-brueckenbauer-zwischen-it-und-business Das BizOps-Konzept entwickelt sich seit seiner Entstehung vor einigen Jahren weiter. Dabei geht es nicht nur um neue Werkzeuge und Methoden, sondern vor allem um kulturelle Veränderungen.

BizOps bildet eine immer solidere Brücke zwischen IT und Business. Es koppelt die IT an die angestrebten Business-Ziele (Business-Outcome). Die IT wird deshalb nicht mehr nur an ihrem Output – zum Beispiel Menge und Kosten pro Transaktion – gemessen. Sie wird an ihrem direkten Beitrag zum Erreichen der Geschäftsziele überprüft. Das heißt zum Beispiel, wenn sich ein Unternehmen vornimmt, seinen E-Commerce-Umsatz binnen 24 Monaten zu verdoppeln, muss die IT entsprechende Infrastruktur und Services planen, bereitstellen und so betreiben, dass sie diesen Business-Outcome ermöglicht. So wird ihr Erfolg direkt an den Geschäftserfolg bzw. Erreichen der Business-Ergebnisse gekoppelt. Das wiederum bedeutet ein anderes Operating Model, sehr viel kooperativere Arbeitsweisen und auch andere Monitoring Methoden.

Was für Einzelziele gilt, gilt auch für Unternehmensziele. Plant ein Unternehmen, sein Geschäftsmodell zu transformieren, wird die IT daran gemessen, wie sie diese Transformation unterstützt.

IT wird zum Partner und Guide

BizOps verändert also die Kultur und das Selbstverständnis der IT. War sie bis dato Dienstleister des Business, der die ihm übertragenen Aufgaben möglichst effektiv in technische Systeme und Abläufe umgesetzt hat, wird sie Partner und teilweise auch Guide des Business, der die richtigen Technologien findet und einsetzt, um klar umrissene Business-Ziele zu erreichen. „Früher hat sich die IT verhalten wie ein Mensch mit Übergewicht, der mit dem Joggen beginnt, um abzunehmen. Dabei prüft er zwar, wie oft, wie lang und wie schnell er läuft, aber nicht, wie viel er abnimmt. Mit BizOps stünde das Ziel Abnehmen im Fokus und nicht die gelaufenen Kilometer“, erklärt Frank Jahn, Vertriebschef des Münchener IT-Beratungs- und Systemhauses Amasol das Prinzip mit einer Analogie. Die IT hat bisher also das Laufen optimiert und nicht die möglichst schnelle und nachhaltige Gewichtsabnahme. „Da wird die Frage gar nicht mehr gestellt, ob Laufen der beste Weg ist, um abzunehmen. Bei BizOps steht diese Frage aber am Anfang und dann kommen viel mehr Antworten in Frage – von weniger Nahrungsaufnahme, über Trampolinspringen bis zum Schwimmen“, erklärt Jahn weiter.

Das BizOps-Manifesto spiegelt den Kulturwandel

Dieser kulturelle Wandel spiegelt sich auch im BizOps-Manifesto wider, das namentlich angelehnt an das Agile Manifesto von 2001, im Oktober 2020 veröffentlicht worden ist. Das von Vordenkern und Industriegrößen wie Tom Davenport, Lauren Knudsen, Sergio Luco (Broadcom), Marc Standeaven (Capgemini), Evan Leyborn (Business Agility Institute) und einigen anderen geschriebene Manifesto basiert auf folgenden Maximen:

  • Business Outcomes sind wichtiger als individuelle Projekte und Proxy-Metriken (indirekte Messwerte)
  • Vertrauen und Zusammenarbeit sind wichtiger als Individualität und Hierarchie
  • Data-driven Decisions sind besser als Meinungen, Urteile und Überredung
  • Lernen und Variieren sind besser als einem festen Plan zu folgen

Neben diesen grundlegenden Werten entwickelten die Autoren 14 Prinzipien. Hier die 7 wichtigsten:

  • Unsere höchste Priorität ist es, Kunden zu begeistern und Investoren und Stakeholder durch kontinuierliche Entdeckung und Bereitstellung von wertorientierten Lösungen zufriedenzustellen.
  • Software- und Produktinvestitionen sollten an realen Geschäftsergebnissen ausgerichtet und daran gemessen werden.
  • Anforderungen sollten sich ändern, wenn sich Markt-, Kunden- und Geschäftsanforderungen ändern. Änderungen sind dann noch willkommen, wenn die Software bereits in Produktion ist, was die Entdeckung von Kundenproblemen und Lösungen durch Experimente und das Testen von Ideen ermöglicht. 
  • Geschäftliche und technische Teams müssen mehr als nur zusammenarbeiten; sie müssen eine gemeinsame Vision und gemeinsame Ziele haben, um den Wertfluss zu maximieren.
  • Heutige Organisationen generieren mehr Daten, als Menschen verarbeiten können, daher müssen informierte Entscheidungen durch fortschrittliche Analysen und KI/ML ergänzt werden.
  • Unternehmen brauchen Einblicke in Metriken und Erkenntnisse auf der Basis von Echtzeitdaten, damit sie ihr Verhalten entsprechend abstimmen und anpassen können. 
  • Führungskräfte müssen Scheitern als Mittel zum Lernen begreifen und wiederständsfähiger werden. Innovative Organisationen streben danach, zu lernen und neugierig auf zukünftige Möglichkeiten zu sein. Sie haben keine "Das machen wir hier nicht"-Mentalität. 

Noch ist das BizOps-Manifesto eine Art Appell einiger Industriegrößen, die Art der Zusammenarbeit zwischen IT und Business zu verändern sowie die geschäftliche und technische Seite eines Unternehmens nicht mehr getrennt voneinander zu betrachten, sondern als Kräfte, die kombiniert, Ziele schneller erreichbar machen. Und natürlich hoffen die Autoren, dass das BizOps-Manifesto das Verhältnis von IT und Business so radikal verändert, wie es das Agile-Manifesto damals getan hat.

Immer mehr Unternehmen gehen BizOps praktisch an

Doch über Theorie und Appelle hinaus gehen immer mehr Unternehmen das BizOps-Thema auch ganz praktisch an. Eine von amasol beauftrage Befragung von 95 Unternehmen zeigt ganz deutlich, dass Unternehmen das Thema für sich entdecken.

Frage: Wie bewerten Sie den aktuellen BizOps-Status in Ihrem Unternehmen? (n=95)

29 Prozent der befragten Unternehmen haben bereits BizOps im Unternehmen eingeführt, bzw. sind gerade dabei. Weitere 36 Prozent erachten BizOps als interessante Methode und/oder gehen davon aus, dass BizOps ein nächster Schritt sein könnte. Bei 22 Prozent der Umfrageteilnehmenden spielt BizOps aktuell keine Rolle. Bei fünf Prozent spielen selbst agile Arbeitsweisen keine Rolle. Nun, dieser kleine Anteil an Unternehmen ist wohl auch auf längere Sicht nicht für BizOps zu begeistern. Doch das deutlich über 50 Prozent der Befragten das Thema so interessant finden, dass sich bereits praktisch damit beschäftigen oder sich vorstellen können, sich damit auseinanderzusetzen, spricht für das große Potenzial von BizOps. Das gilt umso mehr, weil Unternehmen, die sich zurzeit nicht für das Thema begeistern können, zu geringes Wissen über das Konzept als Grund dafür angeben. Das lässt sich relativ einfach ändern. Zum Beispiel, in dem Sie das von amasol als Gastgeber ausgerichtete BizOps-Forum 2021 besuchen und Ihre Erkenntnisse an Ihre Kolleginnen und Kollegen sowie an Ihre Kunden weitertragen. Das Programm finden Sie hier.

 

Sie möchten noch mehr über das Thema BizOps erfahren? Dann werden Sie jetzt Mitglied der BizOps Community!

Registrierung

 

]]>
BizOps
news-37 Mon, 22 Feb 2021 12:15:26 +0000 Transparenz und Wissen mit Machine-Learning-basierter Anomalieerkennung im Netz https://www.amasol.de/blog/detail-page/transparenz-und-wissen-mit-machine-learning-basierter-anomalieerkennung-im-netz APM news-36 Mon, 22 Feb 2021 10:06:41 +0000 Dynatrace Perform 2021: Rückblick und Highlights https://www.amasol.de/blog/detail-page/dynatrace-perform-2021-rueckblick-und-highlights Vom 9. bis zum 12. Februar fand das virtuelle Event unseres Herstellerpartners Dynatrace statt: die Perform. An vier Tagen wurden in jeweils insgesamt drei Stunden die neusten Entwicklungen bei Dynatrace vorgestellt. Vom 9. bis zum 12. Februar 2021 fand das virtuelle Event unseres Herstellerpartners Dynatrace statt: die Perform. An vier Tagen wurden in jeweils insgesamt drei Stunden die neusten Entwicklungen bei Dynatrace vorgestellt. Die Schwerpunkte der einzelnen Tage waren:

  • Digital Transformation
  • Cloud Transformation
  • Experience Transformation
  • What's Next

In mehreren parallelen Breakout-Sessions ging es ins Detail zu aktuellen technischen Themen sowie zu Erfolgsgeschichten von Dynatrace-Kunden. Angereichert wurde das Programm zusätzlich von interessanten und inspirierenden Keynotes, unter anderem mit Gene Kim, dem Autor des Bestsellers "The Unicorn Project", und dem Ex-Basketballspieler und Unternehmener Earvin "Magic" Johnson.

Vielfältige Integrationsmöglichkeiten: Dynatrace Hub, OpenTelemetry-Daten und ein neues Extension Framework.

Wie bereits aus den Bezeichnungen für die Tagesschwerpunkte ersichtlich ist, liegt auch 2021 der Fokus von Dynatrace auf Transformation. Nachdem das Jahr 2020 bereits von Innovationen in diesem Bereich geprägt war, nimmt diese Entwicklung weiter an Fahrt auf. Dafür erweitert Dynatrace seine Integrationsmöglichkeiten mit anderen Plattformen und Tools, um mithilfe der Möglichkeiten zur automatisierten Analyse der Dynatrace Davis AI zu einer zentralen Software-Intelligence-Plattform für Observability und Operations zu werden. 

Dieser neue "Software Intelligence Hub" bietet über 500(!) fertige Integrationen für Datenquellen von Drittanbietern. Darüber hinaus öffnet Dynatrace seine Plattform weiter für OpenTelemetry-Daten und ermöglicht auf diese Weise nahtlose Dateneinblicke im Kontext der eigenen Applikationen. Zudem entsteht derzeit rund um die vorhandene Dynatrace-API ein neues Extension Framework, um einfacher und strukturierter Daten wie Metriken, Events, PurePaths, User Sessions oder synthetische Tests importieren zu können. Diese benutzerspezifischen Metriken werden nicht nur automatisch analysiert, sondern sollen künftig auch für Kalkulationen oder zur Anpassung der Topologie, zum Beispiel in der SmartScape-Darstellung, verwendet werden. 

Von dieser Entwicklung profitiert auch das Log Monitoring. Hier wird durch eine Anpassung an aktuelle Standards der Import und die Analyse von Logs vereinfacht. 

Zusätzlich soll eine automatische Anomalie-Erkennung für Logs und mehrdimensionale Metriken kommen.

Insgesamt werden die Möglichkeiten zur Visualisierung von Daten in Dashboards optimiert und erweitert, unter anderem durch die Anzeige zusätzlicher Informationen oder weiterer Darstellungsformen. Zudem besteht in Dashboards künftig die Möglichkeit, Metriken miteinander zu verknüpfen und arithmetische Berechnungen durchzuführen. 

Während diese beschriebenen Neuerungen im Frühjahr und Sommer 2021 nach und nach kommen sollen, ist für den Herbst die Einführung von saisonalen Baselines geplant.

DSGVO-konformes Session Replay für mobile Apps

Da die gegenwärtige Transformation auch den zunehmenden Einsatz einer Mobile-First-Strategie zur Folge hat, passt Dynatrace die Analysemöglichkeiten für mobile Applikationen an die bereits vorhandenen Optionen für Webapplikationen an. Neben Real User Monitoring gibt es nun auch Session Replay für mobile Apps, was das Verständnis für das tatsächliche Nutzerverhalten und vorhandene Schwachstellen schärfen soll. Bei der Entwicklung dieser Variante des Session Replay wurden die Anforderungen der GDPR berücksichtigt, was das Session Replay auch für amasol-Kunden nutzbar macht, die der DSGVO unterliegen. 

Automatische Erzeugung und Überwachung von SLOs

Zu einer gelungenen Transformation gehört nicht nur die technische Perspektive, sondern auch der Business-Aspekt (Stichwort "BizDevOps"). Während der Einsatz von Cloud Technologien schnelle und dynamische Deployments möglich macht, müssen neben der Überwachung von Key Performance Indicators (KPIs) hier noch Service Level Objectives (SLOs) eingehalten werden. Damit auch das Business Schritt halten kann, werden bei der weiteren Integration von Keptn in das Dynatrace-Cloud-Automation-Modul SLOs automatisch erzeugt und überwacht. 

Von DevOps zu DevSecOps: Dynatrace Application Security

Nachdem Dynatrace den Einstieg in den Bereich der Applikationssicherheit bereits Ende 2020 angekündigt hat, werden zunehmend mehr Details bekannt. Mit dem Security-Modul sollen dynamische Deploymentprozesse kontinuierlich auf potenzielle Sicherheitslücken im Code, beispielsweise über die Einbindung von Drittanbieter-Bibliotheken, überwacht werden. Aktuell erfolgt die Umsetzung für Kubernetes und Node.js. Die Bereitstellung aktueller Informationen zu Sicherheitsrisiken erfolgt über eine Dynatrace-Integration mit Snyk. Sofern eine solche Sicherheitslücke entdeckt wird, wird überprüft, wie groß die Gefährdung ist und ob bereits ein Exploit stattfindet. Ergänzend kann an dieser Stelle eine Überwachung des Applikationsperimeters und des umliegenden Netzwerktraffics sinnvoll sein, um die Applikationssicherheit zu erhöhen. 

Perform on-Demand

Neben den wie immer empfehlenswerten Vorträgen von den Dynatrace-Visionären Steve Tack ("Plattform Innovation Part I - III") und Bernd Greifeneder ("Transform Faster with AI, automation and Security") gehören folgende Breakout-Sessions zu unseren Favoriten:

  • Leveraging AI-powered log and event monitoring to simplify Kubernetes and multicloud operations (Tag 1 - Digital Transformation)
  • Instilling "Security as code"-culture with DevSecOps using Dynatrace (Tag 2 - Cloud Transformation)
  • Getting the most out of Kubernetes with unified observability across infrastructure and workloads (Tag 3 - Experience Transformation)
  • Introducing Dynatrace Application Security - built for multiclouds and optimized for Kubernetes (Tag 4 - What's Next)

Wenn Sie Dynatrace Perform verpasst haben oder einzelne Beiträge noch einmal ansehen möchten, so steht nahezu das komplette Programm nach einer Registrierung on-Demand zur Verfügung. 

]]>
APM
news-35 Tue, 02 Feb 2021 09:37:43 +0000 Auf den Punkt gebracht: Observability https://www.amasol.de/blog/detail-page/auf-den-punkt-gebracht-observability Die IT-Branche war noch nie darum verlegen, wenn es darum ging, neue Buzzwords zu generieren. Besonders beliebt sind dabei natürlich Begriffe aus dem Englischen, für die es auf den ersten Blick schwerfällt, eine direkte deutsche Übersetzung zu finden, die verdeutlicht, was damit gemeint ist. Jüngstes Beispiel: Observability.

„Beobachtbarkeit“ in der IT

Gibt man „observability“ in den Google Translator ein, so erhält man die deutsche Übersetzung „Beobachtbarkeit“. Nun ist der Google Translator nicht gerade für seine ausgefeilten Übersetzungen bekannt.  Die Online-Tool DeepL ist da schon etwas auskunftsfreudiger und ergänzt zumindest die deutschen Begriffe „Beobachtungsfähigkeit“ und „Erkennbarkeit“. Fehlt aber noch immer der Bezug zur IT.

Was Observability NICHT ist

Auch wenn immer mehr Anbieter den Begriff für sich entdeckt haben, sei an dieser Stelle bereits klargestellt: Observability ist KEIN Produkt und KEIN Service. Stattdessen kann man den Begriff wohl am besten als Qualitätsanforderung für moderne IT-Anwendungen beschreiben. Womit wir dann auch bei einer deutschen Übersetzung wären, die unserer Meinung im IT-Kontext am besten passt: Überwachungsfähigkeit. Moderne IT-Systeme müssen in der Lage sein, Probleme und Fehler möglichst rasch erkennen und beheben zu können. Genauer gesagt geht es darum, abnormales Verhalten zu erkennen, die präzise Ursache für dieses Verhalten herauszufinden, sie abzustellen und damit zu verhindern, dass dieses abnormale Verhalten in der Zukunft noch einmal auftritt.

Logs + Metrics + Traces = Observability

Beschäftigt man sich derzeit mit dem Thema Observability, so trifft man sehr rasch auf die drei „Eckpfeiler“, die eine Überwachungsfähigkeit eines Systems überhaupt erst möglich machen.

  • Logs sind Aufzeichnungen in strukturierter oder unstrukturierter Textform über Ereignisse, die zu einem bestimmten Zeitpunkt auftraten.
  • Metrics sind aggregierte Messgrößen aus unterschiedlichsten Quellen wie Infrastruktur, Hosts, Services, aber auch Cloud-Plattformen und externe Quellen.
  • Traces sind Aktivitätsnachweise für eine Transaktion oder eine Abfrage bei deren Verarbeitung in Applikationen.

Auch wenn häufig nur von diesen drei Eckpfeilern für Observability die Rede ist, soll an dieser Stelle ein weiterer entscheidender Eckpfeiler ergänzt werden: die User Experience. Sie erweitert die traditionelle Observability-Telemetrie um die Anwenderperspektive beim Einsatz einer Anwendung. In der Regel kommt dabei Real User Monitoring (RUM), aber auch synthetisches Monitoring oder Session Replay zum Einsatz.

Weshalb Observability mehr ist als ein Buzzword

Womit wir beim eingangs erwähnten Vorwurf wären, die IT werfe gerne mit Buzzwords um sich. In einer Software-zentrierten Welt hilft Observability crossfunktionalen Teams dabei, zu verstehen, was in hochverteilten Systemen gerade geschieht. Erst damit sind sie überhaupt in der Lage, konkrete Fragen zum aktuellen Geschehen zu beantworten. Überwachungsfähigkeit schafft die Grundlage, um zu begreifen, weshalb etwas langsam oder defekt ist. Darüber hinaus wird erst dann klar, was getan werden muss, um diese Mängel zu beheben und damit die Performance zu optimieren.

Da Umfang und Komplexität moderner dynamischer Cloud-Umgebungen aber kontinuierlich steigen, sind die meisten Probleme überhaupt nicht bekannt und erfasst. Mit Observability-Methoden ist es möglich, diese „großen Unbekannten“ sichtbar zu machen. Damit können neue Problemtypen nachhaltig und automatisch erfasst und beseitigt werden.

Observability ist deshalb alles andere als ein Buzzword, sondern fundamentaler Bestandteil einer jeden BizOps-Strategie. Nur wenn ich Überwachungsfähigkeit herstelle, kann ich BizOps erreichen!

Observability in 90 Sekunden erklärt

Eine kurze und knappe Erklärung von Observability liefert amasol-Vorstand Frank Jahn in der nachfolgenden Episode von BizOpsWeekly: https://youtu.be/qXVHn4in2_I

Weche Rolle KI-Technologien im Bereich Observability spielen, hat die Firma Moogsoft im E-Book „Observability with AIOps for Dummies“ zusammengestellt.

Splunk stellt seine Observability-Suite vor: „Introducing the Splunk Observability Suite | Splunk

]]>
APM
news-34 Thu, 28 Jan 2021 09:23:06 +0000 amasol spendet an DEBRA Austria und unterstützt „Schmetterlingskinder“ https://www.amasol.de/blog/detail-page/amasol-spendet-an-debra-austria-und-unterstuetzt-schmetterlingskinder Epidermolysis bullosa (kurz EB) ist eine angeborene, folgenschwere und derzeit noch nicht heilbare Hauterkrankung. Betroffene werden als "Schmetterlingskinder" bezeichnet, weil ihre Haut so verletzlich ist wie die Flügel eines Schmetterlings. EB zählt zu den so genannten seltenen Erkrankungen und tritt mit einer Wahrscheinlichkeit von etwa 1:17.000 auf. Das öffentliche Gesundheitssystem ist auf die besonderen Herausforderungen einer derartigen seltenen Erkrankung nicht vorbereitet. Lange Zeit fehlte es an medizinischer Expertise. Finanzielle Mittel der öffentlichen Hand sind für diese Art von Problemstellung auch heute (noch) nicht vorhanden. Daher sind Medizin und Forschung sowie soziale Unterstützung für die "Schmetterlingskinder" und ihre Angehörigen auf Spenden angewiesen.

DEBRA Austria, Hilfe bei Epidermolysis bullosa (EB) wurde 1995 als Selbsthilfegruppe von Betroffenen, Angehörigen und ÄrztInnen mit dem Ziel gegründet, Erfahrungsaustausch und Hilfe für Menschen mit EB zu organisieren. DEBRA Austria betreibt unter anderem das EB-Haus Austria mit EB-Ambulanz, EB-Forschungseinheit, Studienzentrum und Akademie, fördert klinische Forschungsprojekte mit dem Ziel der Heilung von EB und bietet Betroffenen finanzielle und materielle Hilfen.

Wir freuen uns, DEBRA Austria 2020 in seiner wertvollen und wichtigen Arbeit mit einer Spende in Höhe von 1.500.--€ zu unterstützen.

Mehr Informationen zu DEBRA Austria finden Sie unter www.schmetterlingskinder.at.

]]>
news-33 Tue, 26 Jan 2021 14:36:49 +0000 Transform faster: Dynatrace Perform 2021, 9. bis 12. Februar https://www.amasol.de/blog/detail-page/transform-faster-dynatrace-perform-2021-9-bis-12-februar Transform faster – unter diesem Motto findet vom 9. bis 12. Februar 2021 die diesjährige Dynatrace Perform – der aktuellen Pandemie geschuldet – als viertägiger Online-Event statt. Unabhängig vom Format bietet die Veranstaltung auch in diesem Jahr wieder eine Vielzahl attraktiver Vorträge, Panel-Diskussionen und Breakout-Sessions. Als Keynote Speaker konnten Bestseller-Autor Gene Kim („The Unicorn Project“) und Basketball-Legende Earvin „Magic“ Johnson gewonnen werden. Darüber hinaus wird das Dynatrace-Top-Management rund um CEO John van Siclen und CTO Bernd Greifeneder einen Überblick über die zukünftige Produktstrategie des Unternehmens vermitteln.

Transform faster: Wenn nicht jetzt, wann dann?

Das Motto der Dynatrace Perform 2021 spiegelt die aktuelle Herausforderung in vielen Unternehmen wider. Gerade in der derzeitigen Situation geht es darum, die digitale Transformation (noch) schneller voranzutreiben. In seinem Vortrag mit dem Titel „Company Vision and Momentum“ am Dienstag, den 9. Februar 2021 geht Dynatrace-CEO John van Siclen nochmals kurz auf die vergangenen zwölf Monate ein, die von einem unglaublichen Veränderungsdruck geprägt waren, und zeigt dann, wie Dynatrace sich für die zukünftigen Herausforderungen des „Transform Faster“ aufgestellt hat.

Welche Rolle KI und Automatisierungstechnologien beim „Transform Faster“ spielen und wie es gelingt, die Herausforderungen im Bereich Applikationssicherheit zu meistern, erläutert Dynatrace -CTO Bernd Greifeneder in seinem Vortrag „Transform Faster with AI, Automation and Security“ am Freitag, den 12. Februar.

Technischer Hinweis: Bitte achten Sie darauf, dass im Drop-down-Menü oben links „EMEA“ ausgewählt ist, damit die richtigen Zeiten angezeigt werden.

Deep-Dive-Trainings zur Dynatrace Perform 2021

Im Vorfeld zur Dynatrace Perform 2021, genauer gesagt vom 1. bis 5. Februar 2021, bietet Dynatrace ein umfassendes Online-Trainingsprogramm an. Grundlage für die Themenauswahl waren die 27 am häufigsten von Dynatrac-Kunden nachgefragten Themen wie z. B.:

  • Cloud Migration Best Practices
  • Mastering Business Transactions with Dynatrace
  • Actionable Infrastructure Observability
  • Digital Business Analytics with Dynatrace
  • Advanced Diagnostics
  • Extending Dynatrace

Die Teilnahme an den Trainings erfolgt ebenfalls über die Veranstaltungsseite der Dynatrace Perform 2021 (Menüpunkt „Training“, Login erforderlich.

Dynatrace Perform 2021: jetzt anmelden

Die Teilnahme an der Dynatrace Perform 2021 ist kostenlos möglich. Am besten, Sie melden sich gleich an.

Weitere Informationen und Anmeldeformular

]]>
APM
news-32 Mon, 25 Jan 2021 16:46:22 +0000 Apptio stellt Version 9.4.2 von Digital Fuel IT Business Management vor https://www.amasol.de/blog/detail-page/apptio-stellt-version-942-von-digital-fuel-it-business-management-vor In der neuen Version 9.4.2 von Digital Fuel IT Business Management hat Apptio weitere Funktionen in die neue Benutzeroberfläche von Digital Fuel ITBM integriert. In der neuen Version 9.4.2 von Digital Fuel IT Business Management hat Apptio weitere Funktionen in die neue Benutzeroberfläche von Digital Fuel ITBM integriert.

Hier wichtigsten Neuerungen im Überblick:

Booklets

Die Booklets-Funktion ist nun auch in der neuen Benutzeroberfläche verfügbar und entspricht im Wesentlichen der Funktion aus der bisherigen Benutzeroberfläche.

My Dashboard

Die My-Dashboard-Funktion ermöglicht es einem Anwender ohne die Berechtigungen „Publish Report“ und „Share Report“, eine Dashboard-Version als „My Dashboard“ zu speichern. Dieses Dashboard ist dann aber nur für den jeweiligen Anwender sichtbar.

Dashboard-Filter

Hierarchische und Standard-Filter werden ab sofort auf der Dashboard-Seite angezeigt. Damit ist leichter erkennbar, welche Filter im Einsatz sind.

Report Management Tree – Ordnerfunktionen

Ordnerfunktionen wurden in den Bereichen „Favourite Reports“ und „Report Management“ implementiert. Sie können per rechtem Mausklick aufgerufen werden.

Content Management – Switch to Out of the Box Version-Funktion

Anwender mit Administratorenrechten können ab sofort die Funktion „Switch to Out of the Box Version“ einsetzen, um ein Reset auf die Standard-Dashboard-Versionen in Content Management durchzuführen.

Report Administration

In Report Administration gibt es neue Funktionen wie z. B. Drilldown to Adaptor Adjustments, Titel, Legendenformate oder Bedingungen für ein Attribut.

Für Fragen zur neuen Version und zum Upgrade wenden Sie sich bitte gerne an Dominik Hecker.

]]>
news-31 Tue, 15 Dec 2020 12:35:57 +0000 Moogsoft stellt E-Book „Observability with AIOps for Dummies“ vor https://www.amasol.de/blog/detail-page/moogsoft-stellt-e-book-observability-with-aiops-for-dummies-vor Im neuen E-Book “Observability with AIOps For Dummies” erklärt Moogsoft VP of Products Adam Frank, wie Verantwortliche für die Bereiche DevOps und Site Reliability Engineering (SRE) sich mehr um die Weiterentwicklung und weniger um den Betrieb ihrer Anwendungen kümmern können, indem sie Künstliche Intelligenz (KI) bei Events, Messgrößen, Tracing und Logs einsetzen. Damit stellen sie sicher, dass die Custom Integration/das Custom Development agil erfolgt und unterstützen so das weitere Geschäftswachstum.

DevOps und SRE-Team sind für das Erstellen zentraler digitaler Dienste verantwortlich, müssen aber häufig mehr Zeit für das Troubleshooting ihrer komplexen Anwendungen und Infrastrukturen aufwenden als für deren Weiterentwicklung. 

Die Lösung? Die Kombination aus AIOps Algorithmus-basierter Analyse und Automatisierung auf der Grundlage detaillierter Betriebsdaten.
In seinem E-Book beschäftigt sich der Autor unter anderem damit,
•    wie Observability mit AIOps DevOps und SREs bei ihrer Arbeit unterstützt,
•    was AIOps technisch „unter der Haube“ hat,
•    wie der AIOps-Workflow aussieht: Von der Datenerfassung bis zur Problemlösung,
•    welche Anwenderszenarien es für Observability mit AIOps gibt,
•    wie Moogsoft Express die volle Leistung von AIOps und Observability liefert.

Das E-Book unterstützt beim ersten Schritt in Richtung optimale Customer Experience durch zuverlässige und jederzeit verfügbare digitale Dienste.

Im letzten Abschnitt gibt  Ihnen das E-Book noch eine Liste mit 10 konkreten Schritten für eine erstes AIOps Projekt mit auf den Weg. Selbstverständlich steht amasol jederzeit bereit, um Sie auf diesem Weg zu unterstützen.

Das E-Book „Observability with AIOps For Dummies” kann kostenlos unter https://info.moogsoft.com/ebook-observability-aiops-for-dummies.html heruntergeladen werden

]]>
news-30 Mon, 14 Dec 2020 16:30:26 +0000 Dynatrace Highlights – 2. Halbjahr 2020 https://www.amasol.de/blog/detail-page/dynatrace-highlights-2-halbjahr-2020 Auch im zweiten Halbjahr 2020 hat es eine Reihe von Neuerungen bei Dynatrace gegeben. Hier stellen wir Ihnen unsere Highlights vor. Dynatrace Application Security

Dynatrace steigt mit seinem Dynatrace-Application-Security-Modul in den Bereich Applikationssicherheit ein. Hintergrund ist der zunehmende Einsatz cloudnativer Technologien, wodurch die Applikationen sehr dynamisch aufgebaut sind. Mit diesen sich verändernden Abhängigkeiten kommen herkömmliche Security-Ansätze nur schwer hinterher. Auch müssen Abhängigkeiten außerhalb des Applikations-Perimeters, beispielsweise Open-Source- und Third-Party-Bibliotheken, im Blick behalten werden. 
Die aus der Nutzung der Runtime Application Self-Protection (RASP) entstehenden Vorteile für DevSecOps-Teams sind:
•    Keine weitere Konfiguration bei Änderungen in der Umgebung erforderlich
•    Geringere Wahrscheinlichkeit für Fehlalarme sowie Hervorhebung der größten Risiken und deren Auswirkungen
•    Automatisierter Schutz kritischer, sensibler Informationen und umfassendes Reporting für CISO
•    Bessere Zusammenarbeit zwischen verschiedenen Teams (Development, Security und Operations)

Einführung von DDUs 

Neben einer Vielzahl an von Dynatrace bereitgestellten Metriken haben Nutzer jederzeit die Möglichkeit, eigene Metriken nach Bedarf zu definieren. Mit Version 1.198 hat Dynatrace die sogenannten „Davis Data Units (DDUs)“ eingeführt, die den Verbrauch dieser Custom-Metriken messen. Damit soll die Verwaltung und Lizensierung von Custom-Metriken direkter, flexibler und transparenter gemacht werden.

KI-unterstütztes Monitoring für SAP-HANA-Datenbanken

Seit Kurzem gibt es ein Preview-Release einer neuen ActiveGate-Erweiterung, die SAP-Monitoring nun auch für SAP-HANA-Datenbanken ermöglicht.
Damit kann man
•    einfach den Health-Status und die Performance der HANA-Datenbanken erkennen,
•    mittels der Davis-KI automatisch jede Metrik analysieren,
•    Fehlalarme mithilfe von autoadaptivem Baselining vermeiden sowie
•    die Umstellung von alten Datenbanken-Systemen auf SAP HANA einfacher durchführen.
Für die Nutzung der HANA-DB-Monitoring-Extension ist außerdem keine Installation von Agenten auf SAP-Servern erforderlich. Der Zugriff auf die Performancedaten erfolgt über dieselben Mechanismen, die auch von anderen SAP-Tools genutzt werden, aus denen KPI-relevante Metriken extrahiert werden. Enthalten sind darin Infrastruktur-Metriken (CPU, Disk und Netzwerk) sowie Details zu Backups, Savepoints und Replikation. Darüber hinaus werden die Eigenschaften und Statusinformationen der verschiedenen SAP-Datenbank-Komponenten überwacht. Auch informiert Dynatrace über den baldigen Ablauf von Lizenzen.

Umgebungsübergreifende Dashboards 

Mit zunehmender Komplexität großer Applikationslandschaften werden häufig mehrere Umgebungen in Dynatrace erstellt, damit die Vorteile der Segmentierung und Skalierung voll ausgenutzt werden können. Seit Version 1.198 ist es nun möglich, Daten aus mehreren Umgebungen in einem Dashboard zu visualisieren. Beispielsweise können hierdurch alle AWS-Instanzen, Kubernetes-Nodes, lokale VMs und die Benutzererfahrung für alle öffentlichen und internen Anwendungen über z. B. mehrere Staging-Umgebungen in einem Dashboard im Auge behalten werden.

OneAgent Lifecycle Management 

Im letzten Halbjahr wurde nicht nur der Installationsprozess des OneAgents optimiert, sondern mit Version 1.202 auch ein Lifecycle Management für OneAgents eingeführt. Damit können OneAgent-Instanzen einfach und im großen Maßstab zentralisiert verwaltet werden. Geeignete Use Cases sind dafür:
•    OneAgent-Aktualisierungsfortschritt über API abfragen
•    (De-)Aktivieren des Monitorings basierend auf dem Serverstatus in einer CMDB
•    Automatische (De-)Aktivierung des Monitorings bestimmter Hosts
Alle dazu benötigten API-Methoden sind in der Configuration-API bzw. Environment-API im Bereich „OneAgent on a Host“ zu finden.

Intelligente, kontextsensitive und AI-gestützte Analytik für Custom-Metriken und Fehleranalysen

Mit Dynatrace Version 1.200 wurde die nächste Stufe erreicht, indem die Davis AI Causation Engine für HTTP- und benutzerdefinierte Fehler erweitert wurde. Diese Funktion ermöglicht es, Probleme im Zusammenhang mit clientseitigen HTTP-Fehlern und Custom-Fehlern automatisch und out of the box zu erkennen und zu melden. Wenn Davis diese Arbeit übernimmt, bedeutet dies, dass man keine Zeit mehr für die Konfiguration von Warnungen oder die Überprüfung von Dashboards aufwenden muss.
Darüber hinaus besteht seit Kurzem auch die Möglichkeit, über API-Interfaces wie StatsD, Telegraf und Prometheus eingespeiste Custom-Metriken mithilfe der Davis AI auf Anomalien zu prüfen und entsprechende Alarme zu generieren. Darüber hinaus werden die Metriken – sofern über OneAgents übertragen und wo es sinnvoll ist – automatisch Entitäten in der Smartscape-Topologie zugeordnet, Abhängigkeiten aufgedeckt, automatische Baselines erzeugt und die Ergebnisse der Analysen in Reports dargestellt.

Autoadaptives Baselining

Das autoadaptive Baselining stellt einen dynamischen Ansatz für das Baselining dar, bei dem sich der Referenzwert, der zum Erkennen von Anomalien verwendet wird, im Laufe der Zeit ändert. Der Hauptvorteil gegenüber statischen Schwellenwerten besteht darin, dass sich die Referenzwerte im Laufe der Zeit dynamisch anpassen und kein Schwellenwert im Voraus bestimmt werden muss.
Seit Dynatrace Version 1.198 ist die Definition der automatischen adaptiven Baseline für jede Art von Metrik möglich, egal ob es sich um integrierte OneAgent-Metriken, Infrastruktur- und Cloud-Metriken oder benutzerdefinierte Metriken handelt.

Neuer Problem-Feed

Da es insbesondere in großen Umgebungen entscheidend ist, schnell einen Überblick über alle von Davis erkannten Probleme zu gewinnen und nach eigene Bedürfnissen filtern und sortieren zu können, hat Dynatrace einen neuen Problem-Feed eingeführt. Seit Version 1.204 kann diese leistungsfähige Ansicht getestet werden und wird in den kommenden Monaten die bisherige Kachelansicht ersetzen. Unter anderem können hier dann Trends durch Aggregationsdiagramme sowie besonders betroffene Entitäten identifiziert werden. Eine Übersicht der via Alerting-Profile benachrichtigten Teams und die Möglichkeit zum Export der Abfrageergebnisse via REST API unterstützen die Problembehebung.

Einfachere LDAP-Authentifizierung 

Da eine zunehmende Anzahl an Dynatrace-Kunden LDAP zur Authentifizierung verwendet, hat Dynatrace die LDAP-Konfiguration vereinfacht. So können Gruppen nun unabhängig von mittels LDAP übermittelten Attributen an einzelne User zugewiesen und applikationsspezifische Berechtigungen dadurch mit einer feineren Granularität vergeben werden. 

Credential Vault für Synthetic 

Damit Zugangsdaten nicht im Klartext in den Skripten für synthetisches Monitoring für jeden Nutzer einsehbar sind, können diese im sogenannten „Credential Vault“ verschlüsselt abgelegt werden. Das Skript greift dann bei Bedarf auf den entsprechenden Eintrag im Credential Vault zurück. Dynatrace hat hier Verbesserungen zur weiteren Sicherheit der Login-Daten eingeführt. So können Monitoring-Schritte, die Zugangsdaten mit „Owner Access Only“ beinhalten, ausschließlich vom Besitzer modifiziert und in neuen Monitoren genutzt werden. Auch wird neben der Kombination Username/Passwort und zertifikatsbasierte Authentifizierung die Autorisierung mittels Tokens unterstützt.

]]>
news-29 Fri, 04 Dec 2020 14:15:58 +0000 Bessere Performance für größere Nutzerzufriedenheit https://www.amasol.de/blog/detail-page/bessere-performance-fuer-groessere-nutzerzufriedenheit Welchen Beitrag User Behavior Analytics leisten kann Denkt man an Performance, so fallen oft Begriffe wie „zu langsam“, „SLAs“ oder „Optimierung“. Vor jeder Anwendung sitzen nämlich Nutzer, die nicht lange warten wollen – Zeit ist schließlich Geld. Will man also Zeit und Kosten sparen, so müssen Prozesse optimiert und muss die Performance erhöht werden. Aber wie schafft man das möglichst effizient? Schließlich ist es nicht zielführend, alle Prozesse der Reihe nach zu optimieren – und manchmal bewirkt die Optimierung an einer Stelle eine schlechtere Performance woanders. 

User Behavior Analytics (UBA) unterstützt bei der Identifizierung häufiger Use Cases in Anwendungen: Welche URLs einer Webanwendung werden am häufigsten aufgerufen? Gibt es darunter solche, die besonders viele Fehlermeldungen erzeugen? Auf welche Datenbanken wird am meisten zugegriffen und mit welchen Abfragen? Aber auch auf Netzwerkebene zeigt UBA einen Mehrwert: Gibt es intensive Nutzungszeiten, zu denen das Unternehmensnetzwerk an seine Grenzen stößt? Gibt es besonders beliebte Zeiten für Videokonferenzen, die zu hohen Latenzen und Aussetzern führen? Wo treten regelmäßig Probleme und Beschwerden auf?

Neben klassischen Metriken wie Average Response Time bzw. Average Load Time oder Number of Errors spielen Zugriffszahlen eine wichtige Rolle bei der Auswertung des Nutzungsverhaltens. Die Korrelation dieser Daten ermöglicht das Erkennen von Vorgängen, die kritisch für die Produktivität der Nutzer und somit auch für das Business sind. Somit kann der Fokus gezielt auf die Optimierung dieser Prozesse und dazugehöriger Ressourcen gesetzt werden.

UBA im Performance-Bereich schärft also den Blick für

  • das tatsächliche Nutzungsverhalten,
  • existierende Ressourcen-Engpässe,
  • vorhandenes Optimierungspotenzial.

Sie haben Fragen zu diesem oder ähnlichen Themen? Ich stehe Ihnen gerne zur Verfügung: Olga Wall, Consultant für Application Performance Management.

]]>
news-28 Thu, 26 Nov 2020 10:34:12 +0000 Cloudability SaaS und Shift für Financial Management https://www.amasol.de/blog/detail-page/apptio-erweitert-seine-cloud-produktreihe-fuer-financial-management-um-cloudability-saas-und-cloudability-shift Apptio erweitert seine Cloud-Produktreihe für Financial Management um Cloudability SaaS und Cloudability Shift Apptio hat seine Cloudability-Produktfamilie um zwei weitere neue Lösungen erweitert: Cloudability SaaS und Cloudability Shift. Das Unternehmen reagiert damit auf das rapide Wachstum im Public-Cloud-Markt. Cloudability SaaS ermöglicht es IT- und Controlling-Experten, die Ausgaben für Software-as-a-Service-(SaaS-)Anwendungen im gesamten Unternehmen zu erfassen, zu verwalten und zu optimieren. Cloudability Shift versetzt den Anwender in die Lage, die Migration von On-Premise-betriebenen Rechenzentren in die Cloud zu analysieren, zu planen und umzusetzen. Dies geschieht durch eine Analyse der bestehenden Infrastruktur, der damit verbundenen Kosten und des Anwendungsbedarfs.

Cloudability SaaS

Cloudability SaaS wurde entwickelt, um alle im Unternehmen eingesetzten SaaS-Anwendungen aufzuspüren und zu dokumentieren. Darüber hinaus analysiert die Lösung, wie viele Lizenzen im Einsatz sind und die Ausgaben je Anwendung. So ist es möglich, das SaaS-Portfolio so zu optimieren, das es auch die sich ändernden Anforderungen durch das Business erfüllt, dabei aber potenzielle Compliance-Probleme vermeidet. Mit der Software können Unternehmen SaaS-Lizenzen nutzungsbasiert anpassen, die doppelte Nutzung von Anwendungen vermeiden und die Höhe zukünftiger Ausgaben auf der Grundlage von „Was wäre, wenn“-Analysen prognostizieren.

Cloudability SaaS extrahiert über eine direkte API-Integration und Machine-Learning-Technologien Details zu Verträgen, Lizenzen und Nutzung, indem es sich direkt mit Single-Sign-On-(SSO-)Systemen verbindet. Die gesamten SaaS-Investitionen können so visualisiert werden. Die wichtigsten Vorteile der Lösung sind u. a.:

  • portfolioübergreifender Überblick: Ein konsolidierter Überblick über Ausgaben, Adaption und Nutzungsdaten für alle eingesetzten SaaS-Anwendungen ermöglicht ein schnelleres Erkennen von Optimierungspotenzialen und verhindert, dass SaaS-Ressourcen vergeudet werden;
  • Kostenreduktion: Automatisierte und zeitnahe Optimierungsempfehlungen zu SaaS-Lizenzen auf Grundlage der tatsächlichen Nutzungsdaten ermöglichen eine leistungsfähige Kostenoptimierung;
  • Risikominimierung: Umfassende „Was wäre, wenn“-Analysetools versetzen IT-Abteilungen in die Lage, rasch auf neue Business-Strategien zu reagieren. Ein flexibles Kennzeichnen von Anwendungen, z. B. von solchen, in denen sensible Daten gespeichert sind, hilft dabei, mögliche Compliance- und Betriebsrisiken zu minimieren.

Cloudability Shift

Dank der Fähigkeit, die mit einer Cloud-Migration verbundenen Kosten auszuweisen, kann Cloudability Shift Anwendern individuelle Migrationspläne zur Verfügung stellen sowie Empfehlungen geben, was umgezogen werden soll (z. B. welche Applikationen) und wann der Umzug erfolgen sollte, um sicherzustellen, dass die Migration auch den höchstmöglichen Nutzen bringt. Zu den wichtigsten Vorteilen der Lösung gehören u. a.:

  • ein realistisches Bild der Kosten: Durch Überprüfen der mit einer Migration verbundenen Kosten können Anwender entscheiden, wann der beste Zeitpunkt ist, unterschiedliche Workloads zu migrieren, um so doppelte Kosten zu vermeiden;
  • Individualisierbarkeit: Die Anwender können auf eine Vielzahl an Informationsquellen und Integrationen mit anderen Software-Programmen zurückgreifen, um mögliche Kosteneinsparungen zu evaluieren, und ihre Migration Anwendung für Anwendung spezifisch planen;
  • Verantwortlichkeit: Das automatische Erfassen der tatsächlichen Migrationskosten im Vergleich zu den geplanten Kosten liefert ein realistisches, kontinuierliches Bild des Kosten-Nutzen-Verhältnisses.

Cloudability SaaS steht bereits jetzt zur Verfügung, Cloudability Shift wird im Frühjahr 2021 verfügbar sein.
Für weitere Fragen zu den neuen Cloudability-Lösungen wenden Sie sich bitte an Ihren Ansprechpartner bei amasol.

]]>
news-24 Wed, 11 Nov 2020 12:54:13 +0000 Apptio stellt neue Funktionen für Cloudability vor https://www.amasol.de/blog/detail-page/apptio-stellt-neue-funktionen-fuer-cloudability-vor Ende September hat Apptio für Cloudability eine neue Funktion vorgestellt, die es ermöglicht, Kubernetes-Container in den Cloud-Financial-Management-Prozess zu integrieren. Nun hat das Unternehmen die Cloudability-Funktionalität weiter ausgebaut. Vorschläge zur Amazon-S3-Storage-Optimierung

Neu ist die Funktion Rightsizing Recommendations for Amazon S3 (Simple Storage Service). Damit erhalten Cloudability-Kunden einen Einblick in detaillierte Messgrößen auf Bucket-Ebene wie z. B. Größe, Objektanzahl, Gesamtoperationen sowie Empfehlungen zum Surface Rightsizing. Sie sind damit in der Lage, Kosteneinsparungspotenziale bei ihren S3-Ausgaben aufzudecken.
 
Kubernetes Summary

Apptio-Cloudability-Kunden können ab sofort Daten zu ihren Kubernetes-Container-Kosten gemeinsam mit Daten zu ihren Nicht-Container-Cloud-Kosten direkt in ihren Cloudability-Berichten und Dashboards dokumentieren. Apptio Cloudability ist damit die bisher erste und einzige Lösung auf dem Markt, die es Unternehmen ermöglicht, vollständige Cloud-Financial-Management-Praktiken auf Container anzuwenden. Damit können sie Kosten den Teams zuordnen, die diese Container betreiben. Außerdem können sie umfassende Berichte, Dashboards, Budgetberechnungen und Forecasts erstellen.
Bei Containern handelt es sich um eine Technologie, die ein einzelnes Betriebssystem virtualisiert und es so ermöglicht, viele unterschiedliche Prozesse konkurrierend und voneinander isoliert ablaufen zu lassen. Traditionelle Virtualisierungstechnologien sorgen für eine Abstraktion von Hardware, Container sorgen für dasselbe beim Betriebssystem. 
Container haben in jüngster Vergangenheit gerade im Bereich Rapid Application Development and Deployment an Popularität gewonnen. Apptio Cloudability ist die bisher erste und einzige Lösung am Markt, die es Unternehmen ermöglicht, die dabei auftretenden Herausforderungen im Kosten- und Finanzmanagement zu meistern.
Für Fragen und weitere Informationen zu Apptio Cloudability wenden Sie sich bitte an Ihren Ansprechpartner bei amasol.
 

]]>
news-21 Mon, 09 Nov 2020 14:53:49 +0000 Fünf Erfolgsfaktoren für höhere Agilität in der IT https://www.amasol.de/blog/detail-page/agile-operations-fuenf-erfolgsfaktoren-fuer-hoehere-agilitaet-in-der-it Unternehmen, denen es nicht gelingt, für höhere Agilität in ihrer IT-Abteilung zu sorgen, zukünftig im Wettbewerb zurückfallen werden. Agilität ist mittlerweile weit mehr als ein reines „Buzzword“. Experten gehen davon aus, dass Unternehmen, denen es nicht gelingt, für höhere Agilität in ihrer IT-Abteilung zu sorgen, zukünftig im Wettbewerb zurückfallen werden. Denn die rasch zunehmende Digitalisierung vieler Vertriebs- und Geschäftsmodelle erfordert eine IT, der es gelingt, sich rasch und flexibel auf die sich kontinuierlich verändernden Marktgegebenheiten einzustellen. Dabei muss sie in der Lage sein, trotz dieser Veränderungen „on time“ die für ein erfolgreiches Business erforderliche IT-Umgebung zu schaffen und zu betreiben. „Time to market“ wird zum kritischen Erfolgsfaktor.
Fünf Erfolgsfaktoren für mehr IT-Agilität Unternehmen, die sich mit dem Thema Agilität auseinandersetzen, stellen rasch fest, dass es dabei nicht nur um den Einsatz innovativer IT-Technologien geht, sondern auch darum, einen organisatorischen Unterbau zu schaffen, der das Verständnis und Denken in der IT-Abteilung auf dieses Thema fokussiert. Bei bisherigen Projekten im Bereich Agile Operations haben wir die folgenden fünf Erfolgsfaktoren erkannt:

1.    Definition und Implementieren einer Agile-Operations-Kultur durch das Management

Nur wenn die Führungsriege selbst davon überzeugt ist, dass es nur ein Ziel gibt, nämlich für mehr Agilität in der IT zu sorgen, wird es gelingen, dies auch in der gesamten IT-Organisation zu verankern. Dazu muss es klare Zielvorgaben und eine offene, ergebnisorientierte Kommunikation sowie ein Teamwork geben, dass jeden Einzelnen in die agile Arbeitsweise des gesamten Teams einbettet.

2.    Agilität kann man lernen, man kann es aber auch einfach können

Wie sich in Projekten immer wieder zeigt, ist es wichtig, Mitarbeiter in agilen Methoden zu schulen und weiterzubilden, um eine entsprechende Kompetenz in diesen Bereichen aufzubauen. Allerdings zeigt sich in vielen Projekten auch, dass das Verständnis von Mitarbeitern für Agilität häufig auf entsprechenden Erfahrungen aus der Vergangenheit beruht. Aus diesem Grund ist es wichtig, diese Erfahrungen in Form von Best Practices zu dokumentieren bzw. – sofern man im Unternehmen (noch) nicht über derartige Erfahrungen verfügt – sich unter Umständen mit Mitarbeitern verstärken, die über diese Erfahrungen verfügen.

3.    Zusammenspiel zwischen IT-Infrastruktur, Anwendungen und Daten

Agilität entsteht nur, wenn Infrastruktur, Anwendungen und damit verarbeitete Daten nahtlos ineinander integriert sind. Ein wichtiges Augenmerk muss dabei auf die Schnittstellen gelegt werden, da es hier erfahrungsgemäß zu den größten „Reibungsverlusten“ kommt.

4.    IT und Fachabteilungen: miteinander statt gegeneinander

Der klassische „Clash of Cultures“ zwischen IT und Fachabteilungen muss überwunden werden, wenn es darum geht, für mehr Agilität in der IT zu sorgen. Traditionelle „Plan, build, run“-Konzepte werden schon heute immer häufiger durch moderne DevOps-Konzepte ersetzt, bei denen die IT die volle Verantwortung für Entwicklung UND Betrieb einer Anwendung oder eines Service übernimmt. Ziel muss es nun sein, auch die Fachabteilungen in diese Wertschöpfungskette zu integrieren.

5.    Vom Vorgesetzten zum Coach

Mit dem Streben nach mehr Agilität ändern sich auch die Hierarchien und die Rolle vieler Mitarbeiter insbesondere im Management. Statt zu führen geht es nun darum, auf Augenhöhe anzuleiten und gemeinsam neue Projekte anzustoßen. Dies bedeutet auf der einen Seite, dass es ein neues Bewertungssystem für die Leistung dieser Mitarbeiter geben muss. Auf der anderen Seite müssen sich IT- und Geschäftsleitung darüber Gedanken machen, wie sie diesen Mitarbeitern ihre neue Funktion und Arbeitsweise „schmackhaft“ machen. Denn eines ist klar: Eine höhere Agilität in der IT wird nur erreicht, wenn alle in der IT-Organisation dies auch wirklich verinnerlicht haben und „an einem Strang“ ziehen.

]]>
ITIM
news-27 Tue, 13 Oct 2020 14:45:00 +0000 TLS 1.3 – wird das Monitoring blind? https://www.amasol.de/blog/detail-page/tls-13-wird-das-monitoring-blind Das Thema des zweiten Teils dieser Beitragsreihe zu meiner Bachelorarbeit „Das Verschlüsselungsprotokoll TLS 1.3 und seine Auswirkungen auf das Netzwerk-Monitoring“ war der Aufbau und die Funktionsweise des TLS 1.3-Protokolls sowie die Neuerungen, die mit der Einführung der neuen Version TLS 1.3 im Vergleich zu TLS 1.2 einhergehen. In diesem letzten Teil möchte ich nun die Auswirkungen auf das Monitoring von Anwendungen aufzeigen.

Statische vs. ephemere Schlüssel

Bisher galt, dass volle Sichtbarkeit im Monitoring nur dann besteht, wenn die Daten unverschlüsselt übertragen werden. Verschlüsselte Daten stellten das Monitoring vor eine Herausforderung, die bislang aber gut zu bewältigen war. Es wurden nämlich größtenteils Verschlüsselungsverfahren eingesetzt, die statische Schlüssel nutzen. Statische Schlüssel werden für die Verschlüsselung mehrerer Sitzungen verwendet, ehe sie ausgetauscht werden. Damit war die Hinterlegung dieser Schlüssel im jeweiligen Monitoringtool möglich, und so konnte die Kommunikation dechiffriert sowie die benötigten Parameter überwacht werden.   
Mit dem verpflichtenden Einsatz flüchtiger Schlüssel ist diese Vorgehensweise nicht mehr praktikabel, da jede Sitzung mit einem neuen Schlüssel chiffriert wird. Damit wird das bisherige Verfahren beim Einsatz des TLS 1.3-Protokolls obsolet. Erschwerend kommt hinzu, dass die Verschlüsselung in TLS 1.3 nun auch früher – nämlich bereits nach dem ServerHello – als in früheren Versionen einsetzt. Informationen, die dabei verloren gehen, betreffen unter anderem den Austausch des Schlüssels und der Zertifikate.

Wie viel Sichtbarkeit wird tatsächlich benötigt?

Mit dem Ausbleiben des Schlüssels ist die Sichtbarkeit des kommunizierten Inhalts nur noch sehr gering. Ohne eine Entschlüsselung sind nur noch Metriken wie SSL Connection Setup Time, SSL Handshake Errors sowie allgemeine Metriken zur Netzwerkperformance, die TLS-Version und die verhandelte Cipher Suite sichtbar. 
Detailliertere Informationen, wie beispielsweise einzelne User oder aufgerufene URLs, sind dabei nicht verfügbar. Damit lässt sich Monitoring nicht mehr im gewohnten Umfang realisieren und eine Entschlüsselung wird benötigt.
Gleichzeitig ist abzuwägen, wie viele der aus sämtlichen Netzwerk-Metriken gewonnenen Informationen wirklich erforderlich für ein funktionierendes Monitoring sind. Wann reichen allgemeine Netzwerk-Metriken aus, die auch mit (bzw. trotz) Verschlüsselung verfügbar sind, und wann werden detailliertere Informationen benötigt? 

Lösungen

Einerseits kann man versuchen mit dem geringeren Informationsgehalt auszukommen, welchen allgemeine Netzwerk-Metriken des netzwerkbasierten Monitorings – wie zum Beispiel Dynatrace NAM - bieten. In Kombination mit anderen Informationsquellen – beispielsweise Verhalten von Hosts  oder Datenflussmerkmale – können dabei durch Korrelation aufschlussreiche Muster sichtbar werden.  Der erhaltene Detailgrad hängt vom Anteil der verschlüsselten Daten ab. Möglicherweise wird dies jedoch keine zufriedenstellende Lösung darstellen, insbesondere wenn das Monitoring auch der Gewährleistung der Sicherheit dienen soll.
Abhilfe bietet in diesem Fall der Einsatz von Agenten, die entweder den jeweils aktuellen Schlüssel an das Monitoring-Tool weiterleiten (ExtraHop Reveal(x)) oder das Monitoring direkt an den Kommunikationsendpunkten durchführen (Dynatrace). Eine Ergänzung dazu bietet Ixia mit ihren Visibility Appliances als Proxy, welche die Verschlüsselung unterbrechen, um die Datenpakete zur Analyse an ein Monitoring-Tool zu senden. Anschließend werden die Daten wieder verschlüsselt und an den eigentlichen Empfänger zugestellt.

Fazit

Auch wenn die Veröffentlichung der Spezifikation für TLS 1.3 mittlerweile schon ein Jahr zurückliegt, ist dieses Protokoll noch nicht weit verbreitet. Obwohl der Einsatz von TLS 1.3 empfohlen wird, werden mit Sicherheit noch einige Monate – wenn nicht Jahre – vergehen, bis TLS 1.3 das vorherrschende Verschlüsselungsprotokoll ist. Damit sind die Problematik der geringeren Sichtbarkeit durch TLS 1.3 und die daraus resultierenden Folgen zwar wichtig, drohen aber nicht unmittelbar. 

Dies hat den Vorteil, dass für jeden Betreiber einer Monitoring-Umgebung nun genug Zeit bleibt, um eine optimale Lösung für diese Herausforderung zu finden.

Die amasol AG arbeitet bereits jetzt mit ihren Herstellerpartnern im Bereich des Anwendungsmonitorings Dynatrace, ExtraHop und Ixia an Lösungen, um Sie bei der Umstellung bestmöglich zu unterstützen. 

Damit endet die Beitragsreihe zu meiner Bachelorarbeit „Das Verschlüsselungsprotokoll TLS 1.3 und seine Auswirkungen auf das Netzwerk-Monitoring“.

Wenn Sie sich mit mir über die Inhalte meiner Arbeit austauschen möchten, erreichen Sie mich unter olga.wall(at)amasol.de. 

 

<< Zurück zu Teil II: Was ist TLS 1.3?

]]>
news-12 Tue, 29 Sep 2020 14:10:02 +0000 Apptio Digital Fuel ITBM 9.4. verfügbar https://www.amasol.de/blog/detail-page/apptio-digital-fuel-it-business-management-94-verfuegbar Apptio hat die neue Version 9.4 vorgestellt: ein weiterer Schritt von Apptio bei der mehrstufigen Modernisierung seiner ITBM-Plattform. Apptio hat die neue Version 9.4 von Digital Fuel IT Business Management vorgestellt. Das neue Release ist ein weiterer Schritt von Apptio bei der mehrstufigen Modernisierung seiner IT-Business-Management-Plattform. Der Schwerpunkt liegt dieses Mal auf Qualitätsverbesserungen.

Zu den wichtigsten Neuerungen gehören unter anderem die modernisierten Service-Level-Management-Module Compliance sowie Credits and Bonuses, ein modernisiertes Erstellen und Verwalten von Berichten sowie Support für Oracle 19c.

 

Modernisierte Berichtsverwaltung

Die Version v9.4 von Apptio-Digital Fuel ITBM ermöglicht ein schnelleres und einfacheres Erstellen und Verwalten von Berichten. Die Aufgaben wurden dazu aus dem Designer ausgelagert. Damit sind sie zukünftig leichter zugänglich und weniger komplex. Die Anzahl der erforderlichen Klicks zum Erledigen allgemeiner Aufgaben wird dadurch deutlich verringert.

Die Funktionen können nun über das Report-Administration-Modul im Abschnitt Berichte ausgeführt werden und stehen für die folgenden Berichtsarten zur Verfügung:

  • Tortendiagramme
  • Gauge-Berichte
  • Liniendiagramme
  • Balkendiagramme
  • Timelines
  • Tabellen
  • Zusammengesetzte Berichte

Das geht inhaltlich aber nur, wenn diese Bericht jeweils nur aus den Darstellungsformen bestehen, ohne weitere Elemente.

Die neue Funktion steht für Benutzer zur Verfügung, die über die Zugangsberechtigung zum Designer-Modul in ITBM verfügen. Zum Verständnis der Funktionsweise wird auf den Abschnitt „Nicht modernisierte Funktionen“ verwiesen, da dieser für die Berichtsverwaltung noch implementiert werden muss.

 

Neue UI-Funktionen

Die Version 9.4 bietet Support für die folgenden Funktionen im Modul Reports and Dashboards: Berichte:

  • Berichte: Drilldown zum Business-Rule-Template, Breach Adjustment, Upload File Adapter
  • Dashboards: Mehrere Notizen-Widgets können bei einem Dashboard ergänzt werden.
  • Dashboards: Mehrere Quick-Link-Widgets können bei einem Dashboard ergänzt werden.
  • Neue Funktion „Generate Shareable Link“. Damit können Report- und Dashboard-Links mit anderen Benutzern geteilt werden.

 

Shareable Links auf Berichte

Benutzer möchten von Zeit zu Zeit Links auf ITBM-Berichte mit anderen Benutzern teilen. Um dies zu erleichtern, wurde eine „Generate Shareable Link“-Funktion in die Menüleiste von Reports and Dashboards integriert. Ein Klick darauf kopiert den Link in die Zwischenablage des Systems. Der Anwender kann ihn dann in eine E-Mail oder andere Kommunikationsanwendung einfügen.

 

Compliance, Credits, Bonus

Die Module Compliance View, Adjust and Approve sowie Credits and Bonuses wurden modernisiert, stehen aber nur mit der neuen Benutzeroberfläche zur Verfügung. Die Module Personalized View und Adjust Reports können in den allgemeinen Einstelllungen konfiguriert werden, um anstelle von Out-of-the-Box-Berichten angezeigt zu werden.

Weitere Funktionen, die modernisiert wurden, sind Filtern Speicher (Favoriten erstellen), Veröffentlichen und Tools.

 

Support für Oracle 19c

Neu in der Version 9.4 ist der Support für Oracle Database19c. Der Support für Oracle Database 12c Release 2 endet am 30. November, wenn auch Oracle seinen Support einstellt.

Version 9.4. integriert den ojdbc8-Oracle-Database-Treiber anstelle des älteren ojdbc6-Treibers in älteren Versionen. Mit diesem Wechsel auf den neuen Oracle-Database-Treiber endet der Support für Oracle Database 12c Release 1 und ältere Versionen.

 

Support für AdoptOpenJDK8

Die Version 9.4 unterstützt ab sofort sowohl Oracle JDK8 als auch die Open-Source-AdoptOpenJDK8-Distributionen. Bitte beachten Sie, dass ITBM nur Java-1.8-Versionen von AdoptOpenJDK und Oracle JDK unterstützt. Konfigurationshinweise für Java finden Sie im ITBM Installation Guide.

 

Erweiterung für Sommerzeit

Versionen vor Version 9.3 unterstützen die Sommerzeit (Daylight Savings Time, DST) bis März 2021. Bei der Verwendung der koordinierten Weltzeit (UTC) hat dies keine Auswirkungen. Version 9.4 erweitert den Support für Sommerzeit bis 2027.

Mit Digital Fuel Version 9.4. plant Apptio, amasol als Partner exklusiv REST-APIs zur Ansteuerung von SLM-Funktionen zur Verfügung zu stellen. Diese APIs werden von amasol zukünftig in Projekten zur Anbindung von Funktionen der Vertragsverwaltung verwendet. Aktuell arbeitet unser amasol-Team an ersten Prototypen mit unseren Kunden. Auch sind wir dabei, die technischen Schnittstellen mittels eines API-Gateways zu veredeln, sodass wir zentrale Use Cases unserer Kunden einfacher abbilden können.

Über die SLM-Schnittstelle wird es dann möglich sein, die bislang nur manuell über das UI zu pflegenden Verträgen nun auch zu automatisieren. Hier stehen wir eine Vielzahl an möglichen Anwendungsfällen von zusätzlichen Listen und Suchfunktionen über Massenänderungen bis hin zum vereinfachten Onboarding neuer Kunden oder der Integration in Bestellprozess. 

+++ UPDATE 30.09.2020 +++

Neues Release 9.4.1: Update auf Apache Tomcat 7.0.105

Apptio hat mittlerweile die Version 9.4.1 von Digital Fuel ITBM veröffentlicht. Grund dafür war eine Sicherheitslücke in Apache Tomcat, die ein amasol-Kunde entdeckt und an uns gemeldet hatte. Diese Lücke wurde mit einem Upgrade auf die Tomcat Version 7.0.105 geschlossen.

Für Fragen zur neuen Version und zum Upgrade wenden Sie sich bitte gerne an mich.

]]>
news-11 Tue, 29 Sep 2020 14:07:00 +0000 Als Sozialwissenschaftlerin unter vielen ITler*innen https://www.amasol.de/blog/detail-page/als-sozialwissenschaftlerin-unter-vielen-itlerinnen Nach 18 Monaten endet am 31. Dezember meine Zeit hier bei amasol. Es war eine spannende Zeit, in der ich viel gelernt habe – auch über IT Mit einem Sprung ins kalte Wasser im März 2018 – die Vorbereitungen für das Anwenderforum liefen auf Hochtouren – begann ich mein Praktikum. Von ersten Tag an war ich in die Vorbereitungen für das Kundenevent eingebunden. Ich übersetzte Unternehmensbeschreibungen vom Englische ins Deutsche, aktualisierte die Inhalte in der Veranstaltungsapp und übernahm weitere Aufgaben, die bei der Vorbereitung einer großen Veranstaltung so anfallen. Ende April stieg ich schließlich mit den anderen Kolleginnen und Kollegen ins Flugzeug nach Köln, um selbst am Anwenderforum dabei zu sein. Aber nicht nur das Anwenderforum sondern auch die Umstellung auf ein neues Corporate Design prägten die ersten Woche meines Praktikums. Viele meiner Aufgaben waren kreativ. So hab ich zum Beispiel in der Adventszeit die Lose für unsere Tombola gestaltet.

Nach und nach übernahm ich zu den Aufgaben im Marketing auch Aufgaben im Recruiting. Ich war angefixt und wollte mehr lernen. Weil es bei amasol immer etwas Neues zu lernen gibt und die Arbeit nie ausgeht, wechselte ich dann auf die andere Seite des langen Flures – in den sogenannten „Teppich-Trakt“.

Von nun an widmete ich mich nicht nur dem Schalten von Stellenanzeigen in den Jobbörsen und dem Personalmarketing in den Sozialen Medien , sondern lernte auch den kompletten Recruiting-Prozess kennen. Ich erstellte Stellenanzeigen, sichtete Lebensläufe, kontaktierte passende Bewerber*innen, führte Telefoninterviews und schrieb auch Absagen an zwar qualifizierte, aber für die Positionen ungeeignete Personen. Interviews führen gehört in meinem Studium zur Methodenausbildung. Doch die Perspektive zu wechseln und nicht mehr die Bewerberin zu sein, sondern die Person, die für das Unternehmen geeignete KandidatInnen sucht, ist dann doch eine ganz andere Nummer. Es war spannend, aber auch mit Nervosität verbunden. Der Interviewleitfaden und Silke als Coach, die mir nach jedem Interview wertvolles Feedback gegeben hat, waren eine unglaubliche Unterstützung.

Recruiting war aber nicht alles, was ich lernen durfte. Ich habe mich mit Onboarding-Prozessen beschäftigt, um neuen Kolleginnen und Kollegen das Ankommen und die Einarbeitung möglichst angenehm zu machen. Sie sollen sich auch von Anfang an genauso wohl fühlen wie wir.

Datenschutz, Arbeitssicherheit und Zeugnisse verfassen standen ebenfalls auf dem Stundenplan. Zu guter Letzt ein Thema, wodurch ich weiterhin mit amasol verbunden bleiben werde, war das Alumni Netzwerk. Denn ab Januar bin ich selbst eine Alumna.

Ich habe hier unglaublich viel gelernt. Ich durfte mit hilfsbereiten und netten Menschen zusammenarbeiten, die jede Frage gerne beantworteten, und mit denen es auch viel zu lachen gab. Hier sitze ich also ein letztes Mal mit Blick auf die Berge und einem weinenden Auge, weil ich die Menschen und die Arbeit hier unglaublich vermissen werde, und einem lachenden Auge, das sich auf die neuen Herausforderungen, die mich erwarten werden, freut.

]]>
amasol Insight
news-10 Mon, 21 Sep 2020 14:58:20 +0000 Autonomous Cloud journey at amasol with Keptn https://www.amasol.de/blog/detail-page/autonomous-cloud-journey-at-amasol-with-keptn About two years ago we launched the aMC offering Dynatrace as a Managed Service, so we could offer our customer the comfort of a SaaS solution. Video – Webinar Autonomous Cloud at amasol with Keptn, GitLab, JMeter & Dynatrace on AKS

 

About two years ago we launched the amasol Managed Cloud offering Dynatrace as a Managed Service hosted in Germany, so we could offer our customer the comfort of a SaaS solution while still allowing them to follow strict data protection regulations. 

Since then we have been extending the platform and adding more features like our aMC Synthetic App, aMC Config Management or a central User Management Portal for all aMC services. 

Because we started on a green field, we were able to pick a modern technology stack and decided to deploy everything on Kubernetes. 

When looking for a Continuous Delivery Solution we quickly settled on Keptn as the control plane. Keptn comes with out-of-the-box integrations of several tools we already had in place for our Continuous Integration setup like GitLab, JMeter or Dynatrace. Thanks to its event-driven architecture we can easily extend it to other tools we may need in the future. 

Keptn also supports us on the way to an Autonomous Cloud by enabling an easy start with SLO-based Quality Gates to improve the quality and continue to other topics like different deployment strategies and auto remediation. 

Current Setup  

We use GitLab CI with a simple pipeline to build and unit-test new versions of our applications. If the build is successful a new image is created and pushed to our container registry. 

From there we trigger the deployment (currently manual) with a simple Keptn CLI call, telling it to deploy our new artifact: 

We trigger the deployments through the CLI because we still want manual approval for production deployments. In the next Keptn Version (0.7.0) it will be possible to do manual approvals between stages with Keptn’s new Delivery Assistant, which will allow us to trigger the deployment directly from our CI pipeline and still maintain control when a version should be promoted to production. 

Let me explain what happens behind the scenes when sending the new-artifact event. 

Continuous Delivery 

Once the event is sent Keptn takes the rudder and deploys our new artifact to the first stage. In our case that is the development environment.  

The different stages are defined in a simple YAML file called shipyard: 

For every stage Keptn allows us to specify the deployment strategy, e.g. direct, blue/green or canary and the testing strategy, e.g.: functional, performance. This gives us declarative control about what should happen in each stage as an artifact gets pushed through the delivery process. 

After Keptn deployed an artifact and then triggered the tests it automatically enforces a quality gate. This is done through Keptn’s Lighthouse service which verifies metrics from a monitoring system as Service Level Indicators (SLIs) against defined Service Level Objectives (SLOs).  

In our case, after the deployment is finished Keptn starts the test through Keptn’s JMeter service that is already shipped with Keptn. It does a short functional test to check if the environment is operational and then starts a load test. 

The SLOs are defined in a YAML file and following the GitOps approach are stored along with the other files (SLIs, JMeter Scripts and Helm Charts) in a git repository. 

For every SLO the passing criteria can be specified as an absolute and/or relative value. The relative values are compared against the last X number of builds allowing for automatic regression detection, e.g.: do not allow an increase in response time by more than 10% to the previous build. The absolute allows us to enforce strict thresholds that we may have, e.g.: do not allow a failure rate of more than 1% 

Every SLO has a weight which influences the calculation of the total score. The total score section allows us to specify what score we consider as a successful or failed build: 

With the bridge, Keptn has a great built-in Web UI to get an overview of all your Keptn workflows. 

Keptn follows an event-based approach and each event is listed in the bridge. Staring at the configuration changed event triggered by our keptn CLI call, all subsequent steps are listed in the bridge: 

In this case the tests are executed but the thresholds defined in our SLOs are not met because the error rate is to high: 

Because our Total Score is below the defined passing mark Keptn stops the workflow here and does not deploy to our production stage. That is immediate feedback delivered back to engineering so they can start fixing newly introduced issues right away. 

So, once we fix the problem, we run a new deployment and Keptn validates if we are now meeting our SLOs. Looks fine now :-)

With the successful evaluation Keptn goes ahead an deploys the new artifact automatically to production. 

Summary 

Keptn enabled us to quickly onboard multiple projects and services to a robust Continuous Delivery process, without the overhead of managing multiple Pipelines. 

The SLO-based Quality Gates help us in providing a good experience to our End Users and give our engineers immediate feedback for their deployed changes. 

With Keptn 0.7 we will link our Continuous Integration Flow to Keptn for automatic deployments while still retaining manual approval for production with Keptn’s Delivery Assistant. After that we are looking forward to advanced use cases like auto remediation.  

]]>
APM
news-9 Mon, 21 Sep 2020 14:57:01 +0000 KI-basierte Netzwerk-Monitoring- und Analyse-Lösung https://www.amasol.de/blog/detail-page/ki-basierte-netzwerk-monitoring-und-analyse-loesung-broadcom-stellt-dx-netops-vor Broadcom hat die neue Netzwerk-Monitoring–Lösung DX NetOps vorgestellt. Sie basiert auf Broadcom Silicon, der KI-basierten Lösung für hoch skalierbares Operations–Monitoring und -Analyse. Broadcom hat die neue Netzwerk-Monitoring–Lösung DX NetOps vorgestellt. Sie basiert auf Broadcom Silicon, der KI-basierten Lösung für hoch skalierbares Operations–Monitoring und -Analyse. Ziel ist es, auf der Grundlage fortschrittlicher KI-Funktionen einen einheitlichen Überblick über die User Experience in modernen IT-Architekturen zu vermitteln.

DX NetOps konvertiert dazu Inventory- und Topologie-Daten, Device-Metriken, Fehler-, Datenfluss- und Datenpaket-Analysedaten zu einer zentralen Informationsplattform, mit der Network-Operations-Teams sofort Optimierungsmaßnahmen ergreifen können.

In Kombination mit der AIOPs-Lösung von Broadcom versetzt DX NetOPs IT-Teams in die Lage, proaktive und autonome Verfahren zur Fehlerbehebung für die IT-Infrastruktur sowie für alle Anwendungen und Netzwerksysteme zu etablieren. Damit liefern sie die Grundlage für eine noch bessere User Experience.

DX NetOps Powered by Broadcom Silicon adressiert die aktuellen Ursachen von Netzwerk-engpässen

Broadcom ermöglicht mit der neuen Lösung ein hoch skalierbares Operations-Monitoring für den Einsatz in 5G-, IoT-, Cloud- und SD-WAN-Umgebungen und setzt dabei auf moderne KI- und Machine-Learning-Technologien. Damit können umfangreiche Daten auf Chip-Level erfasst werden. Broadcom trägt damit der Erkenntnis Rechnung, dass eine Monitoringlösung, die Paket- und Datenflussdaten in Echtzeit direkt auf den Broadcom-Chips und anderen Endgeräten erfasst, ein wichtiges Differenzierungsmerkmal am Markt und entscheidend für eine verbesserte „Digital Experience“ ist.

DX NetOps baut auf AIOps von Broadcom auf und agiert als „trusted proof point“ für die IT-Operations-Analyse von Broadcom BizOps. AIOps von Broadcom enthält neue intelligente Funktionen zur zum Teil automatischen Problembehebung, die IT-Abteilungen dabei unterstützen, Probleme zu prognostizieren und zu beheben, bevor sie die User Experience beeinträchtigen.

Erweitertes SD-WAN-Monitoring durch strategische Partnerschaften

Broadcom hat die Analysefunktionen in der DX-NetOps-Plattform so erweitert, dass diese Network-Operation-Teams in die Lage versetzt, zuverlässige Daten über die Anwendungserfahrung über SD-WAN-Technologien auf Basis von Silver Peak, VMware (VeloCloud) und 128 Technology zu liefern.

Eine erweiterte anwendungsorientierte Optimierungstechnologie ermöglicht es Unternehmen, das Anwendungs-Monitoring in Echtzeit über ihre SD-WAN-Implementierungen verschiedener Anbieter zu einer zentralen Übersicht zu zentralisieren, in der eingesetzte Netzwerk-Devices unterschiedlicher Hersteller, Infrastrukturschichten und Anwendungen enthalten sind.

Je mehr moderne Architekturen für den Support digitaler Business-Initiativen entstehen, desto zwingend notwendiger ist es für Unternehmen, über einen vollständigen Überblick zu verfügen. In Kombination mit KI- und Machine–Learning-Funktionen sind sie dann nämlich in der Lage, das Anwendungsverhalten wirklich zu verstehen und damit ihre Investitionen im SD-WAN-Bereich zu optimieren.

]]>
news-8 Mon, 21 Sep 2020 14:49:00 +0000 Integriertes Kubernetes Financial Management https://www.amasol.de/blog/detail-page/apptio-cloudability-ermoeglicht-integriertes-kubernetes-financial-management Apptio Cloudability ermöglicht Kubernetes-Container in den Cloud-Financial-Management-Prozess zu integrieren. Apptio hat mit Cloudability eine neue Funktion vorgestellt, die es ermöglicht, Kubernetes-Container in den Cloud-Financial-Management-Prozess zu integrieren. In einem Blog-Beitrag geht Apptio Product Management Consultant Stephen Whinston näher auf die Hintergründe und Vorteile von Cloudability ein.

Unternehmen arbeiten immer häufiger mit Public-Cloud-Anbietern zusammen, um die Skalierbarkeit und Flexibilität ihrer IT-Systeme zu optimieren und dabei gleichzeitig die Kosten im Griff zu haben. Der Einsatz von Containern als Mechanismus für das Deployment von Services in einer Public Cloud wächst derzeit fast doppelt so schnell wie die Cloud-Computing-Nutzung allgemein. Integriertes Finanzmanagement für Container wurde damit in den letzten Jahren zum sprichwörtlichen Mount Everest für die IT-Branche. Mit Cloudability bietet Apptio ab sofort eine Lösung, diesen „höchsten Berg“ zu bezwingen und Kubernetes-Container vollständig in den Cloud-Financial-Management-Prozess zu integrieren.

Das „Black Box“-Problem bei Containern

Das rasante Wachstum der Container-Nutzung wird insbesondere von Unternehmen vorangetrieben, die neue Ansätze bei der Anwendungsarchitektur sowie beim Einsatz und Betrieb von Applikationen verfolgen. Mit Containern ist es möglich, ein Betriebssystem zu virtualisieren und damit unterschiedliche Prozesse voneinander isoliert auf demselben Kernel ablaufen zu lassen. Kubernetes als Container Orchestration Layer bietet ein riesiges Potenzial bei der Anwendungsentwicklung, stellt aber auch riesige neue Herausforderungen in Bezug auf die Kostenallokation, -analyse, -planung und -dokumentation.

Die Herausforderung besteht dabei insbesondere darin, zuverlässig die Kosten für jedes Kubernetes-Cluster zu bestimmen. Diese können jeden Monat für Tausende kurzlebige Cloud-Ressourcen auftreten. Eine weitere Herausforderung besteht darin, diese Kosten dann individuellen Delivery–Teams zuzuordnen. Da jede virtuelle Maschine in einem Cluster tatsächlich multi-tenant ist, d.h. darauf mehrere Applikationen über unabhängige Container laufen, ist es nicht möglich, sich auf Standard-Abrechnungsattribute zu verlassen, um die Kosten abzubilden. Kurzum: Weder die Gesamtkosten eines jeden Clusters noch der Betrag, der den darin enthaltenen Anwendungen zugewiesen werden kann, können von den Cloud-Service-Providern präzise dokumentiert werden. Die Folge: Ein immer schneller ansteigender Teil der Cloud-Rechnung, die eine „Black Box“ ist, wenn es darum geht, die einzelnen Kosten genau auf die entsprechenden Kostenstellen eines Unternehmens umzulegen.

Cloudability-Container öffnet die „Black Box“

Apptio-Kunden können ab sofort die  Kosten eines jeden eingesetzten Kubernetes-Clusters präzise belegen und erhalten so die erforderliche Transparenz, um die Ausgaben auf die entsprechenden Services, Apps und Teams zu verteilen, die dafür verantwortlich sind.

Dies gelingt mit einem schlanken, speziell für diesen Zweck erstellten Cloudability-Container in jedem Cluster, der alle Kosten intelligent abbilden und aufteilen kann. Grundlage dafür sind fortschrittliche Algorithmen, die vier relevante Messgrößen zur Ressourcen-Nutzung an jedem Knoten analysieren – CPU, Speicher, Netzwerk und Festplatte – und Quality-of-Service-Einstellungen auf Pod-Ebene evaluieren. Damit können die Ressourcen-Kosten in Bezug auf native Kubernetes-Systeme aufgebrochen werden. Der Anwender kann diese Informationen dann über die entsprechenden Kubernetes-Konstrukte (wie z.B. Cluster, Namespace oder Label) im Container „Cost Allocation Report“ visualisieren.

Der Launch der neuen Funktion geht jedoch darüber hinaus, einfach nur die Ressourcen eines jeden Kubernetes-Clusters detailliert aufzuführen und zu zeigen, welche Teams darauf Container nutzen. Es geht dabei auch darum, diese ganzen Informationen in den gesamten Cloud-Financial-Management-Prozess zu integrieren. Ein Gesamtüberblick über alle Cloud-Computing-Ausgaben wird damit möglich. Apptio-Cloudability-Kunden können ihre Kubernetes-Kosten gemeinsam mit ihren anderen Cloud-Computing-Kosten in Kostenberichten, Dashboard-Widgets und dem TrueCost Explorer aufrufen.

Auf der Grundlage der unternehmensspezifischen Kubernetes-Labels können Anwender Business Mappings erstellen und optimieren, um Kostenstrukturen und Geschäftseinheiten zu definieren, die widerspiegeln, wie das Unternehmen Chargebacks mit Kostenstellen abwickelt.

Weitere Informationen zu Cloudability finden Sie auf der Apptio–Webseite.

Für Fragen zu Cloudability wenden Sie sich bitte gerne an mich. 

]]>
TBM