Dummy Title http://example.com en-gb TYPO3 News Wed, 18 Jan 2023 17:03:04 +0000 Wed, 18 Jan 2023 17:03:04 +0000 TYPO3 EXT:news news-95 Wed, 21 Dec 2022 10:44:11 +0000 Vom IT-Monitoring zur Business Observability https://www.amasol.de/blog/detail-page/vom-it-monitoring-zur-business-observability Der Schritt vom Monitoring zur Observability ist dringend erforderlich, denn anders können Unternehmen eine komplexe IT kaum noch ohne markante Störungen betreiben, um für eine angemessene Performance und User-Experience zu sorgen. Mit dem Versäumen eines Wechsels begeben Unternehmen sich mittlerweile in eine ernsthafte existenzielle Gefahr. Die größte Herausforderung der IT ist immer noch die Komplexität der hybriden Systeme. In Deutschland ist die Anzahl der Unternehmen, die zur Nutzung von Clouds übergegangen sind, zwischen 2011 und 2022 von 28 % auf ganze 84 % gewachsen*. Parallel führte die Transformation zur Integration von immer mehr diversen Services, Warenwirtschaftssystemen oder Onlineshops – und damit zu extrem heterogenen Systemlandschaften. Es entstanden zahlreiche Datensilos, während die Datenmengen in den Terrabytebereich wuchsen, ohne dass sie bisher horizontal integriert worden wären. Auch die Frequenz der Deployments zur Einführung neuer Anwendungen oder Services erhöhte sich stark. Parallel zu diesen Entwicklungen der digitalen Transformation aber blieben die Ressourcen für ein umfassendes, zuverlässiges Monitoring der IT begrenzt. So wurde es zu einer extrem komplexen Aufgabe, denn immer mehr Vorgänge sind zu überwachen, immens viele potenzielle Schwachstellen gefährden den reibungslosen Betrieb und eine stabile Performance. 

Die Unternehmen versuchen noch, den Herausforderungen durch singuläre intelligente Überwachungen wie Cloud-, Network- oder Server-Monitoring zu begegnen – aber dieser Ansatz reicht nicht mehr aus. Er bindet jede Menge personeller Ressourcen für das Finden von Fehlerquellen und das Besorgen der jeweiligen Lösungen. Und oftmals dauert das Beheben der Ursachen von Störungen nicht Stunden, sondern Tage. So entsteht zum Beispiel eine schwache Performance mit langen Ladezeiten oder anderen Komplikationen. Gerade im Bereich des E-Commerce aber gilt: Jeder Klick zählt. Besonders hier wurden die Erwartungen der Kund*innen oder Nutzer*innen mit dem Fortschritt der Digitalisierung immer höher. User, die ein langsames Laden von Seiten oder Dysfunktionen in Kauf nehmen müssen, steigen ganz einfach aus oder löschen sogar Applikationen. Deshalb ist ein Übergang zur Observability sehr dringend nötig. Was kann sie zur Steigerung der Performance beitragen, was leistet das Konzept? 

Wir kommen mit dem Monitoring aus einer Welt von Incidents, Listen einzelner Vorkommnisse, vergleichbar mit herkömmlichen Staumeldungen: Man weiß, wo es welche Störungen gibt, aber den erhaltenen Informationen mangelt es an Aussagekraft – und die Erkenntnis über das Ausmaß der jeweiligen Probleme ist vage. Entsprechend lange dauert es, eine sinnvolle Entscheidung zu treffen, zum Beispiel, ob man auf derselben Autobahn bleiben oder seine Route ändern sollte. 

Der umfassende Ansatz der Observability führt weiter: Ihre Ergebnisse sind zu vergleichen mit denen, die wir beim Reisen oder auf dem Weg ins Büro von einem Navigations-System erhalten. Sie bietet einen Überblick aller wichtigen Faktoren in Echtzeit: die Höhe des Verkehrsaufkommens, Unfälle, Staus, eine Verzögerungsanalyse – und eine dynamische Routenführung. Alles ist auf einen Blick sichtbar. So erhalten wir eine verbindliche Orientierung in Echtzeit – und sinnvolle Entscheidungen für eine relativ zügige Weiterfahrt sind möglich.

Mit Observability erhält man anhand von Metriken, Logs und Traces alle relevanten Leistungsdaten von IT-Architekturen in Echtzeit auf einen Blick. Die Metriken liefern ein Bild vom Zustand des gesamten Systems. Logs liefern detaillierte Informationen für die Rekonstruktion von Transaktionen oder die Analyse von Störungen. Mithilfe von Traces werden User-Aktivitäten sichtbar und Fehler lassen sich sowohl identifizieren als auch beheben. Durch das gezielte Erfassen sämtlicher Komponenten eines Systems erhält man – auch mithilfe von AIOps-Lösungen – alle relevanten Informationen, um für eine Steigerung der Performance einer Website oder die Stabilität von Anwendungen und Diensten zu sorgen. 

Mit dem herkömmlichen Monitoring erfahren wir nur, dass Störungen vorliegen und Schwellenwerte überschritten werden. Observability hingegen zeigt uns auch, warum etwas nicht funktioniert. Es werden nicht nur Unregelmäßigkeiten angezeigt, sondern auch deren Ursachen werden klar und damit kann wertvolle Zeit für das Beheben von Störungen eingespart werden. 

Die Mercedes-Benz Group AG zum Beispiel analysiert mittlerweile im Bereich Aftersales zahlreiche ihrer global relevanten Dienste in Echtzeit. Das Unternehmen kann so auf kritische Ereignisse unmittelbar reagieren. Die Basis dieser „data-driven decisions“ sind aktuelle, verbindliche Daten zur Verfügbarkeit und Stabilität der Informationskette. Observability hilft hier auch dabei, die Zusammenarbeit von internen und externen Kräften zu optimieren. Die IT-Mitarbeiter*innen gewinnen ein Verständnis von Zusammenhängen und werten „Vorwarnungen“ aus. Sie handeln mittlerweile rechtzeitig, und zwar bevor Teile des Systems ausfallen. Die Fehlermeldungen mehrerer Tools und Datenquellen werden an einer zentralen Stelle erfasst und mithilfe von KI-Lösungen (AIOps) zu Situationen verdichtet. Die Alarme sind so von ganzen 3,1 Millionen Events auf lediglich 122 Situationen reduziert worden! Die Effekte liegen auf der Hand: Durch Observability wird seitens des Unternehmens eine große Menge an Zeit und Kosten eingespart für die Stabilität und Verfügbarkeit der Dienste – entscheidend aber ist die Steigerung der Profitabilität. 

Eine Investition in Observability ist für zahlreiche Unternehmen heute unerlässlich, ein Verharren in einer Welt von diversen unterschiedlichen Tools für vielfältige Aufgaben des Monitorings aber ausgesprochen fahrlässig. 

 

*Quelle: Statista 

 

]]>
APM
news-93 Tue, 20 Dec 2022 10:45:10 +0000 SecOps – ein geschäftskritischer Faktor https://www.amasol.de/blog/detail-page/secops-ein-geschaeftskritischer-faktor Die ernsten Bedrohungen von Behörden und Unternehmen durch Cyber-Angriffe werden immer zahlreicher, ausgereifter – und damit sehr viel gefährlicher. Der deutschen Wirtschaft entsteht laut bitkom ein Schaden von nicht weniger als 203 Milliarden Euro pro Jahr. 2022 haben die Attacken zugenommen und 45 Prozent der Unternehmen fürchten, dass sie ihre geschäftliche Existenz bedrohen können – 2021 waren es noch 9 Prozent. SecOps, ein kontinuierliches Security Monitoring in Realtime mit automatisiertem Detection- und Response-Management, wird zur Sicherung von Unternehmen unabdingbar. Jagden auf User-Daten und Passwörter, Phishing und die Infizierung mit Schadsoftware (Malware), Schäden durch Viren und Ransomware – die Folgen von Cyber-Angriffen reichen von Ausfällen einzelner Anwendungen und Systembereiche über den Verlust von wertvollstem Know-how und sensiblen Informationen bis hin zum tagelangen Shutdown der gesamten IT. Doch immer noch fragen sich die Verantwortlichen in den Unternehmen, welches Monitoring heute infrage kommt, um hybride IT-Infrastrukturen zu schützen, Risiken rechtzeitig zu erkennen und Vorfällen durch Angriffe möglichst schnell begegnen zu können. Dabei ist längst klar, dass es heute im Bereich des Monitorings ohne eine ausgereifte Observability, das Performance-Management von Systemen und deren Überwachung in Realtime kaum noch möglich ist, eine IT-Landschaft stabil und sicher zu betreiben.

In Sachen Sicherheit ist aber meist noch der reaktive Umgang mit Cyber-Bedrohungen die Regel. Überwacht und geschützt wird das eigene Netzwerkperimeter etwa durch Firewalls, Systeme zur Prävention unbefugten Eindringens (Intrusion-Prevention-Systeme, IPS) und zum nachträglichen Aufspüren von Eindringlingen (Intrusion-Detection-Systeme, IDS), Web-Filter und nachgelagerte Malware-Scanner.

Doch allein die Entwicklung von Ransomware-Angriffen zeigt, dass die alten Bollwerke mit ihren Präventionsansätzen keine effektive Sicherheit mehr gewährleisten. Zu diversen Ereignissen fehlen detaillierte, kontextbezogene Informationen, eine Schatten-IT sowie unbekannte IT-Ressourcen sind im Einsatz, es bestehen Risiken – verursacht durch Dritte über Lieferketten oder andere Informationswege – und eine mangelnde Überschaubarkeit sämtlicher Ereignisse sowie kausaler Abhängigkeiten verschiedener Systembereiche führen zu gefährlichen Security-Whitespots. Zudem verfügen viele Unternehmen nicht über die erforderlichen technologischen und personellen Ressourcen, um komplexe IT-Systeme angemessen zu überwachen. Die Gefahren aber erfordern eine permanente Aufmerksamkeit. Denn die globale Vernetzung bringt rund um die Uhr eine globale Bedrohung mit sich. Deshalb ist heute nicht nur sehr viel mehr Transparenz im Hinblick auf Sicherheitslücken in den Unternehmen erforderlich, sondern jede Anomalie sollte in Echtzeit erkannt und zugleich eliminiert werden – ohne nennenswerte Verzögerungen.

Eine Lösung für diese komplexe geschäftskritische Herausforderung ist XDR – Extended Detection & Response. Dieser Observability-Ansatz im Bereich der IT-Sicherheit sorgt für das kontinuierliche Monitoring eines Netzwerks und sämtlicher Endgeräte hinsichtlich der Entdeckung und aktiven Behandlung akuter kritischer Vorfälle.

Dabei wird in einem Security Operations Center (SOC) eine Sammlung aller in einer Infrastruktur aufgekommenen Incidents und Events vorgenommen. Eine verhaltensbasierte Netzwerküberwachung und -forensik (Network Detection & Response – NDR) sorgt für die Reaktion auf sicherheitsrelevante Unregelmäßigkeiten, sobald sie innerhalb des Perimeters vorkommen. Jeder Vorfall wird genau bewertet und entsprechend der vorgefundenen Sicherheitsrisiken erfolgt ein passender Incident Response zu seiner akuten Bekämpfung. Diese Echtzeitüberwachung wird parallel auf sämtliche angebundenen Endgeräte erweitert (Endpoint Detection & Response – EDR). Auf externen PCs in Homeoffices, Laptops, Tablets oder Smartphones sorgt ebenfalls ein verhaltensbasiertes Incident- und Event-Monitoring für Transparenz und Sicherheit.

Diese zeitgemäße SecOps-Lösung ermöglicht erheblich effektivere Überprüfungen und entsprechende Stabilisierungen der Systeme als herkömmliche Präventionslösungen. XDR umfasst die Überwachung sämtlicher IT-Komponenten vom Endpunkt über Netzwerk-Sensoren bis hin zu Cloud-Instanzen und Microservices. Um die Sicherheit permanent zu gewährleisten, werden außerdem regelmäßig Angriffe auf die IT fingiert, um immer wieder möglichst alle potenziellen Schwachstellen auszuschließen. Durch den Einsatz von AI-Lösungen und Machine Learning können sich die Mitarbeiter*innen im SOC auf das Wesentliche wie zum Beispiel unklare Ereignisse im System konzentrieren. So werden Ausfälle von Anwendungen deutlich reduziert und Unterbrechungen des Betriebs nahezu ganz vermieden.

Ein Energieversorger zum Beispiel hatte es seinen einzelnen Abteilungen überlassen, in ihren jeweiligen operativen Rollen individuelle Lösungen für die Sicherheit zu entwickeln und zu implementierten. Nach einer strategischen Überprüfung beschloss die Geschäftsleitung, die Funktionen in einem SOC zu konsolidieren. So konnte in einem hochkomplexen Workflow eine ausgesprochen große Transparenz hergestellt werden, um akute Sicherheitsprobleme in Echtzeit aufzuspüren und darauf präzise zu reagieren.

Durch XDR konnte ein Versicherer nach der Entdeckung einer Log4Shell-Schwachstelle in kürzester Zeit rund 250 „Log4Shell JNDI Injection Attempts“ auf seinen Systemen identifizieren und dann beseitigen, um einen enormen potenziellen Schaden rechtzeitig auszuschließen.

Konsequent wäre es, wenn Unternehmen heute nach der Einführung von Observability und SecOps alle relevanten Aspekte einer Sicherheit in Echtzeit schon während der Entwicklung und Einführung neuer Dienste in den Betrieb berücksichtigen würden. DevSecOps beschreibt einen kulturellen Wandel, der eben beginnt: Die Lücke zwischen Entwicklungs-, Betriebs- und Security-Teams schließt sich. So wird mit Observability sowie Extended Detection und Response die Handlungsfähigkeit sowohl für den reibungslosen Betrieb als auch die Unternehmenssicherheit stark verbessert.

 

Quelle: https://www.bitkom.org/Presse/Presseinformation/Wirtschaftsschutz-2022

 

]]>
SecOps
news-90 Tue, 29 Nov 2022 14:53:43 +0000 Bessere Datenanalyse, höherer Innovationsgrad, mehr Umsatz https://www.amasol.de/blog/detail-page/bessere-datenanalyse-hoeherer-innovationsgrad-mehr-umsatz Auf diesen einfachen Nenner lassen sich die Ergebnisse einer aktuellen, von der Firma Splunk in Auftrag gegebenen weltweiten Umfrage unter Fach- und Führungskräften zusammenfassen. Grundlage für die Umfrage mit dem Titel „The Economic Impact of Data Innovation 2023“ ist die Erkenntnis, das jedes Unternehmen heute vor der essenziellen Herausforderung steht, die Kundenbedürfnisse und -erwartungen in einem immer stärker wettbewerbsorientierten Markt mit immer komplexeren Technologien zu erfüllen. Die präzise und zeitnahe Analyse einer immer größeren Masse an verfügbaren Daten wird damit immer häufiger zum Problem, für das es eine Lösung geben muss. Data Innovation: Datenanalyse als Grundlage für neue Geschäftsprozesse

Im Mittelpunkt der Studie stand der Begriff „Data Innovation“. Die Marktforscher*innen legten für die Umfrage folgende Definition dafür fest: „Die Konzeption und Umsetzung neuer bzw. die fundamentale Veränderung bestehender Geschäftsprozesse durch den Einsatz neuer Methoden zur Datenanalyse und das Nutzen neuer Datenquellen, auf die das Unternehmen bisher keinen Zugriff hatte.“

Ausgehend von dieser Definition wurden dann drei Unternehmenstypen klassifiziert:

  • Anfänger (Beginners)
  • Fortgeschrittene Anfänger (Intermediates)
  • Vorreiter (Leaders)

Diese wurden wiederum in Bezug auf ihre Data-Innovation-Reife (data innovation maturity) nach sechs Kriterien beurteilt:

  • Datenklassifizierung
  • Datenaggregierung
  • Datenqualität
  • Datenanalysekompetenz
  • Datenanalysetools
  • Daten-Monitoring

 

Die wichtigsten Ergebnisse

Das wichtigste Ergebnis zuerst: Die Data-Innovation-Vorreiter erzielen einen um 9,5 % höheren Bruttogewinn! Weitere Ergebnisse der „Leader“ im Vergleich zu den „Intermediates“ und „Beginners“:

  • 95% der Vorreiter gaben an, dass sie die Enrwicklungsgeschwindigkeit von Anwendungen verbessert haben (im Vergleich zu 76% bei den Anfängern).
  • 95% der Vorreiter haben die Entwicklereffizienz erhöht (versus 71% bei den Anfängern).
  • 95% der Vorreiter haben die Anwendungsfunktionalität verbessert (76% bei den Anfängern).
  • 93% der Vorreiter erzielten einen Schub bei der Anwendungs-Performance (versus 78% bei den Anfängern).

Dies wirkte sich laut den Umfrageautor*innen direkt auf die Kundenbeziehungen aus. Folge waren:

  • eine höhere Markenloyalität (48% der Vorreiter versus 30% der Anfänger),
  • ein höherer Customer lIfetime Value (49% vs. 30%),
  • eine höhere Kundenzufriedenheit (53% vs. 43%),
  • eine höhere Empfehlungsrate (45% vs. 22%).

„Daten sind der Treibstoff des 21. Jahrhunderts. Die Ergebnisse der Splunk-Umfrage unterstreichen einmal mehr diese These", erklärt Frank Jahn, Vorstand und CSO bei amasol. „Doch nur wer in der Lage ist, das volle Potenziel aus den verfügbaren Daten zu schöpfen und dabei auch riesige Mengen an Daten aus unterschiedlichsten Quellen anzuzapfen, wird diesen in mittlerweile jedem Unternehmen verborgenen Schatz auch heben. Datenklassifiezierung und -aggregation und deren Analyse mit den richtigen Methoden und Tools sind dabei der Schlüssel zum Erfolg."

]]>
ITOA
news-89 Tue, 29 Nov 2022 14:36:58 +0000 Untersuchungen zum Beitrag von AIOps zum IT Operations Management - Teil I https://www.amasol.de/blog/detail-page/untersuchungen-zum-beitrag-von-aiops-zum-it-operations-management-teil-i Die meisten Menschen werden, wenn sie den Begriff „künstliche Intelligenz“ oder auch seine Abkürzung „KI“ hören, wohl an ihre Lieblings-Science-Fiction-Story aus einem Film oder Buch denken. Oft dreht sich die Story um eine künstliche Intelligenz, die rebelliert und der Menschheit gefährlich wird. So weit ist KI heutzutage in der Realität zum Glück noch nicht. Der Einsatz von KI treibt den menschlichen Fortschritt in der Forschung und Technik immer wieder stark an: Autos, die selbst fahren, Sprachen verarbeitende Geräte, die Gespräche mit Menschen führen können, Algorithmen, die aus Erfahrungen lernen und wichtige Entscheidungen so schnell treffen können, wie dies für einen Menschen nicht möglich wäre. Diese Liste ist nur eine kleine Auswahl an Beispielen, wie KI zum Fortschritt in diversen Feldern eingesetzt wird. So ist es auch keine Überraschung, dass sich die Wirtschaft stark mit diesem Thema beschäftigt, um durch den Einsatz von KI in Unternehmen Vorteile zu erreichen. In der heutigen digitalen Welt ist die IT aus vielen Unternehmen nicht mehr wegzudenken und so beschäftigen viele auch eigene IT-Abteilungen, um sämtliche Prozesse und Vorgänge der IT mit der notwendigen Aufmerksamkeit und dem entsprechenden Know-how zu managen. Diese Operationen decken verschiedene Felder wie zum Beispiel das Usermanagement, das Management der gesamten Infrastruktur oder das Verwalten von digitalen Geschäftsprozessen des Unternehmens ab, sodass diese ohne Unterbrechungen durchgeführt werden können. Der erfolgreiche Umgang mit diesen Operationen kann, je nach Unternehmensgröße, sehr umfangreich gestaltet sein und ist eine Voraussetzung für die Vermeidung von Schäden und Extrakosten. Auch die Daten, mit denen dabei umgegangen wird, wachsen kontinuierlich enorm an, wodurch sich die Komplexität der IT und deren Anforderungen stetig erhöht: Hier spricht man von „Big Data“. In diesem Zusammenhang ist das Feld des AIOps entstanden. AIOps ist eine Kombination aus den Begriffen „Artificial Intelligence“ (Abkürzung: AI) und „IT Operations“, also künstliche Intelligenz und IT-Operationen. Es geht um die Anwendung von KI auf Operationen in der IT, um diese zu verbessern und effizienter zu gestalten.

AIOps ist ein relatives junges Feld, jedoch nehmen seine Beliebtheit und Bekanntheit stetig zu, da die Entwickler*innen und der Vertrieb von AIOps-Lösungen genau das versprechen, was es für Unternehmen so interessant macht: durch den Einsatz von AIOps mit den stark steigenden Anforderungen und hoher Komplexität in der IT zurechtzukommen.

AIOps ist im Allgemeinen nicht nur die Idee oder ein Lösungsansatz in der IT, sondern steht auch für die AIOps-Tools und -Plattformen, welche die Features und Lösungsansätze mit sich bringen. Der Begriff selbst existiert erst seit Kurzem. Künstliche Intelligenz half bereits seit den 1980ern, die Bedürfnisse von Unternehmen zufriedenzustellen. Ein Unterbereich der KI, Machine Learning, erhielt jedoch erst im 21. Jahrhundert mehr Aufmerksamkeit als Unterstützung für Geschäftsprozesse. Dabei entwickelte sich der Bereich der „IT Operations Analytics“, kurz ITOA. Das Problem an ITOA war, dass die Analysen auf vergangenen Daten beruhten, was es sehr statisch machte und zu Problemen mit dynamischen Infrastrukturen wie Cloud- oder Virtualisierungstechnologien (Container, virtuelle Maschinen und virtuelle Netzwerke) führte. Aus dem Bedürfnis, auch diese modernen und agilen Infrastrukturen zu überwachen und besser mit Echtzeitdaten umgehen zu können, entwickelte sich das Feld AIOps, bei dem nun auch Machine Learning mehr in den Fokus rückte.

Eines der im IT-Bereich relevantesten Forschungs- und Beratungsunternehmen, Gartner, hat den Begriff „AIOps“ zum ersten Mal im Jahr 2017 benutzt, um zu beschreiben, wie mit dazugehörigen Tools IT-Operationen – durch Anwendung von Analysen und Machine Learning auf sogenannte „Big Data“ – automatisiert und verbessert werden sollen. Gartners genaue Definition lautete: „AIOps platforms utilize big data, modern machine learning and other advanced analytics technologies to directly and indirectly enhance IT operations (monitoring, automation and service desk) functions with proactive, personal and dynamic insight. AIOps platforms enable the concurrent use of multiple data sources, data collection methods, analytical (real-time and deep) technologies, and presentation technologies“.

Im Market Guide für AIOps erwähnt Gartner außerdem, dass das Ziel von AIOps sei, die Qualität von aufgenommenen Daten zu verbessern, sodass Infrastruktur- und Operationsleader diverse Use-Cases mit angemessenen Maßnahmen betreiben können. Auch stellt Gartner eine Grafik zur Verfügung, um diese Definition zu unterstützen und den Einsatz von AIOps-Plattformen im IT-Operations-Management darzustellen (siehe Abbildung 1).

 

Market Guide for AIOps Platforms

 

Im technischen Mittelpunkt der AIOps-Plattformen stehen deren drei sogenannten Säulen:

  • KI
  • Machine Learning
  • Big Data

 

Auf diese drei Säulen bauen wiederum die drei Hauptfunktionen von AIOps auf, die kontinuierlich und simultan durchlaufen werden:

Hierbei geht es darum, sämtliche Daten, die in das AIOps-Tool fließen, richtig zu analysieren und daraus den Status von überwachten Systemen abzuleiten sowie Zusammenhänge und mögliche Gefahren festzustellen. Da dies in Echtzeit passiert, kommt hierbei Machine Learning zum Einsatz. Es ist unmöglich, bei solch gewaltigen Datenmengen Anomalien, Zusammenhänge zwischen Daten oder den Kontext manuell zu erkennen. Ein wichtiges Ziel dieser Funktion ist die deren schnelle Erkennung. Dies hilft enorm bei der Feststellung der Grundursache eines Problems und ermöglicht einen effizienten Umgang damit sowie dessen zukünftige Vermeidung.

  • Beobachten (observe)

In dieser Funktion geht es um das Einbetten von AIOps in das IT-Servicemanagement (ITSM) des Unternehmens. Eine solche Plattform muss mit dem bestehenden ITSM des Unternehmens integriert und synchronisiert werden, sodass auf Änderungen, Ereignisse und Abhängigkeiten im System des Unternehmens mit entsprechenden Maßnahmen reagiert werden kann.

  • Einbetten in ITSM (engage)

Auch werden Vorgänge automatisiert, um Abhilfe bei Problemen zu schaffen, ohne dass für jedes Anliegen menschliches Eingreifen benötigt wird. So kann zum Beispiel ein bestimmtes Skript automatisch vom Tool als Antwort auf ein bekanntes Problem eingesetzt werden, um dieses schnell und effektiv zu beseitigen.

Auch werden Vorgänge automatisiert, um Abhilfe bei Problemen zu schaffen, ohne dass für jedes Anliegen menschliches Eingreifen benötigt wird. So kann zum Beispiel ein bestimmtes Skript automatisch vom Tool als Antwort auf ein bekanntes Problem eingesetzt werden, um dieses schnell und effektiv zu beseitigen.

  • Handeln und Automatisieren (act)

Durch den richtigen Einsatz von AIOps in der IT soll vor allem ermöglicht werden, mit der hohen Komplexität und den steigenden Anforderungen in der IT durch Flexibilität zurechtzukommen. Durch diese verbesserte Effizienz im Umgang mit den Daten werden auch Kosteneinsparungen entstehen (Gartner, 2022). Durch diese Vorteile wird AIOps für jedes Unternehmen zu einem interessanten Thema.

 

ITOM - IT Operations Management

AIOps soll vor allem dem IT Operations Management (ITOM) zur Seite stehen. Was genau wird jedoch unter diesem Begriff verstanden? Unternehmen und deren Kunden sind heutzutage so abhängig vom sofortigen Zugriff auf IT-Komponenten, dass selbst kürzeste Ausfälle enorme Konsequenzen und Kosten zur Folge haben können. Diese Ausfälle durch richtiges Management der IT-Komponenten zu reparieren und zu verhindern, ist Ziel von ITOM.

Nach Gartner wird ITOM-Software wie folgt definiert: „IT operations management (ITOM) software is intended to represent all the tools needed to manage the provisioning, capacity, performance and availability of computing, networking and application resources — as well as the overall quality, efficiency and experience of their delivery“.

Eine genaue Abgrenzung des Umfangs der Funktionen und Verantwortlichkeiten von ITOM existiert nicht. Viele Hersteller von ITOM-Software definieren den Umfang unterschiedlich, je nach ihrem Angebot, jedoch sind sich viele bei den drei allgemeinen Bereichen einig. Hierbei hat BMC Software ein Whitepaper von Sudip Sengupta über ITOM und ITSM veröffentlicht, das genauer auf ITOM und dessen Funktionen eingeht. BMC ist eine der größten Firmen im Bereich von IT-Service-Tools. Diese drei Funktionsbereiche und diverse Beispiele sind nach BMC:

  • Management der Netzwerkinfrastruktur des Unternehmens: effizientes Port-/Protokollmanagement, Management der gesamten internen und externen Netzwerkkommunikation, Zugangsmanagement für autorisierte Nutzer
  • Management der allgemeinen IT-Infrastruktur des Unternehmens, also von Hardware, Servern, Anwendungen und Arbeitsplatzgeräten: Bereitstellen, Konfigurieren, Management und Warten von Servern, virtuellen Maschinen, Laptops und ähnlichen relevanten Geräten der Unternehmensumgebung, Uptime von Servern, Anwendungen und Geräten sicherstellen, Verwaltung von Datenspeichern / Email- und Dateienservern, Patches und Upgrades von Servern durchführen
  • Help-Desk-Operationen: First-Level-Support, Nutzerprofile bereitstellen, Backups anfordern, Management von Wiederherstellung im Desaster-Fall

 

Diesem Whitepaper zufolge verspricht ITOM durch diese Funktionen unter anderem folgende Vorteile:

  • Verbesserte Verfügbarkeit von Services
  • Bessere Kunden- und Nutzererfahrung
  • Minimale Downtimes
  • Verringerte Kosten von Operationen durch reguläre Überwachung

 

Gartner beschreibt IT-Operationen in ihrem Market Guide genauer. So sind die Aufnahme von Metriken und Logs sowie von Analysen die primären Voraussetzungen für die zugehörigen Teams. Am Anfang steht die Eventkorrelation, erweitert auf die Analyse von Metriken und Logs, gefolgt von Analysen zum Verhalten von Systemen und Nutzern. Die Ziele hierbei sind:

  • Die Entdeckung von Anomalien
  • Die Analyse von Problemursachen
  • Diagnostische Informationen

 

Noch dazu kann es Use-Cases geben, die Automatisierungen beinhalten, wie die Durchführung von Skripten oder automatischen Workflows.

Nachdem in diesem Artikel der theoretische Hintergrund zum Thema AIOps erläutert wurde, sollen die folgenden genauer auf AIOps-Plattformen eingehen. Nicht nur, wie diese aufgebaut sind und welche Ziele mit diesen erreicht werden sollen, sondern auch, welche Anforderungen sie erfüllen müssen und welche Voraussetzungen Unternehmen für den Einsatz dieser beachten sollten – aber auch, welche Risiken dadurch entstehen.

 

]]>
ITOA ITIM
news-87 Fri, 18 Nov 2022 14:02:48 +0000 „Wir wollen weniger kontrollieren und mehr unterstützen“ https://www.amasol.de/blog/detail-page/wir-wollen-weniger-kontrollieren-und-mehr-unterstuetzen Die WienIT betreibt für die Stadtwerke Wien und ihre Tochterunternehmen Infrastruktur, Applikationen und Services. Das reicht von Netzen und Servern über Back-End-Applikationen in der Cloud und On-Prem bis hin zu echten Spezialanwendungen und Services, die die Endkunden der Töchter über das Web beziehen. Ehrgeiziges Ziel der Wiener: eine einheitliche Monitoring-Plattform für die gesamte IT-, Applikations- und Service-Landschaft der Wiener Stadtwerke. Die WienIT steckt noch mittendrin im größten Monitoring-Projekt der Geschichte, sieht sich aber auf einem guten Weg. Außerdem sei Dynatrace auf über 1.300 Server der WienIT ausgerollt und habe praktisch out of the box funktioniert. „Bei den Servern lag der Nachbereitungsaufwand bei deutlich unter einem Prozent“, berichtet Monitoring-Projektleiter Georg Grabler.

Monitoring auch für die Cloud und Kubernetes

Zu dem Projekt war es gekommen, weil die WienIT ein neues, modernes Infrastruktur-Monitoring brauchte, das auch mit Services aus der Cloud und mit Kubernetes-Services umgehen kann. „Allerdings haben wir und unsere Kunden sehr schnell gemerkt, dass wir auch für die Services und Applikationen ein Monitoring benötigen, die die WienIT für sie betreibt“, sagt Grabler. Das gilt auch für die Services, die die Endkund*innen der Stadtwerke-Töchter nutzen, zum Beispiel der städtischen Verkehrsbetriebe Wiener Linien, des städtischen Energieversorgers Wien Energie oder der Friedhöfe.

Außergewöhnlicher Projekt-Scope

Das mithilfe von amasol als Implementierungspartner und der Monitoring-Lösung Dynatrace vorangetriebene Projekt ist auch deshalb ehrgeizig, weil es bisher nur wenige Beispiele für eine so umfassende Monitoring-Lösung gibt. Sehr häufig werden in den verschiedenen Bereichen unterschiedliche Tools eingesetzt, die die jeweils Verantwortlichen mit entsprechenden Performance- und Verfügbarkeitsinformationen versorgen. „Aber wir wollten keine zwei oder drei verschiedenen Systeme miteinander integrieren, wir wollten unbedingt eine Plattform und so haben wir das schlussendlich auch ausgeschrieben“, erzählt Grabler.

Eine Standardsoftware kann nicht alles können

Dabei sei man sich durchaus bewusst gewesen, dass eine Standardsoftware wie Dynatrace nicht für jede von den Konzerntöchtern genutzte Spezialapplikation aus dem Stand heraus Performance-Daten liefern könne. Auch im Bereich der Netzinfrastruktur habe man zum Teil erheblich nacharbeiten müssen. „Man merkt schon, woher Dynatrace kommt. Aber die Software ist unserer Ansicht nach die einzige der Monitoring-Lösungen, die wir uns angeschaut haben, die überhaupt eine solche Bandbreite von Infrastruktur bis hin zu Endkunden-Webservices abdecken kann“, erklärt der Projektleiter der WienIT.

Bei der Auswahl der Plattform verfolgt die WienIT vor allem folgende Ziele:

  • Komplette Implementierung der Steuerung der Plattform über API
  • Erweiterung der Überwachungslösung auf Endpunkten mit eigenen Scripts und Metriken
  • Einbindung eigener Softwareprodukte mittels SDK (Java, .NET, NodeJS)
  • Anbindung anderer Systeme (SAP Solution Manager, Prometheus, BMC Remedy, Jira)
  • Integration bzw. regelmäßiger Export von Daten in das Datawarehouse sowie die Big-Data-Plattform der WienIT

Größte Herausforderungen: Organisation und Change-Management

Man stecke noch mitten im Projekt, betont Grabler, bis auf einige Produktschwächen im Umgang mit Spezialanwendungen und Netzwerkinfrastruktur sei die WienIT aber sehr zufrieden mit der Monitoring-Lösung. „Wir sehen sehr viel mehr als früher“, betont Grabler. Er kann sich sogar vorstellen, dass die WienIT das Monitoring auch als Service für Applikationen und Services anbietet, die sie selbst nicht betreibt.

Als die größten Herausforderungen, über die er auch in seinem Vortrag auf dem BizOps Forum sprechen wird, sieht der Projektleiter nicht die Technik, sondern die Organisation und das Change-Management. Das habe nichts mit der Funktionalität des Produkts zu tun, betont Grabler. Aber für ihn und seine Kolleg*innen sei es am Anfang schwierig gewesen, die zahllosen Informationen zu bewerten, die das Dynatrace-System bereitstellt. Was ist wichtig, was kann man laufen lassen? Was ist wichtig für die Technik, was ist wichtig für das Business und die Kund*innen? Man wisse, was passiere, wenn ein Load-Balancer ausfalle, aber „wenn ein Interface nicht funktioniert, an dem verschiedene Applikationen hängen, ist das nicht sofort klar“, beschreibt er die Herausforderung. Ebenfalls als nicht einfach empfindet er die Aufbereitung der Dynatrace-Informationen für die verschiedenen Adressat*innen. Welche Informationen braucht der Product Owner zur Performance eines Routenplaners, den die Wiener Linien ihren Kund*innen anbieten? Wie müssen diese Informationen aufbereitet werden, damit sie verstanden werden? Diese Fragen zu beantworten, habe Zeit gekostet.

Insgesamt, resümiert Grabler, müssen Organisationen wie die WienIT und ihre Kund*innen durchaus auf die neue Art des Monitorings vorbereitet werden. Nur dann können sie es verstehen, wenn sie damit in Berührung kommen und können die Ergebnisse auch nutzen. „Dann begreifen unsere Kunden auch, dass wir weniger kontrollieren, sondern sie in ihrer Arbeit unterstützen wollen.“

]]>
BizOps
news-86 Fri, 18 Nov 2022 14:00:09 +0000 „Wir sehen jetzt schon viel mehr als früher“ https://www.amasol.de/blog/detail-page/wir-sehen-jetzt-schon-viel-mehr-als-frueher Volkswagen Financial Services (VWFS) ist mit zuletzt 16 849 Beschäftigten und einem Ergebnis vor Steuern von rund 3 Milliarden Euro der einer der führenden automobilen Finanzdienstleister und Mobilitätsanbieter in Europa. Die Automobilbank hat vor einem halben Jahr das Monitoring ihrer Private Cloud (PKS) mit Dynatrace neu aufgesetzt und plant jetzt das neue Monitoring auch auf die Legacy-Systeme auszudehnen. Maik Blecker, Verantwortlich für das Projekt und sein Kollege Patrick Kubiak berichten über die bisher gemachten Erfahrungen. Wie bei anderen Banken und Finanzdienstleistern betreibt VW FS ein fast komplett digitales Geschäft. Mit dem großen Unterschied, dass jedes Autohaus des VW-Konzerns quasi eine Filiale von VW FS ist. Sie wickeln ihre Finanzierungs- und Leasingangebote über die VW FS ab. Aber auch die Finanzierungsangebote an Privatleute, die sich über die verschiedenen Car-Konfiguratoren ihre Autos zusammenstellen, bekommen Online-Finanzierungsangebote direkt aus Braunschweig Das nur, um zu zeigen, wie groß und wie komplex die Applikationen und Services der VWFS sind. Wenn die nötigen Systeme nicht einem strengen Monitoring unterworfen sind und Ausfälle beziehungsweise Engpässe auftreten, können innerhalb kurzer Zeit Schäden entstehen, die negative Effekte auf den Geschäftsbetrieb haben.

Monitoring in der Private Cloud umgestellt

Vor rund einem Jahr hat VWFS in Abstimmung mit dem VW-Konzern begonnen, das Monitoring ihrer Private Cloud auf das Dynatrace-System umzustellen. „Das alte System“, berichtete Maik Bleker „stieß damals an seine Grenzen, kam nicht wirklich gut mit Cloud-Services und Kubernetes zurecht und der Anbieter bot von unserer Version keinen Migrationspfad auf das modernere Nachfolgesystem an.“ Man hätte also, auch wenn man in der alten Welt geblieben wäre, einen ähnlich hohen Aufwand betreiben müssen, wie bei einem Umstieg auf ein komplett neues System. Das hat dazu geführt, dass noch einmal grundsätzlich über das Monitoring-System nachgedacht wurde. Schließlich entschied man sich für Dynatrace. „Für uns und das Operations Team lagen die Vorteile auf der Hand: Wir benötigen nur noch einen Agenten, der alles abgreifen kann. Außerdem ist der Rollout mit Dynatrace sehr viel schlanker. Darüber hinaus kann Dynatrace auch Logfiles, dafür mussten wir bis dahin ein eigenes Tool einsetzen“, erzählt Blecker einige der Gründe auf, die zu der Entscheidung im Unternehmen geführt haben.

Performance von Kern-Applikation Leasing wird von Dynatrace geprüft

Inzwischen wird eine der Kernanwendungen von VWFS, die Leasing-Applikation, komplett mit Dynatrace gemonitort. Obwohl die Umstellung in erster Linie als Lift and Shift bewerkstelligt wurde, also bisherige Funktionalität im neuen Tool abgebildet wurde, ist Blecker sehr angetan: “Wir sehen jetzt schon sehr viel mehr als früher.“ Dynatrace produziere sehr viel Daten in Echtzeit, die die Überprüfung der Operations sehr viel einfacher und effizienter mache. „Wir haben heute mehr Stabilität“, erklärt der Projektleiter. Er hebt besonders hervor, dass Dynatrace viele einzelne Events zusammenfasst und so nicht jede kleine Abweichung meldet. Erst wenn tatsächlich ein Eingriff notwendig werde, melde das System ein Problem. „Das ist für unsere Leute eine enorme Erleichterung.“

Im Paradigmenwechsel zwischen klassischem ITOps und AIOps

Regelrecht ins Schwärmen geraten die beiden ansonsten sehr nüchtern und rational argumentierenden Monitoring-Spezialisten, wenn es um die AI-Unterstützung des neuen Werkszeugs geht. „Die Root Cause Analysis, mit ihren Vorschlägen zu den Ursachen für Engpässe oder schlimmstenfalls Ausfälle ist eine große Hilfe“, meint Blecker. Sein Kollege Patrick Kubiak ergänzt: „Erstaunlich ist auch, dass wir praktisch keine Akzeptanzprobleme bei den Vorschlägen der AI hatten. Das liegt wahrscheinlich daran, dass die Schlussfolgerung erklärt und nachvollziehbar gemacht wird. Die Leute müssen keiner Blackbox glauben.“ Kubiak sieht VWFS mittendrin im Paradigmenwechsel zwischen klassischem ITOps und AIOps. „Gerade in der Cloud kann man nicht mehr mit statischem Schwellwerten arbeiten. Wir brauchen AI und ML beispielsweise zum Setzen von dynamischen Schwellwerten auf Basis von historischen Daten.“ Für die Zukunft freut sich Kubiak auf mehr übergreifende Integration der verschiedenen Tools, die dann zu einer noch einfacheren Entstörung führen.

Ausrollen auf andere Cloud-Services und auf Legacy-Systeme

Die nächsten Pläne von VWFS in Sachen Monitoring lauten zunächst einmal das Ausrollen von Dynatrace auch für die anderen Applikationen, die auf der PKS-Cloud-Struktur laufen und dann die sukzessive Einbindung von Legacy-Systemen. „Es gibt noch einige Applikationen, die nicht Cloud fähig sind, aber die werden nicht verschwinden. Zurzeit schauen wir uns gerade an, wie wir das Monitoring-Tool auch auf diese Systeme ausrollen können. Da gelten andere Regeln als in der Cloud“, berichtet Blecker.

Blecker und Kubiak sehen sich trotz der Einführung von Dynatrace noch am Anfang der BizOps-Entwicklung. Noch werden die zahlreichen Daten, die Dynatrace in Echtzeit liefert, in erster Linie genutzt, um die riesigen Datenmengen besser beherrschbar zu machen, für insgesamt mehr Stabilität zu sorgen und für eine besseres Operation, Störfälle proaktiv vermeiden und schneller entstören. Dabei spielt natürlich Automatisierung durch AIOps eine wichtige Rolle.

Aber Blecker und Kubiak denken bereits darüber nach, wie sie Logfile-, Klickstream-, Application Security-Analysen und viele andere Funktionen der neuen Monitoring-Lösung auch einsetzen können, damit zum Beispiel Entwickler oder auch Business-Verantwortliche ihre Produkte und Geschäftsprozesse noch weiter optimieren können.

]]>
BizOps
news-85 Fri, 18 Nov 2022 13:57:14 +0000 Wie geht eigentlich BizOps? https://www.amasol.de/blog/detail-page/wie-geht-eigentlich-bizops "Die BizOps-Teams setzen sich aus teilweise sehr unterschiedlichen Kompetenzen zusammen: Hier werden BWLer, ITler, Ingenieure, Data Scientists gebraucht, um alle Aspekte der Aufgabe abzudecken." Wir hatten schon festgestellt, dass BizOps hilft, Geschäftsprozesse und Abläufe zu transformieren (siehe „Was ist eigentlich BizOps?“) und an die Anforderungen digitalisierter Unternehmen anzupassen. Dabei reicht die Arbeit der zentralen BizOps-Teams, die inzwischen in etlichen amerikanischen Tech-Companies etabliert wurden, vom Design von Prozessen und Projekten bis hin zu deren Durchführung. Dazu müssen sie vermessen, analysiert, automatisiert und ganz allgemein optimiert werden.

Wie geht eigentlich BizOps?

Wir hatten schon festgestellt, dass BizOps hilft, Geschäftsprozesse und Abläufe zu transformieren (siehe „Was ist eigentlich BizOps?“) und an die Anforderungen digitalisierter Unternehmen anzupassen. Dabei reicht die Arbeit der zentralen BizOps-Teams, die inzwischen in etlichen amerikanischen Tech-Companies etabliert wurden, vom Design von Prozessen und Projekten bis hin zu deren Durchführung. Dazu müssen sie vermessen, analysiert, automatisiert und ganz allgemein optimiert werden.

US-Tech-Unternehmen haben zentrale BizOps-Teams

Theoretisch klingt das ganz einfach, aber das dann praktisch zu realisieren, ist durchaus eine Herausforderung. Das beschreibt übrigens auch der BizOps-Vordenker Dan Yoo in seinen Beiträgen, die er unter anderem auf LinkedIn veröffentlicht hat. Er hat mit BizOps geholfen, die Mitgliederzahl des Profi-Netzwerks um das Fünffache zu steigern. Auch Dropbox, einer der weltweit größten File-Hosting-Anbieter, hat bereits vor einigen Jahren ein BizOps-Team etabliert, das nach Aussagen des Unternehmens einen großen Anteil am rasanten Wachstum der Company hat.

Verantwortung von Design bis Execution

In Organisationen wie LinkedIn oder Dropbox arbeiten zentrale BizOps-Teams quer zu den Businessbereichen. Sie sind direkt am CEO aufgehängt, oft ist der CEO Teil der BizOps-Initiative. Sie nehmen sich nicht nur Prozesse vor, sondern auch Projekte, und realisieren neue Ideen – immer vom Design bis hin zur Ausführung. Diese Komplettverantwortung für einen Prozess oder ein Projekt führt zu einer viel höheren Durchgängigkeit und Transparenz als bei Prozessen, die arbeitsteilig und von verschiedenen Geschäftsbereichen verantwortet werden. Die BizOps-Teams betrachten Prozesse wie von außen, prüfen, ob sie ihren Zweck erfüllen, zerlegen sie in ihre Einzelteile, verschlanken und optimieren sie so, dass sie nachher effektiver ablaufen, einfacher verändert werden können und neue Kundenbedürfnisse schneller bedienen können. Neue Projekte werden quasi auf der grünen Wiese realisiert, zunächst unabhängig von den bestehenden Geschäfts- und Produktbereichen. Dieses Vorgehen erlaubt einen deutlich höheren Freiheitsgrad, weil es keine Rücksichten nehmen muss auf Bestehendes. Jedes Projekt wird im Grunde gehandhabt wie ein Start-up.

BizOps bleibt ein Traum ohne IT

Die BizOps-Teams setzen sich aus teilweise sehr unterschiedlichen Kompetenzen zusammen: Hier werden Betriebswirtschaftler, ITler, Ingenieure, Data Scientists und Domänen-Experten gebraucht, um alle Aspekte der Aufgabe abzudecken. Gemeinsam sollte diesen unterschiedlichen Know-how-Trägern allerdings sein, dass sie bereits einige Erfahrungen in ihren Fachgebieten gesammelt haben und nachgewiesenermaßen über ihre jeweiligen Tellerränder schauen können.

Doch viele Unternehmen werden sich keine zentralen BizOps-Teams leisten können, deren Mitglieder nichts anderes machen, als neue Projekte anzugehen und Prozesse bis in ihre kleinsten Verästelungen zu zerlegen und neu zusammenzusetzen. Doch auch mit dezentralen BizOps-Teams, die diese Aufgabe zusätzlich zu ihrem normalen Job annehmen, oder sogar einzelnen Experten kann viel erreicht werden – wenn sie denn gehört werden und die Unterstützung von Bereichs- und Geschäftsführung erhalten. Da sind einerseits die entsprechende Führung und Autorisierung der Teams nötig, aber auch die richtig ausgerichtete IT-Infrastruktur und die richtigen Werkzeuge.

So wie Lego oder die Transformers

Denn das schönste Prozess- oder Projektdesign ist nur so gut, wie die ihnen unterliegende IT-Infrastruktur, die Applikationen und ganz entscheidend das IT-Management. Und da sind wir beim IT-Part von BizOps. Um die Anforderungen an schnelle Veränderungen, Einbeziehung sich verändernder Kundenbedürfnisse, Produktions- und Logistikbedingungen erfüllen zu können, ohne dass die Kosten explosionsartig ansteigen, wird eine granulare, weitgehend entkoppelte IT benötigt, die je nach Aufgabe immer wieder anders zusammengesetzt werden kann. Wenn Sie jetzt daran denken, welche unterschiedlichsten „Bauwerke“ Sie in Kindertagen mit Ihrem Legokasten realisiert haben, dann geht das schon in Richtung einer BizOps unterstützenden IT. Doch damit das mit der BizOps IT auch wirklich funktioniert, braucht es eher so etwas wie die „Transformers“. Sie erinnern sich: der Film über die außerirdischen Roboter, die sich in Autos verwandeln können und wieder zurück, je nachdem, was gerade gefordert ist.

]]>
BizOps
news-84 Fri, 18 Nov 2022 13:56:41 +0000 Perform while you transform https://www.amasol.de/blog/detail-page/perform-while-you-transform "Doch BizOps ist viel mehr als ein organisatorischer Ansatz, der Start-ups hilft, sich weiterzuentwickeln. Auch etablierte Unternehmen profitieren davon." Im Prinzip hat BizOps drei Aufgaben: Es ist ein Katalysator für die Zusammenarbeit und puscht Projekte, für die anfangs zu wenig Kapazitäten und Skills im Unternehmen vorhanden sind. Drittens kümmert sich BizOps darum, neue Fähigkeiten und Funktionen auszuprägen. Diese Einschätzung stammt aus berufenem Mund: Yao Chang, Director Business Operations von Intercom, eines amerikanisch-irischen Anbieters von Customer-Messanger-Lösungen. Das 2011 gegründete Unternehmen gehört zum Unicorn-Club, zu dem Start-ups zählen, die mit mehr als einer Milliarde Dollar bewertet werden. Intercom bietet eine Customer Interaction Platform an, zu der intelligente Chat Bots, ein Kundenmanagement- und Analyse-System und eine Support-Plattform gehören. So werden Intercom-Kunden in die Lage versetzt, mit ihren Kunden individualisiert und teilautomatisiert anlassbezogen zu kommunizieren. Dem Endkunden erscheinen Anlass, Art und Ziel der Kommunikation individuell. Intercom versetzt Unternehmen in die Lage, Tausende solcher Interaktionen parallel zu führen.

BizOps befähigt, neue Dinge voranzutreiben

Chang berichtet im Intercom-Blog davon, wie sein Unternehmen mit BizOps eine Unternehmensstrategie entwickelt hat. Dazu wurden klare Schlüssel-Metriken identifiziert, mit denen der Grad der Zielerreichung gemessen werden kann, und es wurde Input von allen Verantwortlichen eingeholt. Basierend darauf wurden strategische Eckpfeiler gesetzt sowie strategische Initiativen formuliert und priorisiert.

Junge, schnell wachsende Unternehmen wie Intercom sorgen mit BizOps für den Fokus, den sie für ihr Wachstum benötigen, dafür, dass die richtigen Business-Initiativen gestartet, die richtigen Leute mit dem richtigen Know-how zusammenarbeiten und dass das Unternehmen die Funktionen und Fähigkeiten entwickelt, die es für seinen Erfolg braucht.

BizOps ermöglicht Ambidextrie

Doch BizOps ist viel mehr als ein organisatorischer Ansatz, der Start-ups hilft, sich weiterzuentwickeln. Auch etablierte Unternehmen profitieren davon. Ihnen erlaubt es, eine Fähigkeit auf- bzw. auszubauen, über die in den letzten zwei Jahren sowohl von IT- als auch von Unternehmensberatern viel gesprochen wird, wenn es um die digitale Transformation geht: Ambidextrie.

Ambidextrie oder Beidhändigkeit beschreibt in der Organisationslehre die Fähigkeit von Unternehmen, gleichzeitig effizient und flexibel zu sein. Das Bonmot „Perform while you transform“ erklärt genau diese Herausforderung: In Zeiten von Umbruch oder Disruption müssen Unternehmen beidhändig arbeiten können. Die eine Hand konzentriert sich auf die bestehenden Produkte und Geschäftsmodelle. Es gilt, sie effizient zu managen, weiterzuentwickeln und möglichst lange erfolgreich zu betreiben. Die andere Hand kümmert sich um neue digitale Geschäftsmodelle, probiert neue Arbeitsmethoden und -modelle aus, die den kommenden Herausforderungen einer digitalisierten Wirtschaft besser entsprechen.

Wie die Hände eines Jongleurs

Dabei dürfen sich die Hände nicht gegenseitig in die Quere kommen und darf die eine die Arbeit der anderen nicht behindern. Gleichzeitig agieren die Hände ja nicht unabhängig voneinander. Sie sind im gleichen Rumpf verankert und übernehmen auch Fähigkeiten voneinander. Die Hand, die sich um die Effizienz des bestehenden Geschäfts kümmert, kann durchaus Know-how von der anderen Seite übernehmen und umgekehrt. Das gleiche gilt für die Teams, die für den digitalen Zweig arbeiten. Sie entstammen zumindest teilweise den Teams aus den bestehenden Geschäftsbereichen. Eigentlich agieren die beiden Seiten genauso wie die Hände eines Jongleurs, die gleichzeitig verschiedene Gegenstände in der Luft halten.

IT muss beidhändig sein

Genauso wie das Business eines Unternehmens beidhändig agieren können muss, braucht auch die IT diese Fähigkeit. Nur besteht hier die Herausforderung darin, dass es nicht ausreicht, diese Capabilities nebeneinander zu etablieren, sondern sie müssen interagieren. So wie das eine Hirn des Jongleurs beide Arme steuert, muss auch die IT in der Lage sein, beiden Anforderungen – der nach Effizienz und der nach Flexibilität – gerecht zu werden.

]]>
BizOps
news-83 Fri, 18 Nov 2022 13:56:00 +0000 Damit Innovation nicht mehr „stört“ https://www.amasol.de/blog/detail-page/damit-innovation-nicht-mehr-stoert „Die Idee von Digital BizOps postuliert, dass es viele neue Werkzeuge und Disziplinen für den digitalen Geschäftsbetrieb gibt, die es zu nutzen gilt." Business Operations ist alles, was im Unternehmen passiert: Damit das Unternehmen funktioniert und Geld verdient. Diese eher traditionelle Definition von BizOps ist eine von vielen, die zurzeit mehr oder weniger unwidersprochen im Netz kursieren. Folgende Elemente zählen laut dieser Definition dazu: Prozesse, Belegschaft, Ort sowie Ausrüstung und Technologie.

BizOps muss zwei Dinge gleichzeitig können

Im digitalen Zeitalter ist diese Beschreibung von BizOps zwar nicht obsolet, aber sie sollte ergänzt werden. Wir hatten bereits im letzten Blog-Beitrag ausgeführt, dass BizOps heute zwei Dinge gleichzeitig können muss: und zwar das Bestehende möglichst immer effizienter machen und zugleich das Neue (d. h. Geschäftsmodelle, Produkte, Services, IT, Art der Zusammenarbeit) ermöglichen. In einer ausschließlich auf Effizienz ausgerichteten Business Operations würden Innovation und die damit einhergehende Veränderung immer als „störend“ wahrgenommen werden. Es ist auch klar, warum: Innovation passt noch in kein Schema. Innovation führt zu Verschiebungen von Mitarbeitenden, sie verändert oder zerstört Prozesse und ihre Ergebnisse lassen sich meist noch nicht abschließend bewerten.

DevOps und Cloud-Delivery gehören zu BizOps

Deshalb verändert sich das Verständnis von BizOps zumindest in dem Bereich, in dem es darum geht, Neues zu ermöglichen bzw. neue Geschäftsfelder aufzubauen und profitabel zu machen. Daryl Plummer, Distinguished Vice President Analyst bei Gartner, erklärt die neue Philosophie von Business Operations in einem Blog-Beitrag daher folgendermaßen:

„Die Idee von Digital BizOps postuliert, dass es viele neue Werkzeuge und Disziplinen für den digitalen Geschäftsbetrieb gibt, die es zu nutzen gilt. Zu den Tools und Disziplinen gehören unter anderem Kategorien wie DevOps und industrialisierte Cloud-Delivery. Und BizOps erkennt an, dass es neue Regeln gibt. Die neuen Regeln des digitalen Geschäftsbetriebs basieren auf der Annahme, dass die Art und Weise, wie wir die Dinge in der Vergangenheit gemacht haben, nicht unantastbar ist. Wir müssen bereit sein, uns zu ändern. Und um das zu erreichen, müssen wir unsere operativen Annahmen in Frage stellen und bereit sein, unsere Abläufe regelmäßig an neue Gegebenheiten anzupassen. Dazu brauchen wir immer mehr sogenannte ‚Feedbackschleifen‘ zwischen internen und externen Personen und Prozessen. Diese Rückkopplungsschleifen werden es den Nutzern einer digitalen Technologie ermöglichen, die Entwicklung des Designs und der Nutzung der digitalen Technologie mit angemessener Geschwindigkeit voranzutreiben, um bei Bedarf einen Unterschied zu machen.“

Was bitte ist ein „Transitional Asset“?

Plummer führt im gleichen Blog-Beitrag u. a. die Idee des „Transitional Asset“ ein, das eine Art Zwischenzustand der bekannten physikalischen und immateriellen Vermögenswerte (Assets) darstellt. Digital BizOps müsse vor allem mit dieser neuen Wertegattung umgehen und Unternehmen in die Lage versetzen, von ihnen zu profitieren.

Diese Transitional Assets entstehen in den Grenzbereichen von physischer und virtueller Welt. Dort zum Beispiel, wo die physikalischen Eigenschaften einer Maschine durch Sensordaten in die virtuelle Welt gelangen und auf diesen Daten neue Geschäftsfelder aufgebaut werden können. Oder wenn aus einem virtuell gestalteten Objekt durch 3D-Druck direkt ein physikalisches Objekt entsteht. Transitional Assets bauen Brücken zwischen physischen und immateriellen Werten, ähnlich wie Geld oder Aktien. Allerdings haben sie den großen Vorteil, dass sie selbst ihren Wert nicht verlieren. Anders als eine Maschine, die man nur einmal verkaufen kann, kann man einen 3D-gedrucktes Objekt viele Male verkaufen, ohne dass das zugrunde liegende virtuelle Design an Wert verliert. Im Gegenteil: Durch schnelle Veränderungen und Optimierungen lässt sich der Wert des Transitional Asset sogar weiter erhöhen.

Eine harte Nuss

Schon gedanklich ist das eine harte Nuss. Wenn Unternehmen aber den ganzen Weg gehen wollen, um von dieser neuen Wertegattung zu profitieren, hat dies enorme Auswirkungen auf die Methoden und Werkzeuge von BizOps.

Im Rahmen seines Vortrags auf der Perform 2018 hat der Analyst Ray Wang ein interessantes Beispiel gegeben: Durch geschickte Integration von Business, User Experience und Operations-Metriken konnte Domino’s Pizza sein Geschäftsmodell umfassend digitalisieren – Pizza blieb damit zwar ein „Physical Asset“, aber der Mehrwert für den Kunden durch den digitalen Rundum-Service auf Basis neuer „Transitional Assets“ hat Dominos ein unglaubliches Wachstum beschert: https://twitter.com/rwang0/status/954762698247438336. Welche Transformationsschritte hierfür notwendig waren, stellt Kyle Wong im Beitrag auf forbes.com dar. Die Basis des Erfolgs war, den Kunden durch Exzellenz im Angebot und Bestellprozess immer wieder zu begeistern und so für Kundenbindung und zusätzlichen Umsatz zu sorgen – z. B. durch innovative mobile Apps, die das Nutzungsverhalten des Benutzers verstehen, ihn zum richtigen Zeitpunkt informieren („Hey, willst du nicht deine Lieblingspizza jetzt bestellen, dann kommt sie an, wenn Du zu Hause bist!“) oder über Augmented-Reality-Visualisierung schon vor der Bestellung Lust auf die dampfende Pizza machen.

Die involvierten Mechanismen wie mehr Agilität, Flexibilität, mehr Raum für Experimente und die Fähigkeit, auch von unerwarteten Gelegenheiten zu profitieren, sind bekannt. Aber der Teufel steckt im Detail: Wie zum Beispiel muss Performance Management gestaltet sein und nach welchen Regeln muss es funktionieren, um eine Design-Software optimal einsetzen zu können? Wie muss Security im IoT-Bereich aufgebaut sein, damit ein Unternehmen seine Transitional Assets adäquat schützen kann? Welche Daten und welche Analytics Tools werden benötigt, um eine IT zu optimieren, die dieses digitale BizOps unterstützt?

Wenn Sie sich jetzt ähnliche Fragen stellen, dann kommen Sie doch zum BizOps-Forum, zu dem amasol am 27. und 28. Mai 2019 nach München einlädt. Wir freuen uns auf den Austausch mit Ihnen!

]]>
BizOps
news-81 Fri, 18 Nov 2022 13:54:49 +0000 Das „Was hat es gebracht?“-Prinzip https://www.amasol.de/blog/detail-page/das-was-hat-es-gebracht-prinzip "Komisch ist nur, dass IT-Management immer noch darum kämpfen muss, vom Business anerkannt zu werden." Es ist Zeit zu fragen, ob die Business-Disziplin BizOps und das Management und der Betrieb von IT-Systemen so viel miteinander zu tun haben, dass ein IT-Beratungshaus wie amasol als Veranstalter des BizOps-Forum ernst genommen werden kann

Zum einen ist BizOps in digital ausgerichteten Unternehmen eine Aufgabe, die ohne die Bereitstellung und Analyse enormer Datenmengen aus unterschiedlichsten Quellen nicht mehr bewältigbar wäre. Zum anderen gibt es kaum noch Prozesse in Unternehmen, die nicht IT-gestützt sind. Die meisten davon sind zumindest teilautomatisiert. Der Betrieb von Unternehmen – gleich welcher Art – ist absolut abhängig vom Funktionieren und der Verfügbarkeit von IT-Systemen.

Wie kommt die IT auf Augenhöhe?

Natürlich ist das eine Binsenweisheit: Das weiß angeblich jeder, auch auf der Business-Seite. Komisch ist nur, dass es dann so wenig Wissen über das Thema IT-Management gibt und dass die Disziplin immer noch darum kämpfen muss, vom Business anerkannt zu werden. In einem aktuellen Beitrag zum Thema IT-Business-Management schreiben die Unternehmensberater von Deloitte bezeichnenderweise: „In vielen Unternehmen kämpft die IT nach wie vor mit einer existenziellen Frage: Wie kann sie sich vom reaktiven Befehlsempfänger zum strategischen Partner der Businessseite entwickeln? Wie kommt man von einer traditionellen Auslieferung von IT-Produkten und -Services zu Beiträgen, die den Business-Wert erhöhen? Eine Rolle, die helfen würde, die IT-Aktivitäten und -Ausgaben mit den Prioritäten des Gesamtunternehmens zu verbinden.“

Um eine solche Partnerschaft auf Augenhöhe zu erreichen, kann IT-Management oder IT-Service-Management nicht mehrheitlich als wichtigste Priorität ausgeben, die IT-Prozesse optimieren (IDG-Studie) zu wollen. Das wäre ungefähr so, als wenn die Businessseite sich an der Qualität der Vertriebsprozesse messen würde und nicht am Umsatz oder Gewinn des Unternehmens.

Outcome statt Output

Die DevOps-Praktiker versuchen der IT schon länger beizubringen, nicht mehr Output-orientiert zu agieren, sondern Outcome-orientiert. Der Unterschied? Output-orientiert bedeutet, dass die IT daran gemessen wird, ob sie die geplanten Projektschritte zeit- und budgetgetreu liefert. Outcome-orientiert folgt dagegen dem „Was hat es gebracht?“-Prinzip (WHEG-Prinzip). In einem Vortrag brachte es ein Enterprise-Architekt kürzlich auf den Punkt: „Wir haben kein Problem mit roten Projekten, wir haben ein Problem mit grünen Projekten, die nichts bringen.“ Mit „roten“ Projekten sind natürlich die gemeint, die aus dem Zeit- und Geld-Budget laufen. Bei „grünen“ Projekten ist dagegen vom Output her betrachtet alles in Ordnung, aber eben nicht, wenn man das WHEG-Prinzip als Messlatte anlegt.

Business-KPIs auch für die IT

Diese Art zu messen muss auch dem Anspruch der Self-Driving-IT zugrunde liegen, damit sie mit den „Gewerken“ Technology Business Management, IT-Operations Analytics, IT Infrastructure Management und Application Performance Management nicht nur eine effiziente IT zur Verfügung stellen kann, sondern eine effektive, flexible IT, deren Wert sich am Grad der Business-Unterstützung misst.

Diese neue Orientierung am Outcome muss sich beispielsweise direkt in den Key-Performance-Indikatoren (KPI) niederschlagen. Wer dem Vertriebschef berichtet, wie viel Millisekunden es heute schneller geht, einen Service aufzurufen oder eine bestimmte Menge an Daten zu speichern als vor einem halben Jahr, erntet günstigstenfalls ein müdes Gähnen. Schlimmstenfalls redet der Vertriebschef direkt im Anschluss mit einem Cloud-Provider, der Sales-Automation-Werkzeuge anbietet, von denen er sich eine direkte Business-Unterstützung verspricht. Wer hingegen berichtet, wie viel mehr Kunden ein Account-Manager innerhalb einer Stunde mehr bedienen kann als beim letzten Berichtstermin, gewinnt die Aufmerksamkeit des Vertriebsverantwortlichen. Das gilt natürlich auch für die anderen IT-Management-Gewerke. Nur wenn die IT-KPI Business-Werte widerspiegeln, wird die IT als das anerkannt, was sie ist: ein wesentliches Business-Tool und damit eines der wichtigsten BizOps-Elemente. Deshalb braucht amasol als Ausrichter des BizOps-Forums keinerlei Bedenken zu haben, der richtige Veranstalter für solch ein Event zu sein. Im Gegenteil: BizOps und IT lassen sich in der digitalen Welt nicht mehr getrennt voneinander buchstabieren.

]]>
BizOps
news-80 Fri, 18 Nov 2022 13:54:10 +0000 Technology Business Management: Es geht immer um Balance https://www.amasol.de/blog/detail-page/technology-business-management-es-geht-immer-um-balance "Bei BizOps geht es darum, eine Balance zu halten: zwischen dem effektiven Betreiben bestehender Geschäfte und der Entwicklung neuer Business Opportunities." Es geht immer um das richtige, ausgewogene Maß: Bei Unternehmensbilanzen geht es um das richtige Verhältnis von Kosten und Gewinn. Dasselbe gilt es für den Technologie- und IT-Einsatz. Welche Art von Infrastruktur, welche Services werden benötigt, um welches Ziel zu erreichen? Antworten auf diese Fragen sind wichtig, aber sie allein sorgen noch nicht für Ausgeglichenheit zwischen Technologieeinsatz und -aufwand einerseits und dem Geschäftserfolg andererseits.

Dieses Gleichgewicht kann erst dann hergestellt werden, wenn Klarheit darüber herrscht, welchen Beitrag der Technologieeinsatz zum Geschäftserfolg tatsächlich liefert. Es geht also darum, IT genauso als Ressource zu betrachten und zu managen wie Kapital, Arbeit und Rohstoffe.

Mit ihrem Hang zu verkürzenden, aber treffenden Aussagen nennen die Amerikaner dieses Streben nach Balance „Manage IT like a business“. Um dieses Ziel realisieren zu können, hat die sich aus Anwender- und Anbieterunternehmen zusammensetzende Non-Profit-Organisation Technology Business Management Council einen Bezugsrahmen entwickelt. Dieser beinhaltet Fragen nach der Definition von Services, nach der Art und Weise, wie Kosten erhoben werden, und danach, wie sich Preise für diese Service bilden lassen. Weitere Punkte innerhalb des Frameworks betreffen die Art der Zusammenarbeit zwischen Business- und IT-Management, die Nutzungsintensität von Services, Prognosen für den kommenden IT-Bedarf, Leistungsmessung der IT sowie das Herstellen von Kostentransparenz.

Dabei dürfen die Antworten auf diese Fragen nicht auf generellen Schätzungen basieren, sondern sind Ergebnis von Daten, die von Agenten und Tools zur Auswertung bereitgestellt werden. Auf diese Weise kann Technology Business Management einen Zusammenhang herstellen zwischen der Infrastruktur und den geschäftsorientierten Services, die den Geschäftsprozessen zugrunde liegen. So lässt sich eindeutig feststellen, welche Infrastruktur und welcher IT-Service welchen Wertbeitrag zum Geschäftserfolg geliefert haben.

Die Wirkung solcher klaren Aussagen lässt sich gar nicht hoch genug schätzen: „Das Online-Shop-System von XY hat unsere Online-Verkäufe um 20 Prozent gesteigert und wir sind pro Transaktion um 25 Prozent preiswerter als der Durchschnitt.“ So kann sich die IT sicher sein, dass ihr Beitrag zum Geschäftserfolg gewürdigt wird. Aber das gilt natürlich im Negativen genauso: „Der neu eingeführte Digital Workplace hat die Produktivität unseres Vertriebs um 10 Prozent sinken lassen. Vor allem die anfänglichen Fehler im Gruppenkalender haben zu 15 Prozent weniger erfolgreichen Meetings mit Geschäftspartnern geführt.“ Die Aussagen mögen zwar manchmal hart sein, aber sie schaffen auch die Möglichkeit, gezielt gegen Fehlentwickelungen vorzugehen. Kimberly Sorenson, Director KPMG CIO Advisory, hat das in einem Beitrag des US-amerikanischen CIO-Magazins hervorragend auf den Punkt gebracht: „Es geht nicht darum, die Fehler der Vergangenheit aufzudecken, sondern darum, die richtigen Entscheidungen für die Zukunft zu treffen.“

Voraussetzung dafür ist allerdings der Unternehmenswille zur Offenheit. Kein Verstecken, kein Verschleiern von Kosten, keine geschönten Nutzungsdaten mehr. Das Ergebnis dieser Offenheit ist Transparenz: Was haben wir in welche Technologien investiert und in welchem Maß haben diese Technologien die Business-Resultate verbessert? Und noch einmal: Die Antworten auf diese Fragen basieren nicht auf Einschätzungen, sondern auf Daten.

Diese Kultur der Transparenz herrscht leider noch nicht in der Mehrheit der Unternehmen. Aber angesichts der großen Veränderungen, die Unternehmen besonders im Hinblick auf die Digitalisierung gerade erleben, ist Transparenz bitter notwendig.

Und was hat Technology Business Management mit BizOps zu tun? Das ist schnell erzählt: Wenn Unternehmen eindeutig wissen, welche Technologie welchen Wertbeitrag liefert, können sie objektiv entscheiden, welche Technologie sie wofür einsetzen und wie sie sie am besten nutzen. Das gilt für bestehende und für neue Geschäftsprozesse und -modelle. Schließlich geht es auch bei BizOps darum, eine Balance zu halten: zwischen dem effektiven Betreiben bestehender Geschäfte und der Entwicklung neuer Business Opportunities.

]]>
BizOps
news-79 Fri, 18 Nov 2022 13:53:30 +0000 Goldgrube „Predictive Maintenance“ https://www.amasol.de/blog/detail-page/goldgrube-predictive-maintenance "Der wichtigste Unterschied zwischen „Preventive“ und „Predictive Maintenance“ ist also die Vermeidung von Geldverschwendung." Kennen Sie den Unterschied zwischen vorsorglicher und vorausschauender Instandhaltung – also zwischen „Preventive“ und „Predictive Maintenance“?

Die erste Variante ist vergleichbar mit dem turnusmäßigen Ölwechsel bei unseren Autos, den wir rund alle 20 000 Kilometer machen, um Schäden am Motor zu vermeiden. Die Angabe 20 000 Kilometer stammt vom Autohersteller und basiert auf Erfahrungswerten und Daten, die während Entwicklung und Testphase des Motors gemessen werden. Bei „Predictive Maintenance“ hingegen liefern Sensoren im Motor zum Beispiel Daten über die Dichte und Viskosität des Öls. Dazu kommen Umgebungsparameter wie Außentemperatur, gefahrene Kilometer, Belastungsarten des Motors sowie Werte von anderen Motoren ähnlicher Größe, ähnlicher Laufleistung und vieles andere mehr. All diese Daten werden zusammengeführt und analysiert, um möglichst genau den Zeitpunkt eines drohenden Ausfalls des Motors vorherzusagen. So lässt sich das bestmögliche Datum für einen Ölwechsel bestimmen – quasi als Relation zwischen drohendem Schaden und größtmöglichem Nutzen, der sich aus einer Ölfüllung erzielen lässt. Je weiter ein Auto, ein Lkw zumal, ohne Ölwechsel fahren kann, desto geringer sind die Betriebskosten.

Der wichtigste Unterschied zwischen „Preventive“ und „Predictive Maintenance“ ist also die Vermeidung von Geldverschwendung.

Alle Maschinen und Systeme profitieren

Der Ölwechsel ist nur ein leicht verständliches Beispiel. Die Vorteile von Predictive Maintenance mithilfe von Echtzeit-Sensordaten, die zum Beispiel in einer Cloud gesammelt und analysiert werden, treffen auf alle Maschinen und Anlagen zu – auch für IT-Systeme und -Services. Je komplexer ein Gesamtsystem, desto mehr Messpunkte müssen eingerichtet werden, um genügend aussagekräftige Daten zu erhalten, mit deren Hilfe das richtige Austausch- oder Wartungsdatum für eine Komponente bestimmt wird.

Doch mithilfe der Daten und ihrer Analyse können nicht nur Wartungsarbeiten vorausgesagt werden, sondern auch Maßnahmen eingeleitet werden, die die Wartung weiter hinausschieben, indem zum Beispiel die Leistung einer Maschine der angestrebten Lebensdauer einer Komponente angeglichen wird. In einer IT-Landschaft lassen sich Sensoren und Agenten für das Monitoring des Gesamtsystems und verschiedener Services nutzen: zum einen, um zu wissen, wie sie beim Endanwender funktionieren. Zum anderen lassen sich so aber auch die Leistungen von Service- und Infrastruktur-Providern überprüfen und verbessern.

Predictive Maintenance nutzt auch KI

Inzwischen bieten verschiedene Unternehmen Tools und Plattformen für die vorausschauende Wartung von Maschinen, Anlagen, IT-Systemen und Netzwerken an. Zum Teil sind das einfache Monitoring-Systeme, zum Teil sind das sehr ausgereifte Plattformen, die auch schon Machine-Learning-Algorithmen einsetzen, um in bestimmten Situationen die jeweils am besten geeigneten Maßnahmen vorzuschlagen.

Eine sehr große Herausforderung in diesem Zusammenhang ist das Sammeln, Aufbereiten und Analysieren der Daten. Sie werden häufig in verschiedenen Geschäftsbereichen, unterschiedlichen Fertigungsstätten und von zum Teil sehr verschiedenen Sensoren gesammelt. Das heißt, es kommen unzählige Datenformate zusammen, die an unterschiedlichen Standorten nach verschiedenen Kriterien und in unterschiedlichen Systemen gespeichert werden. Deshalb setzt eine funktionierende Predictive-Maintenance-Strategie vor allem den bewussten Umgang mit Daten und eine gewisse Daten-Architektur voraus. Die Daten dürfen nicht mehr in einzelnen Silos gespeichert werden, sondern müssen den Zugriff aller Berechtigten ermöglichen. Hier spielen Cloud- und Big-Data-Services eine wichtige Rolle. Cloud-Speicher bieten die nötige Infrastruktur und Big-Data-Services sorgen dafür, dass Daten unterschiedlicher Formate verarbeitet werden können, ohne sie zuvor zu normalisieren. Machine-Learning-Algorithmen erleichtern bzw. automatisieren im Endausbau den Umgang mit gewonnenen Ergebnissen.

]]>
BizOps
news-78 Fri, 18 Nov 2022 13:52:53 +0000 Agile Infrastrukturen sind nur zum Viertel eine technische Herausforderung https://www.amasol.de/blog/detail-page/agile-infrastrukturen-sind-nur-zum-viertel-eine-technische-herausforderung "Die Vorzüge der agilen Methoden haben sich herumgesprochen, sodass sich auch andere Unternehmensbereiche intensiver mit diesem Thema auseinandersetzen." Agile Entwicklung findet zwar noch nicht überall statt, aber sie wird in vielen IT-Organisationen zumindest ansatzweise praktiziert. Immer öfter versuchen Unternehmen von starren Release-Wechseln wegzukommen und stattdessen Softwareprodukte in kleineren Schritten schneller zu entwickeln und zu deployen.

Agile Vorteile haben sich herumgesprochen

Die Vorzüge der agilen Methoden – Geschwindigkeit, Flexibilität, Qualität – haben sich inzwischen herumgesprochen, sodass sich auch andere IT- und Unternehmensbereiche intensiver mit diesem Thema auseinandersetzen. Im Businessbereich probt man die agile Umsetzung neuer Geschäftsmodelle, Prozessveränderungen und Produktideen – viele nennen das BizOps. Enterprise-Architekten, die sowohl Fach- als auch IT-Prozesse und -Landschaften im Blick haben, arbeiten an agilen Verfahren und auch die IT selbst versucht, agile Prinzipien über die Entwicklung hinaus anzuwenden, zum Beispiel in der IT-Infrastruktur.

Diese eher ganzheitlichen Anwendung agiler Verfahren gilt bei Agilitätsberatern nicht umsonst als hohe Schule. Nur, so ihre Lehrmeinung, wenn das ganze Unternehmen agil ausgerichtet ist, können die Vorteile wirklich ausgeschöpft werden. Solange nur einzelne Silos – beispielsweise die Softwareentwicklung agilisiert würden, entstehen in anderen Bereichen immer wieder Verzögerungen durch Nachfragen, Missverständnisse und Technologiebrüche.

Voraussetzung ist eine beschleunigte Infrastruktur

Eine der wesentlichen Säulen einer unternehmensweiten Agilisierung ist die Beschleunigung der IT-Infrastruktur. Sie stellt eine kritische Ressource für fast alle Unternehmensbereiche und natürlich für alle Geschäfts- und Prozessveränderungen dar. Von ihr hängt es ab, wie schnell ein digitales Produkt oder ein digitaler Service tatsächlich auf den Markt kommt und in welcher Qualität er dort wahrgenommen wird. Ganz banales Beispiel: Wenn eine neues E-Commerce-Plattform aufgrund mangelnder Server-, oder Netzressourcen zu langsam ist, verlieren die Kunden sehr schnell die Lust und wenden sich anderen Anbietern zu.

Dabei ist die Agilisierung der Infrastruktur nur zu einem Viertel eine technische Herausforderung. Die restlichen Dreiviertel haben mit Organisation zu tun.

Software defined everything

Technisch gesehen muss zwischen der Infrastruktur selbst – also Server-, Speicher- und Netzwerkressourcen eine Management-Schicht (Software defined everything) eingezogen werden, mit deren Hilfe die Ressourcen den verschiedenen Workloads anforderungsgerecht schnell und flexibel zugeordnet werden können. Das bedeutet am Beispiel der bereits erwähnten E-Commerce-Plattform, dass diese Management-Schicht in der Lage sein muss, die Ressourcen auch belastungsgerecht zu steuern. Je mehr Interessenten dort nach Produkten suchen, desto mehr Ressourcen müssen der Plattform zur Verfügung gestellt werden. Das ist keineswegs trivial, vor allem wenn man bedenkt, dass die Ressourcen-Anforderungen nicht von einem dezidierten und erfahrenem Infrastruktur-Team gestellt werden, sondern zum Beispiel im Self-Service-Verfahren von den Entwicklern der Plattform. Voraussetzung für das Funktionieren dieser Management-Schicht ist unter anderem ein ausgeklügeltes Performance-Management, das Funktionieren und Auslastung der eingebundenen Ressourcen exakt überprüft und bis hin zu genauen Belastungsprognosen auch managed.

Natürlich funktioniert agiles Infrastruktur-Management in der Cloud besser. Allerdings müssen dann auch Cloud-Orchestrierungs- und Provisioning-Tools in die technische Gleichung miteinbezogen werden.

Agile Infrastrukturteams

Aus organisatorischer Sicht geht es zum einen darum, die Infrastrukturteams agil zusammenzusetzen. Bisher waren sie beispielsweise nach den unterschiedlichen Ressourcen organisiert – Speicherteam, Computer- und Netzwerkteam. In agilen Infrastrukturteams sollten dagegen diese Skills gemischt sein.

Zum anderen müssen die Prozesse zur Auslieferung von Infrastruktur-Services vereinfacht und möglichst automatisiert werden. Statt für besagte E-Commerce-Plattform eine dezidierte Infrastruktur-Anforderung zu formulieren, die dann von den verschiedenen Infrastruktur-Spezialisten überprüft und realisiert wird, müssten die Entwickler-Teams das im Self-Service anfordern können. Dabei kann das Self-Service-Tool sich nicht darauf beschränken, eine bestimmte Zahl an Rechenkernen, Speicherkapazitäten und Netzwerkbandbreite anzufordern, sondern es muss auch eine Plausibilitätsprüfung erfolgen. Wenn das (noch) nicht geht, sollten Entwickler und Infrastrukturteams schon während der Entwicklung der Plattform zusammenarbeiten und die Anforderungen an die Infrastruktur gemeinsam formulieren. Das ist zugleich die dritte organisatorischer Herausforderung: Infrastruktur- und Entwicklungsteams müssen eng zusammenarbeiten, um den Prozess der Infrastrukturbereitstellung möglichst schnell und friktionslos abschließen zu können.

Unternehmen, die eine agile Infrastruktur schaffen müssen, um die sich schnell ändernden Geschäftsprozesse und -modelle bedarfsgerecht und flexibel anpassen zu können, müssen auf der technischen Seite dem Software-defined-everything-Paradigma gerecht werden. Auf der anderen Seite müssen sie die organisatorischen Voraussetzungen schaffen, die agile Formen der Zusammenarbeit ermöglichen. Unternehmen, die bereits ihre Software-Entwicklung agilisiert haben, sind dabei im Vorteil, weil sie die organisatorischen Herausforderungen bereits kennen und sie zumindest teilweise bewältigt haben.

]]>
BizOps
news-77 Fri, 18 Nov 2022 13:52:06 +0000 BizDevOps-Transformation bei der Keybank https://www.amasol.de/blog/detail-page/bizdevops-transformation-bei-der-keybank „Um einen Code-Change in Produktion zu bringen, hat die Bank über 14 Tage gebraucht – obwohl es dank der neuen Technologie nur Sekunden gebraucht hat, ihn zu realisieren.“ Andreas Grabner vom Monitoring-Spezialisten Dynatrace berichtet über einen Use Case bei der amerikanischen Bank Keybank. Sie ist in 15 Staaten vertreten, hat 20.000 Mitarbeiter und einen Jahresumsatz von fünf Milliarden US-Dollar. Die Bank ist vor gut zwei Jahren auf die Container-Anwendungsplattform OpenShift von Red Hat umgestiegen und betrachtete sich mit einigem Recht als innovativen Cloud-Anwender, der Cloud-native arbeitet. Allerdings waren viele Prozesse wie Delivery-, Aproval- und andere Prozesse noch weitgehend manuell. Das reduzierte den Geschwindigkeitszuwachs wieder ganz erheblich, den man mit dem Umstieg auf OpenShift erzielt hatte. Grabner, der seit 20 Jahren Erfahrung in den Bereichen Softwareentwicklung, -Testing und -Architektur  hat und inzwischen auf hochperformante, skalierbare Applikationen in der Cloud spezialisiert ist, beschreibt, welches Ausmaß dieser Flaschenhals hatte: „Um einen Code-Change in Produktion zu bringen, hat die Bank über 14 Tage gebraucht – obwohl es dank der neuen Technologie nur Sekunden gebraucht hat, ihn zu realisieren.“

Um Cloud-native zu arbeiten, brauche es einfach mehr, als eine App in einem Container unterzubringen und auf einer Public-Cloud-Plattfom zu deployen. Unternehmen, die wirklich Cloud-native arbeiten, müssten laut Grabner in der Lage sein, einen Code-Change innerhalb einer Stunde in die Produktion zu geben und innerhalb von zehn Minuten auf Störungen zu reagieren. Einer Dynatrace-Studie zufolge können das allerdings bisher nur fünf Prozent der Unternehmen, die von sich behaupten, Cloud-native zu arbeiten.

Grabner erzählt von den Maßnahmen in den Bereichen „automate quality“, „automate deployment“ und „automate operations“, die die Keybank mithilfe von Dynatrace eingeführt hat, um die Time to Production erheblich zu reduzieren. Heute ist die Bank in der Lage, die Entwicklungen täglich zumindest in ein Pre-Production-Environment zu bringen. Dort werden die Entwicklungen von einigen Tausend Kunden der Bank genutzt. Wenn dort keine Schwierigkeiten auftauchen, werden die Changes an alle Kunden der Bank ausgerollt. Außerdem erklärte Graber noch einige Highlights von Dynatrace im Bereich automatisiertes Monitoring, automatisierte Quality Gates, Deployment und Operations.

Zu guter Letzt stellt Grabner das Open-Source-Projekt „keptn“ vor: ein Framework, das Unternehmen bei den Themen Continuous Deployment und Automated Operations unterstützen soll.

]]>
BizOps
news-76 Fri, 18 Nov 2022 13:50:26 +0000 Agile Operations kein Hexenwerk https://www.amasol.de/blog/detail-page/agile-operations-kein-hexenwerk "Es geht es darum, in komplexen IT-Umgebungen aus großen Mengen an IT-Betriebsdaten Schlussfolgerungen zu ziehen und diese dann verständlich darzustellen." Es wird viel vom Dev-, aber weniger vom Ops-Teil in DevOps gesprochen. Ist vielleicht auch verständlich. Development klingt kreativer und spannender. Agil wird die Konstruktion jedoch erst dann, wenn mit der agilen Entwicklung eine genauso agile IT-Operations verbunden ist. Und dieser Betrieb ist – kreativ oder nicht – eine komplexe Aufgabe. Während die Entwicklung effektive Lösungen für bestehende und neue Business-Anforderungen finden muss, arbeitet IT-Operations daran, diese Lösungen skalierbar, sicher, verfügbar, leistungsstark, widerstandsfähig, anwenderfreundlich und möglichst kosteneffizient zur Verfügung zu stellen. Das hat viel mit Hardware, Netzwerken und Security zu tun, also Dingen, die sich nicht mehrmals am Tag oder im Extremfall mehrmals pro Stunde verändern lassen.

Spezielle Ops-Strategien

Deshalb müssen hier neben den generellen DevOps-Maßnahmen wie interdisziplinärer Zusammenarbeit, automatisierten Dashboard oder Continuous Improvement einige spezielle Strategien implementiert werden, damit das Zusammenspiel von Dev und Ops funktioniert. Laut Disciplined agile sind das folgende:

Solution Monitoring – Lösungen müssen ständig mit geeigneten Tools und Systemen hinsichtlich Performance, Fehlerfreiheit, Sicherheit, Verfügbarkeit etc. überprüft werden. Für diese Disziplin gibt es verschiedene Lösungen, die besonders für agile Umfelder geeignet sind. Diese Monitoring-Systeme sollten in Echtzeit und Silo übergreifend funktionieren. Außerdem sollten sie folgende Funktionen aufweisen:

  • Entdecken und Darstellen der Aktivität aller Netzwerk-Devices und deren Anwendungen.
  • Störungen sollten automatisch Silo übergreifend korreliert und in ihrer Schwere bewertet werden können.
  • Application Performance und Real User Monitoring. Es sollten qualitative Aussagen zur Anwendungsperformance bis zum einzelnen User hin erstellbar und in grafischen Auswertungen darstellbar sein.
  • Virtual Machine Monitoring. Auch die Performance von Applikationen in virtuellen Umgebungen muss analysier- und darstellbar sein.
  • Data Center Konsolidierung und Cloud Migration. Diese Funktion erlaubt den Vorher- und Nachhervergleich sowie ein kontinuierliches Messen der Performance während einer Migration.
  • Security Analyse und Erkennen von Angriffen im Netzwerk. Hier geht es um das Aufzeigen von Sicherheitslücken und der Überprüfung der Compliance-Regeln im Netz. Außerdem werden mit dieser Komponente eines Monitoring-Systems Angriffe von Viren erkannt und sofortige Alarmierung ausgelöst.
  • IT Operations Analytics – Damit werden Performance Daten in verschiedenen Applikations-Ebenen und Datacenter-Silos korreliert. Darüber hinaus können Daten für weitere Analysesysteme zur Verfügung gestellt werden.

Standard Platforms – Entwicklungen schnell zu deployen funktioniert einfacher, wenn man es auf einer definierten Zahl verschiedener Hardware-Plattformen realisiert als in einer IT-Landschaft, die aus vielen unterschiedlichen und mitunter auch noch exotischen Plattformen mit spezifischen Anforderungen besteht.

Deployment Testing – Nachdem ein Update oder eine Komponente deployed worden ist, muss sichergestellt werden, dass sie auch im operativen Bereich sicher funktioniert, bevor sie in Produktion geht. Wurden die richtigen Versionen der richtigen Files überall dort installiert wo nötig? Wurden die notwendigen Datenbankanpassungen vollzogen? Auch hier gibt es Testmethoden, die agile Umgebungen besser unterstützen als traditionelle Methoden. Synthetic Monitoring ist zum Beispiel ein Weg, um Performance und Belastbarkeit einer neuen oder erneuerten Applikation oder eines Web-Services automatisiert zu prüfen und gegebenenfalls Schwachstellen zu beseitigen.

Automated Deployment – Damit es nur kleinstmögliche Verzögerungen gibt zwischen Entwicklung und Produktion müssen neue Komponenten automatisch deployed werden können. Das unterstützt das Konzept des Continuous Deployment.

Automated Deployment reduziert die Fehlerhäufigkeit eines manuellen Prozesses. Einmal richtig aufgesetzt und konfiguriert funktioniert der automatische Prozess immer wieder. Das bedeutet, jeder im Team kann Software deployen. Bei automatisiertem Deployment steckt das Wissen im Prozess und nicht mehr im Kopf einzelner Mitarbeiter. Ein manuelles Deployment durchzuführen und zu überprüfen ist zeitaufwendig. Zeit, die Entwicklern für ihre eigentliche Aufgabe genommen wird. Automatisiert funktioniert das Deployen in Sekunden. Menschen müssen sich erst dann darum kümmern, wenn tatsächlich Probleme auftauchen. Außerdem sind automatisierte Deployments nicht nur wiederholbar, sie können auch konfiguriert werden. Während der zugrunde liegende Prozess gleich bleibt, kann das Deployment leicht an spezifische Anforderungen angepasst werden. Die genannten Vorteile haben den Vorteil, dass Software deutlich öfter oder auch continuously deployed werden kann.

Operations Intelligence – Operations Intelligence ist ein Teil von IT-Intelligence. Hier werden BI und Analytics-Technologien auf die IT angewendet. Dabei geht es darum, in komplexen IT-Umgebungen aus großen Mengen an IT-Betriebsdaten Schlussfolgerungen zu ziehen und diese dann in Form von Dashboards oder Reports darzustellen. Die Einsatzbereiche von Operations Intelligence liegen dabei vor allem:

  • im zielgenauen Ermitteln auch bisher unbekannter Ursachen von Systemfehlverhalten,
  • dem Priorisieren von Problemen nach ihrem Schaden für Geschäftsprozesses,
  • Abschätzung des Aufwands für eine Fehlerbeseitigung,
  • Proaktive Kontrolle von Service-Performance und -Verfügbarkeit,
  • Vorausberechnung zukünftiger Systemzustände und ermitteln, wie sich diese auf die Service-Performance auswirkt,
  • Zuordnung der auftretenden Aufgaben zu den am besten geeigneten IT-Operation Teams,
  • Kapazitätsmanagement, es werden historische Trends analysiert und Zukunftsszenarien entwickelt, um den Kapazitätsbedarf vorauszusagen.

Natürlich kann der Teufel bei der Anwendung dieser Ops-Maßnahmen im Detail stecken, aber wer diese Strategien berücksichtigt, für den ist auch der Ops-Teil von DevOps kein Hexenwerk.

]]>
BizOps
news-75 Fri, 18 Nov 2022 13:49:51 +0000 Wie kann uns AIOps helfen, als internationaler Serviceprovider die steigende Komplexität zu beherrschen? https://www.amasol.de/blog/detail-page/wie-kann-uns-aiops-helfen-als-internationaler-serviceprovider-die-steigende-komplexitaet-zu-beherrschen „Ich kann nur empfehlen, sich solche Systeme anzuschauen. Sie entlasten die Mitarbeiter und machen den Support deutlich effektiver.“ Der CIO und Datacenter-Chef des IT-Dienstleisters itelligence AG berichtet von einem Pilotversuch mit Artificial Intelligence for IT Operations (AIOPS). AIOPS wird eingesetzt, um das Service- und Performance-Management effektiver zu gestalten und mithilfe von AI und Machine Learning Incidents entweder früher zu erkennen oder sie sogar ganz zu vermeiden. Itelligence hat sich beim Piloten für die Installation von Moogsoft entschieden, das gemeinsam mit amasol in der Entwicklungsumgebung von Itelligence implementiert worden ist.

Nach einer einmonatigen Versuchsphase zeichnete sich ab, dass Moogsoft die Incident-Inbox um mehr als 50 Prozent entlastet. „Normalerweise liegt der Wert deutlich höher. Aber wir hatten schon vor dem Pilotversuch Regeln eingeführt, mit denen unsere Support-Teams tatsächliche Incidents und unsinnige Meldungen voneinander trennen können. Deshalb lag die Rate bei uns niedriger“, erklärt Muthig. Bei weiter zunehmendem Geschäft ist diese Kombination aus System- und menschlicher Bewertung allerdings keine Option mehr. „Das skaliert einfach nicht mehr ausreichend.“ Deshalb bewertete laut Muthig der eingebundene First- Level-Support den Pilotversuch auch als sehr positiv.

Muthig fasst die Vorteile folgendermaßen zusammen:

  •  Deutliche Reduktion des Noise, also deutlich weniger Events, um die sich der Support kümmern muss.
  •  Die Meantime to detect und die Meantime to restore reduzieren sich drastisch.
  • Komplexität wird reduziert.
  • Durch mehr Effizient im Service- und Performancemanagement lassen sich Innovationen früher in die bestehende IT-Landschaft einsteuern.

Insgesamt bewertet Muthig AIOPS und das Moogsoft-Tool als sehr hilfreich. „Ich kann nur empfehlen, sich solche Systeme anzuschauen. Sie entlasten die Mitarbeiter und machen den Support deutlich effektiver.“ Während ein Mitarbeiter im Support in einer komplexen IT-Landschaft rund sechs Monate lernen müsse, bis er sicher verschiedene Incidents erkennt und in ihrer Bedeutung einschätzen kann, lernten AIOPS-Systeme selbstständig und könnten Mitarbeiter sehr rasch unterstützen.

]]>
BizOps
news-74 Fri, 18 Nov 2022 13:48:47 +0000 A guide to business-demand driven IT budgets https://www.amasol.de/blog/detail-page/a-guide-to-business-demand-driven-it-budgets "Es gelte also, mit einem gemeinsamen Kennzahlenmodell eine Brücke zwischen IT und Business zu bauen, um so ein gemeinsames Verständnis zu erzeugen." Guillermo Cuadrado verantwortet bei Amadeus das Kosten- und Budgetmodell für die IT und die Erstellung von aktuellen Reports, Vorhersagen und Budgets. Amadeus ist einer der größten globalen IT-Service-Betreiber in der Luftfahrt- und Reisebranche. Über seine Kunden bedient Amadeus 1,8 Milliarden Reisende pro Jahr und rechnet 640 Millionen Ticketbuchungen jährlich ab.

Cuadrado spricht über Geschäftskennzahlen und ihre Bedeutung für die Entwicklung von IT-Budget/Kosten. Den Wert der IT sieht er in ihrer Fähigkeit Businessziele wie Umsatz- und Gewinnwachstum, zu unterstützen. In einem Umfeld, in dem die Businessseite der IT vorwirft, zu langsam und zu teuer zu sein und die Finanzabteilung das IT-Budget reduziert sehen möchte, fragt sich die IT allerdings, wie sie angesichts der Forderung „Do more with less“ die Businessziele effektiv unterstützen kann. Diese gegensätzlichen Sichtweisen sind auch in den unterschiedlichen Kennzahlen begründet, die IT und Business nutzen. Es gelte also, mit einem gemeinsamen Kennzahlenmodell eine Brücke zwischen IT und Business zu bauen, um so ein gemeinsames Verständnis zu erzeugen.

Die Amadeus IT hat deshalb ihr Budget in fixe und variable Kosten aufgeteilt, sodass sie Aussagen über die Kosten pro Transaktion treffen kann. Da wirtschaftliches Wachstum zwingend mit einem entsprechenden Anstieg von Transaktionen einhergeht, kann die IT für die Businessseite sehr leicht nachvollziehbar machen, dass sie Unterstützung braucht, um die zusätzliche Zahl an Transaktionen zu bewältigen. Auf diese Weise lässt sich laut Cuadrado ein „IT-Budget entwickeln, das von den Business-Anforderungen getrieben wird“. Cuadrado nennt diesen Weg den „Hitchhikers guide to a manageable IT budget“. Er zeigt drei wichtige Punkte auf, um ein businessgetriebenes Budget zu realisieren:

  • Eine Teilung der IT-Kosten in feste und variable Kosten erlaubt eine handhabbare Kostenvorhersage.
  • Die Verhandlungen mit Vertretern der Bsuinessseite müssen auf Metriken basieren, die diese versteht.
  • Wenn hohes Businesswachstum geplant ist, muss über zusätzliches Geld für die IT verhandelt werden.

Für Cuadrado bilden die gemeinsamen Metriken von Business und IT den Kern von BizOps.

]]>
BizOps
news-73 Fri, 18 Nov 2022 13:47:21 +0000 BizOps – die enge Verzahnung von Business und IT https://www.amasol.de/blog/detail-page/bizops-die-enge-verzahnung-von-business-und-it „Unsere Kinder wachsen ganz selbstverständlich in einer digitalisierten Welt auf, die von digitalen Produkten, Services und von KI dominiert wird. Dieses Rad lässt sich nicht zurückdrehen.“ Frank Jahn, Mitglied des Advisory Boards BizOps Forum und Vorstand Vertrieb der amasol AG, begrüßt die rund 120 Teilnehmer des 1. Münchener BizOps Forums. Für ihn ist BizOps – also die enge Verzahnung von IT und Business – der nächste logische Schritt, den Unternehmen gehen müssen, um digitale Geschäftsmodelle zu entwickeln und operativ zu beherrschen. Jahn lässt keinen Zweifel daran, dass diese in Zukunft die Businesswelt bestimmen werden: „Unsere Kinder wachsen ganz selbstverständlich in einer digitalisierten Welt auf, die von digitalen Produkten, Services und von KI dominiert wird. Dieses Rad lässt sich nicht zurückdrehen.“

Wie machtvoll das Zusammenspiel von IT und Business sein kann, erläutert  Jahn anhand eines Netzdiagramms, in dem Key Performance Indicators aus dem Business- und aus dem IT-Operations-Bereich kombiniert werden. Wer sehen wolle, sagt er, wie sich zum Beispiel die Modernisierung eines Application Performance Management Systems auf das Business auswirkt, brauche nur einige Parameter aus beiden Bereichen zu erheben. An den Ergebnissen lasse sich sehr einfach nachweisen, dass eine Verbesserung der IT-Parameter auch eine positive Veränderung der Business-KPI bewirke.

Frank Jahn ruft die Teilnehmer dazu auf, das BizOps Forum zu nutzen, um gemeinsam mit den zahlreichen Referenten und Workshop-Leitern Lösungsansätze zu erarbeiten, mit denen sich Business und IT enger verzahnen lassen. Er verdeutlicht auch, dass das BizOps Forum kein einmaliger Event bleiben soll: „Dieses BizOps Forum ist unser Beitrag zur Digitalisierung. Wir möchten diesen Community-Event als Fixpunkt in Ihren Kalendern etablieren.“

]]>
BizOps
news-72 Fri, 18 Nov 2022 13:46:24 +0000 BizOps: Hohe Digitalisierungs-Kunst entsteht in harter Alltagsarbeit von Business und IT https://www.amasol.de/blog/detail-page/bizops-hohe-digitalisierungs-kunst-entsteht-in-harter-alltagsarbeit-von-business-und-it „Unternehmen, die sich keine ausreichende Digitalisierungs-Expertise gesichert haben werden mit Digitalisierungsvorhaben scheitern und teures Lehrgeld bezahlen.“ Digitalisierung und die damit einhergehende Transformation von Prozessen, Produkten und Kundenbeziehungen in die digitale Welt ist der unbestrittene Megatrend in der IT. Allerdings finden viele Unternehmen nach wie vor nicht die richtigen Ansatzpunkte, um sich umfassend zu digitalisieren. Es sind häufig einzelne Projekte, in denen neue Vorgehensweisen, Services oder Produkte ausprobiert werden. Denn den großen Wurf wagen viele Verantwortliche jedoch noch nicht. Häufig bestehen zu viele Unwägbarkeiten sowohl in geschäftlicher Hinsicht als auch in Sachen Technologie. 

Business-Manager stellen sich zu Recht die Frage, wie sie digitale Services, zum Beispiel die viel beschriebene Predictive Maintenance, monetarisieren können. IT-Verantwortliche sind dagegen häufig überfordert, wenn es um Auswahl und Orchestrierung von Cloud-Services geht, die digitale oder digital erweiterte Prozesse unterstützen sollen. Die Unsicherheit resultiert zum einen aus zu wenig Know-how, zum anderen aber auch aus einer gewissen Unreife der angebotenen Leistungen. Hinzu kommen noch fehlende oder zu komplexe Verfahren zum Management und zur Leistungsmessung der neuen Services. IT-Verantwortliche können häufig nicht genau genug bestimmen, ob die Leistungen auch in versprochenem Umfang und Qualität erbracht werden; kurz: ob sich Mittel- und Personaleinsatz wirtschaftlich tatsächlich lohnen.

Techquilibrum: neues Gleichgewicht zwischen IT und Business

Die noch nie um neue Wortschöpfungen verlegenen Analysten von Gartner haben deshalb im November letzten Jahres den Begriff „Techquilibrum“ eingeführt.

Mit dem Begriff, der sich aus Technology und Equilibrium zusammensetzt, meinen die Analysten, dass jedes Unternehmen – abhängig von der Branche, den eigenen Fähigkeiten sowie den Bedürfnissen seiner Kunden – sein individuelles Maß an Digitalisierung finden muss. Im Umgang mit Kunden sei es erreicht, wenn in jedem Moment, in dem Technologie und Menschen aufeinandertreffen, Wert entsteht.

Um dieses Techquilibrum zu erreichen und in Zukunft erfolgreich zu sein, müssen Unternehmen, so Gartner, unter anderem das „And“-Dilemma überwinden. Vieles von dem, was sich auf den ersten Blick widerspricht, müssten Unternehmen künftig gleichzeitig bewältigen. Zum Beispiel: gleichzeitig nach Wachstum streben und Kosten reduzieren, zur gleichen Zeit traditionelles und digitales Unternehmen sein, parallel analysieren und ausführen oder stabil sein und sich zugleich verändern.

Vor Digitalisierungsprojekten steht die Analyse

„Techquilibrum ist natürlich ein typisch abstrakter Gartner-Begriff,“ meint Stefan Deml, Mitgründer und Vorstand des Münchener Systemintegrators amasol. „Aber wenn man ihn auf den Digitalisierungsalltag herunterbricht, beschreibt er eigentlich eine sehr pragmatische Herangehensweise, die ich Anwenderunternehmen auch empfehle.“

Deml rät Anwendern, zunächst ihren Markt zu analysieren, um ein Gefühl für das geforderte Digitalisierungsmaß zu bekommen. „Die Anforderungen an die Digitalisierung sind im Endkunden-Online-Handel sicher höher und eiliger als beispielsweise im traditionellen B2B-Baustoffhandel“ erklärt er. Wenn man wisse, was der Markt an Digitalisierung benötige oder vertrage, sollten Unternehmen einen durchaus strengen Blick auf die Fähigkeiten ihrer Organisation, ihrer Geschäftsbereiche und vor allem ihrer IT werfen. „Unternehmen, die sich keine ausreichende Digitalisierungs-Expertise gesichert haben – entweder selbst aufgebaut oder eingekauft – werden mit Digitalisierungsvorhaben scheitern und teures Lehrgeld bezahlen“, warnt der amasol-Stratege Deml. Zu guter Letzt plädiert er dafür, die Technologie in den Blick zu nehmen. „Hier kann man sehr viel einkaufen, an fertigen Services und noch mehr an Plattformen, auf denen man selbst Services aufbauen kann. Aber auch hier braucht man viel Know-how.“

Aus Technologie-Management wird Business Operation Management

Mit Cloud-Services zum Beispiel sei es zwar auch für mittelständische Unternehmen einfacher, an bestimmte Services zu gelangen, aber ohne Einsatz-Know-how und Technologie-Management gehe es eben auch nicht. „IT- und Digitalverantwortliche müssen wissen, ob die Services ihre Leistungen bringen, ob Daten ordnungsgemäß übertragen und Transaktionen im geforderten Tempo abgeschlossen werden. Vor allem müssen sie aber wissen, ob die verschiedenen IT-Leistungen das Business adäquat unterstützen und wo noch Lücken sind.“

In Zeiten der Digitalisierung gehe es dabei mehr um Business Operation Management als um reines Technologie-Management, betont auch Frank Jahn, für den Vertrieb verantwortlicher Vorstand bei amasol: „Das war unser Motiv, im letzten Jahr das BizOps-Forum ins Leben zu rufen. Es findet am 13. Mai 2020 zum zweiten Mal statt. Auf der Konferenz werden genau solche Themen an den Verbindungsstellen von Business, Betrieb und IT verhandelt. Das Ganze findet mit und vor den Leuten statt, um die es geht: IT-Manager, Business-Manager und Operations-Manager.“

Unternehmen müssen einiges verändern

Unternehmen, die ihr Techquilibrum anstreben, müssen sich allerdings darauf einstellen, dass sie einiges umstellen müssen. Das beginnt mit der Aufstellung der Teams, die sehr viel heterogener zusammengesetzt werden sollten. Die Mitglieder sollten sowohl aus der IT, dem Betrieb als auch aus dem Business kommen.

Außerdem wird in der Breite mehr Technologiekompetenz benötigt. Da kaum ein digitales Projekt ohne IT auskommt, sollten Unternehmen überlegen, wie sie den Einsatz von digitalen Werkzeugen so vereinfachen können, dass mehr Mitarbeiter mit ihnen umgehen können, beziehungsweise mehr Leute aus den Fachabteilungen zum Beispiel mit Hilfe von Low Code-Plattformen selbst digitale Services auf den Weg bringen können.

Damit mehr Mitarbeiter in den Unternehmen in den Genuss moderner IT-Lösungen kommen und die Kunden stärker von digitalen Lösungen profitieren können, sind Organisationen auch gehalten, verstärkt über Automatisierung von Prozessen durch IT und Digitalisierung nachzudenken. Das betrifft sowohl die Unterstützung von Entscheidungen durch Künstliche Intelligenz und Business Analytics als auch die Abwicklung von Kundenanfragen, Bestellungen oder Beschwerden.

Einfachere Werkzeuge und mehr Automatisierung sind nötig

Die Absenkung des Skill-Levels mit Hilfe einfach zu benutzender Werkzeuge und ein höherer Automatisierungsgrad in den Prozessen und in der IT stellen allerdings höhere Anforderungen an das IT-Business-Management. Es hat die Aufgabe, die Komplexität vor dem Nutzer abzufangen und gleichzeitig sicherzustellen, dass die verschiedenen eingesetzten Technologien reibungslos zusammenarbeiten, damit sie den Business-Anforderungen überprüf- und nachvollziehbar gerecht werden; vor allem dann, wenn sie von externen Betreibern bereitgestellt werden.

„Damit wird aus IT-Management Business Operations Management. Themen wie Application Performance Management, IT Operations Analytics oder Technology Business Management rücken sehr viel näher an das Business heran. Ohne diese Werkzeuge läuft in modernen, immer stärker digitalisierten Unternehmen kaum noch etwas. Organisationen, die die Digitalisierungsherausforderungen ernst nehmen, brauchen diese Werkzeuge als Grundlagen für ihr Geschäft und damit für ihr Überleben“, so das Fazit von Deml.

]]>
BizOps
news-70 Fri, 18 Nov 2022 13:45:03 +0000 „Es geht wahrscheinlich ohne, aber es geht besser mit“ https://www.amasol.de/blog/detail-page/es-geht-wahrscheinlich-ohne-aber-es-geht-besser-mit Stephan Gruber, Service-Manager bei T-Systems Information Services GmbH, erläutert in seinem Vortrag, wie wichtig ein KPI-Management Tool (Digital Fuel von Apptio) für internationale Großprojekte wie das Satelliten-Navigations-System Galileo ist. Zum einen können die komplexen Vertragsbeziehungen zwischen Auftraggebern, Auftragnehmern und zahllosen Subunternehmen kaum noch verwaltet werden. Zum anderen ließe sich ohne ein solches Werkzeug nicht sicherstellen, dass alle erforderlichen Funktionen und Leistungsparameter zur richtigen Zeit und am richtigen Ort erbracht werden. Auch Qualitätsmanagement und Fehlerbehebung würden ohne KPI-Management extrem zurückgeworfen.

„Es geht wahrscheinlich ohne, aber es geht besser mit“

In diesem kurzen Interview erklärt Stephan Gruber, Service-Manager bei T-Systems International wie KPI- und SLA-Management die Steuerung komplexer Projekte vereinfachen.

Was macht Projekte wie Galileo so komplex?

Ein System von 30 Navigationsatelliten zu bauen, in den Orbit zu bringen und so zu betreiben, dass sie weltweit immer auf einen Meter genaue Positionsdaten liefern, ist nun einmal nicht einfach. Hinzu kommt das Management von sehr vielen Zulieferern, die ein Netzwerk von Auftragnehmern und Subauftragnehmern bilden, die auch noch in unterschiedlichen Konsortien organisiert sind. Nehmen Sie zum Beispiel die T-Systems. Wir wurden von Spaceopal beauftragt, die das Service und Operation-Konsortium innerhalb des Galileo-Projekts bilden. Spaceopal ist wiederum ein Joint-venture aus der italienischen Telespazio und der Deutschen DLR. Das Konsortium vergibt in erster Linie Aufträge an weitere Unternehmen und deren Subunternehmen. Über der Spaceopal ist die europäische Raumfahrtbehörde angesiedelt (GSA). Sie managt das Gesamtprojekt und die Spaceopal berichtet zweimal pro Monat an die GSA. Weitere Konglomerate mit ähnlich komplexem Aufbau sind für andere Bereiche von Galileo zuständig.

Und was berichtet Spaceopal Richtung GSA?

Wir sprechen hier über 300 KPIs und Metriken. Wohlgemerkt das sind nur die Indikatoren, über die die Spaceopal ihre Auftragnehmer misst und an denen sie von der GSA gemessen wird. Ich weiß nicht wie viele KPIs in den anderen „Gewerken“ berichtet werden. Aber es dürften nicht unbedingt weniger sein.

Die KPIs bestehen häufig aus unterschiedlichen Messwerten. Wie kommt das KPI-Tool an diese Werte?

Die Werte werden automatisiert eingebunden in Digital Fuel und automatisiert ausgewertet.

Kann man ein solches Projekt wie Galileo ohne KPI-Management-Tool noch steuern?

Es geht wahrscheinlich auch ohne, aber es geht besser mit. Stellen Sie sich vor, Sie müssten das über eine Excel-Tabelle steuern. Dazu brauchen sie wahrscheinlich Dutzende Leute. Wenn dann auch noch Übertragungsfehler gemacht werden (was wahrscheinlich ist), dann kann ich mir schon vorstellen, dass es zu Ungenauigkeiten kommen kann.

]]>
TBM
news-69 Fri, 18 Nov 2022 13:43:29 +0000 Von manueller Überwachung zum intelligenten Cloud-basierten Applikations-Monitoring https://www.amasol.de/blog/detail-page/von-manueller-ueberwachung-zum-intelligenten-cloud-basierten-applikations-monitoring Stefanie Netzer und Thomas Kelm, Service Delivery Manager von Henkel, berichten in ihrem Vortrag, wie sie von „historisch gewachsenen“ und sehr unterschiedlichen Monitoring-Systemen für 7 Applikationen, die bei 4 verschiedenen Cloud-Providern beheimatet sind, ein einheitliches Monitoring-System aufgebaut haben. „Wir möchten unseren IT-Kollegen helfen, komplexe Probleme zu lösen“

Stefanie Netzer und Thomas Kelm geben spannende Einblicke in das Monitoring der neuen Cloud-Applikationen bei Henkel und erklären, warum sie sich beim Monitoring nicht von den einzelnen Cloud-Providern abhängig machen wollen.

Warum haben sie dieses Projekt gestartet?

Kelm: Allgemein gesprochen: Wir möchten die verschiedenen IT-Teams bei Henkel dabei unterstützen, komplexe Probleme zu lösen. Im Besonderen geht es aber auch darum, einen guten Weg zu finden, mit dem wir die neuen dynamischen, nativen Cloudapplikationen, mit denen wir unsere Kunden im B2B und im B2C versorgen, in ihrer Performance zu überwachen und bei Problemen schnell und genau gegenzusteuern.

Was sind das für Applikationen?

Netzer: Ganz unterschiedliche. Alle 7, die wir zurzeit betreuen, residieren zwar in der Cloud, haben aber unterschiedliche Zielgruppen und nutzen verschiedene Technologien. Dafür waren wir nicht undankbar, weil wir dadurch natürlich mehr lernen können. Konkret handelt es sich dabei um 2 E-Shops,ein Produktinformationssystem, eine mobile IoT-App, unsere Marken-Websites und das Sales Promotion Planning von SAP. Diese Applikationen verteilen sich auf die Clouds von AWS, Azure, Adobe und SAP.

Birgt eine solche Multicloud-Umgebung besondere Herausforderungen?

Kelm: Insofern als die verschiedenen Cloud-Anbieter in der Regel ihre eigenen Monitoring-Systeme anbieten. Die kann man häufig mit den Applikationen zusammen buchen. Allerdings lässt sich so kein Überblick über die Performance der verschiedenen Applikationen schaffen, auch die Definition einheitlicher KPIs fällt schwer, weil die Systeme unterschiedliche Rohdaten liefern. Wird jede Applikation einzeln betrachtet, ist das vielleicht nicht so gravierend. Wenn aber Applikationen voneinander abhängen, kann das bei der Fehlersuche und der Beseitigung von Performance-Engpässen schon behindern. Deshalb haben wir uns entschieden ein zentrales Performance-Monitoring aufzubauen und zwar in der Azure-Cloud. Das Produkt ist Dynatrace und als Dienstleister betreut uns amasol.

Welcher von den 7 Use Cases ist der spannendste?

Netzer: Jede ist spannend. Aus Endanwenderperspektive ist vielleicht unsere Salon-App erwähnenswert. Das ist eine echte IoT-App, die auch noch mobil ist. Frisöre nutzen sie, um die Haarstruktur ihrer Kunden zu analysieren und auf dieser Basis dann die passenden Produkte zu empfehlen. Das Messgerät, das ein bisschen an ein Glätteisen erinnert, ist mit einem iPad verbunden. Und wir monitoren das gesamte System End-to-End, vom Messgerät über das iPad bis hin zum Cloud-Service. Am Anfang wurde das Produkt nur in Japan eingesetzt, der Service dafür residiert aber in Frankfurt. Also durchaus spannend das Ganze.

Gibt es neben der einheitlichen Sicht auf die neuen Applikationen noch andere konkrete Erfolge des neuen Monitorings?

Wir stehen noch am Anfang und wollen das Applikationsmonitoring noch ausdehnen, aber schon jetzt wissen wir, dass wir die Problemeingrenzung und Behebung deutlich beschleunigt haben. Zum Beispiel hatten wir bei einigen Applikationen auf Datenbankebene Performance-Probleme, die wir ohne das neue Monitoring nicht wirklich eingrenzen konnten. Mit den neuen Werkzeugen konnten wir das schnell lokalisieren und aus der Welt schaffen. Ein anderes konkretes Beispiel ist die Synchronisierung von Produktbildern in den global eingesetzten E-Shops. Das hat früher Tage gedauert und funktioniert jetzt in einigen Stunden. Ebenfalls zeichnet sich ab, dass wir bei der Softwareentwicklung deutlich schneller werden, weil wir die deutlich zügiger vorliegen haben, schneller unsere Schlüsse daraus ziehen können und deshalb auch Veränderungen nicht mehr so lange dauern. Das ist ein echter BizOps-Aspekt: kürzere Time-to-Market und mehr Innovationen in kürzerer Zeit.

Wie geht es weiter mit dem Monitoring bei Henkel?

Darüber diskutieren wir zurzeit. Zum einen überlegen wir in Richtung Systemmonitoring, zum anderen denken wir darüber nach, wie wir kleinere Applikationen von kleineren Teams monitoren können. Dynatrace ist ein mächtiges Werkzeug. Bei den großen DevOps-Teams ist das kein Thema, weil sich dort eine Kraft dediziert darum kümmert. Systemmonitoring bleibt auch in der Cloud ein Thema, weil Anwenderunternehmen auch wissen müssen, wo es Performance-Engpässe in der Infrastruktur gibt, nicht nur der Cloud-Provider. Das gilt natürlich bei einem Multi-Cloud-Ansatz umso mehr.

]]>
APM
news-68 Fri, 18 Nov 2022 13:42:20 +0000 BizOps als Brückenbauer zwischen Business und IT https://www.amasol.de/blog/detail-page/bizops-als-brueckenbauer-zwischen-business-und-it BizOps bildet eine immer solidere Brücke zwischen IT und Business. BizOps bildet eine immer solidere Brücke zwischen IT und Business. Es koppelt die IT an die angestrebten Business-Ziele (Business-Outcome). Die IT wird deshalb nicht mehr nur an ihrem Output – zum Beispiel Menge und Kosten pro Transaktion – gemessen. Sie wird an ihrem direkten Beitrag zum Erreichen der Geschäftsziele überprüft. Das heißt zum Beispiel, wenn sich ein Unternehmen vornimmt, seinen E-Commerce-Umsatz binnen 24 Monaten zu verdoppeln, muss die IT entsprechende Infrastruktur und Services planen, bereitstellen und so betreiben, dass sie diesen Business-Outcome ermöglicht. So wird ihr Erfolg direkt an den Geschäftserfolg bzw. Erreichen der Business-Ergebnisse gekoppelt. Das wiederum bedeutet ein anderes Operating Model, sehr viel kooperativere Arbeitsweisen und auch andere Monitoring Methoden.

Was für Einzelziele gilt, gilt auch für Unternehmensziele. Plant ein Unternehmen, sein Geschäftsmodell zu transformieren, wird die IT daran gemessen, wie sie diese Transformation unterstützt.

IT wird zum Partner und Guide

BizOps verändert also die Kultur und das Selbstverständnis der IT. War sie bis dato Dienstleister des Business, der die ihm übertragenen Aufgaben möglichst effektiv in technische Systeme und Abläufe umgesetzt hat, wird sie Partner und teilweise auch Guide des Business, der die richtigen Technologien findet und einsetzt, um klar umrissene Business-Ziele zu erreichen. „Früher hat sich die IT verhalten wie ein Mensch mit Übergewicht, der mit dem Joggen beginnt, um abzunehmen. Dabei prüft er zwar, wie oft, wie lang und wie schnell er läuft, aber nicht, wie viel er abnimmt. Mit BizOps stünde das Ziel Abnehmen im Fokus und nicht die gelaufenen Kilometer“, erklärt Frank Jahn, Vertriebschef des Münchener IT-Beratungs- und Systemhauses Amasol das Prinzip mit einer Analogie. Die IT hat bisher also das Laufen optimiert und nicht die möglichst schnelle und nachhaltige Gewichtsabnahme. „Da wird die Frage gar nicht mehr gestellt, ob Laufen der beste Weg ist, um abzunehmen. Bei BizOps steht diese Frage aber am Anfang und dann kommen viel mehr Antworten in Frage – von weniger Nahrungsaufnahme, über Trampolinspringen bis zum Schwimmen“, erklärt Jahn weiter.

Das BizOps-Manifesto spiegelt den Kulturwandel

Dieser kulturelle Wandel spiegelt sich auch im BizOps-Manifesto wider, das namentlich angelehnt an das Agile Manifesto von 2001, im Oktober 2020 veröffentlicht worden ist. Das von Vordenkern und Industriegrößen wie Tom Davenport, Lauren Knudsen, Sergio Luco (Broadcom), Marc Standeaven (Capgemini), Evan Leyborn (Business Agility Institute) und einigen anderen geschriebene Manifesto basiert auf folgenden Maximen:

  • Business Outcomes sind wichtiger als individuelle Projekte und Proxy-Metriken (indirekte Messwerte)
  • Vertrauen und Zusammenarbeit sind wichtiger als Individualität und Hierarchie
  • Data-driven Decisions sind besser als Meinungen, Urteile und Überredung
  • Lernen und Variieren sind besser als einem festen Plan zu folgen

Neben diesen grundlegenden Werten entwickelten die Autoren 14 Prinzipien. Hier die 7 wichtigsten:

  • Unsere höchste Priorität ist es, Kunden zu begeistern und Investoren und Stakeholder durch kontinuierliche Entdeckung und Bereitstellung von wertorientierten Lösungen zufriedenzustellen.
  • Software- und Produktinvestitionen sollten an realen Geschäftsergebnissen ausgerichtet und daran gemessen werden.
  • Anforderungen sollten sich ändern, wenn sich Markt-, Kunden- und Geschäftsanforderungen ändern. Änderungen sind dann noch willkommen, wenn die Software bereits in Produktion ist, was die Entdeckung von Kundenproblemen und Lösungen durch Experimente und das Testen von Ideen ermöglicht. 
  • Geschäftliche und technische Teams müssen mehr als nur zusammenarbeiten; sie müssen eine gemeinsame Vision und gemeinsame Ziele haben, um den Wertfluss zu maximieren.
  • Heutige Organisationen generieren mehr Daten, als Menschen verarbeiten können, daher müssen informierte Entscheidungen durch fortschrittliche Analysen und KI/ML ergänzt werden.
  • Unternehmen brauchen Einblicke in Metriken und Erkenntnisse auf der Basis von Echtzeitdaten, damit sie ihr Verhalten entsprechend abstimmen und anpassen können. 
  • Führungskräfte müssen Scheitern als Mittel zum Lernen begreifen und wiederständsfähiger werden. Innovative Organisationen streben danach, zu lernen und neugierig auf zukünftige Möglichkeiten zu sein. Sie haben keine "Das machen wir hier nicht"-Mentalität. 

Noch ist das BizOps-Manifesto eine Art Appell einiger Industriegrößen, die Art der Zusammenarbeit zwischen IT und Business zu verändern sowie die geschäftliche und technische Seite eines Unternehmens nicht mehr getrennt voneinander zu betrachten, sondern als Kräfte, die kombiniert, Ziele schneller erreichbar machen. Und natürlich hoffen die Autoren, dass das BizOps-Manifesto das Verhältnis von IT und Business so radikal verändert, wie es das Agile-Manifesto damals getan hat.

Immer mehr Unternehmen gehen BizOps praktisch an

Doch über Theorie und Appelle hinaus gehen immer mehr Unternehmen das BizOps-Thema auch ganz praktisch an. Eine von amasol beauftrage Befragung von 95 Unternehmen zeigt ganz deutlich, dass Unternehmen das Thema für sich entdecken.

Frage: Wie bewerten Sie den aktuellen BizOps-Status in Ihrem Unternehmen? (n=95)

29 Prozent der befragten Unternehmen haben bereits BizOps im Unternehmen eingeführt, bzw. sind gerade dabei. Weitere 36 Prozent erachten BizOps als interessante Methode und/oder gehen davon aus, dass BizOps ein nächster Schritt sein könnte. Bei 22 Prozent der Umfrageteilnehmenden spielt BizOps aktuell keine Rolle. Bei fünf Prozent spielen selbst agile Arbeitsweisen keine Rolle. Nun, dieser kleine Anteil an Unternehmen ist wohl auch auf längere Sicht nicht für BizOps zu begeistern. Doch das deutlich über 50 Prozent der Befragten das Thema so interessant finden, dass sich bereits praktisch damit beschäftigen oder sich vorstellen können, sich damit auseinanderzusetzen, spricht für das große Potenzial von BizOps. Das gilt umso mehr, weil Unternehmen, die sich zurzeit nicht für das Thema begeistern können, zu geringes Wissen über das Konzept als Grund dafür angeben. Das lässt sich relativ einfach ändern.

]]>
BizOps
news-67 Fri, 18 Nov 2022 13:41:12 +0000 SecOps: Jetzt wächst zusammen, was schon immer zusammengehört hat https://www.amasol.de/blog/detail-page/secops-jetzt-waechst-zusammen-was-schon-immer-zusammengehoert-hat Entweder steht IT-Operations, kurz Ops genannt, mächtig unter Druck – oder es feiert eine Renaissance. Wir tendieren zum Letzteren. Dieser früher eher als langweilig und unflexibel wahrgenommene Teil der IT wird seit einigen Jahren neu aufgeladen mit zusätzlichen Aufgaben und Verantwortung. Nach DevOps und BizOps folgte zuletzt der Teilbereich Security and Operations, kurz: SecOps. In diesem Beitrag wollen wir kurz beleuchten, was hinter SecOps steckt, welche Vorteile es hat, mit welchen Werkzeugen Unternehmen das Thema angehen können und natürlich, was auf dem kommenden BizOps Forum am 1. und 2. Juni 2022 zu dem neuen Thema zu erwarten ist.

Das „Entdecken“ und „Schließen“ von Sicherheitslücken zusammenführen

Security-Aufgaben lassen sich am einfachsten beschreiben als das Entdecken von Schwachstellen, Sicherheitslücken, Angriffen und Schadcodes gleich welcher Art. In IT-Operations werden alle Aufgaben zusammengefasst, die für den reibungslosen IT-Betrieb nötig sind. Auch das Monitoring von Infrastruktur, Applikationen und Services ist klassischerweise hier angesiedelt. Dazu gehört auch das Einspielen von Updates und damit das Schließen von Sicherheitslücken sowie die Eliminierung von Schadcodes. In SecOps werden die beiden Aufgaben „Entdecken“ und „Schließen“ von Sicherheitslücken zusammengeführt.

Schon auf den ersten Blick erscheint es logischer und effizienter, wenn das Sec-Team seine Informationen zu Schadcodes und Vulnerabilities dem Ops-Team nicht nur mitteilt, sondern wenn ein Team gemeinsam an der Entdeckung und Beseitigung arbeitet. Einem Team, das beide Perspektiven gleichzeitig einnimmt – die Security-Sichtweise durch die Operations-Brille – fällt einfach mehr auf, wenn ein Datensatz analysiert wird. So wie es der Begriff „SecOps“ eben ausdrückt, den man als „Security and Operations“ ausspricht oder als „secure operations“.

Cost of Business möglichst gering halten

Ein dem Geschäftsmodell entsprechendes Security-Niveau sowie eine 24/7-Verfügbarkeit sind für Unternehmen überlebenswichtige Voraussetzungen. Die fortscheitende Digitalisierung macht beides komplexer. Im Sicherheitsbereich vervielfältigt sich die Angriffsfläche und im Bereich Operations müssen immer diversere und schneller wechselnde Services koordiniert werden. SecOps bietet die Chance, beides mit vernünftigem Aufwand zu erreichen. Ohne die Synergie zwischen Security- und Operations-Teams dürfte sich das Erreichen des anvisierten Security-Niveaus und der entsprechenden Verfügbarkeitslevels deutlich verteuern.

SecOps geht nur mit Automatisierung

Angesichts des extremen Fachkräftemangels im gesamten IT-Bereich, insbesondere aber im Security-Umfeld, kann Operations allerdings nur dann die zusätzliche Aufgabe stemmen, wenn die SecOps-Teams mit geeigneten Werkzeugen ausgestattet sind, die das Entdecken von Schwachstellen und Schadcodes sowie deren Beseitigung zumindest teilweise automatisieren bzw. dem Security Information and Event Management (SIEM) eines Unternehmens automatisiert melden. SecOps soll ein höheres Maß an Security bringen, ohne deswegen für die handelnden Personen aufwendiger zu sein. Mit dem Ansatz dieser „reibungslosen“, weil zumindest teilweise automatisierten Security-Maßnahmen können weniger Leute für mehr Sicherheit sorgen.

Zum Entdecken von Vulnerabilities lassen sich verschiedene Pfade einschlagen. Einer führt über den Einsatz von Application-Performance-Management-Systemen (APM) wie das des Anbieters Dynatrace. Der andere führt über spezialisierte Werkzeuge des Netzwerkmonitorings wie das Network-Detection-und-Response-Tool ExtraHop. Mit dem APM-System lassen sich Schwachstellen und Standardviren-Signaturen aufspüren; mit dem Netzwerk-Monitoring wird nach Anomalien gefahndet, über die sich auch gezielte Angriffe erkennen lassen. Diesen zweiseitigen Ansatz bietet zum Beispiel amasol seinen Kunden an, besonders solchen Unternehmen, die bereits Dynatrace im Einsatz haben und die SecOps einführen möchten.

SecOps bietet gegenüber herkömmlichen Ansätzen folgende Vorteile:

  • Höhere Geschwindigkeit für Schwachstellenerkennung und Beseitigung: Mit der skizzierten Automatisierung und den gemeinsamen Teams lassen sich Schwachstellen schneller entdecken und durch direkte Kommunikation schneller beseitigen.
  • Mehr Security bedeutet in SecOps-Zeiten nicht unbedingt mehr Aufwand oder Unbequemlichkeit für die Teams: SecOps bietet „reibungslose“ Security.
  • Mehr Security- und Operations-Expertise: Die Teammitglieder lernen voneinander und werden gezielt weitergebildet. Dadurch entsteht in beiden Feldern mehr Know-how.
  • Die Aufwände bleiben überschaubar: Trotz wachsender Anforderungen im Bereich Security und im Betrieb verläuft der Kostenanstieg flacher als in herkömmlich getrennten Ansätzen.
  • Höhere Agilität und Flexibilität: SecOps-Teams können sich schneller auf neue Situationen einstellen, weil sie mehr Expertise in beiden Bereichen haben.

SecOps ist genauso wie BizOps Outcome-orientiert

Doch die geeignete Technologie ist nicht die einzige, vielleicht nicht einmal die wichtigste Voraussetzung für SecOps. „Wie bei allen Initiativen im IT- und BizOps-Umfeld kann man nichts gegen die Menschen bewegen“, erklärt Fabio Fink vom BizOps-Forum-Gastgeber amasol, der auf dem Forum im Juni einen Workshop zum Thema SecOps anbieten wird. Im Grunde ist SecOps ein weiterer Innovationsschritt, der die alte Plan-Build-Run-Struktur der IT infrage stellt und durch den Teamgedanken, agiles Arbeiten und Continuous Development und Delivery ersetzt. Vor allem aber ist SecOps ein weiteres Zeichen für die Outcome-Orientierung, die seit BizOps in der IT Einzug gehalten hat. Es geht nicht mehr nur darum, dass die Security-Teams möglichst viele Schwachstellen entdecken und die IT-Operations für die 24/ 7-Verfügbarkeit der IT sorgt. Sondern die zentralen Performance-Indikatoren für SecOps sind Business-Continuity und die Reduzierung von Sicherheitsvorfällen, die den Umsatz reduzieren.

]]>
SecOps
news-66 Thu, 21 Jul 2022 14:09:12 +0000 Security & Visibility Assessment https://www.amasol.de/blog/detail-page/security-visibility-assessment Verteilte Workloads erschweren das IT-Management zunehmend. Die Antwort auf die Frage, welcher IT-Service wo läuft und von welchen anderen Service ist, wird immer komplexer. Schließlich geht es auch darum, zu verstehen, ob Service vor Cyber-Security-Angriffen geschützt sind und welche kausalen Folgen ein Incident haben kann. Wir unterstützen Sie dabei mit einem Security Assessment aus unserem amasol SecOps-Lösungsportfolio.

Dazu prüfen wir zunächst Ihre Netzwerkumgebung mithilfe eines passiven Netzwerkmonitoring-Tools, um den Status quo Ihrer Netzwerkhygiene zu ermitteln. Im zweiten Schritt erfolgt eine Simulation von vorab definierten Angriffsszenarien, um Ihre bestehenden Sicherheitsmaßnahmen gegen aktuelle Sicherheitsrisiken zu validieren. Dies ist vergleichbar mit einem automatisierten Pentesting, jedoch ohne die Gefahr, Ihren produktiven Betrieb zu beeinträchtigen. Die Prüfung und Auswertung beider Aspekte des Security Assessments nehmen etwa einen Monat Zeit in Anspruch.

Als Resultat erhalten Sie einen umfassenden Report, der Einzelheiten zu den folgenden Punkten beinhaltet:

  • Netzwerkhygiene:
  1. Bestandsaufnahme sämtlicher Netzwerktransaktionen, aktiver Geräte und Kommunikationsverbindungen
  2. Identifizierung gefährdeter Geräte und Verbindungen, sowohl am Perimeter als auch innerhalb des Netzwerks
  3. Prüfung aller gesprochenen Protokolle - auch unsicherer Protokolle und mit veralteter  Verschlüsselung - sowie der genutzten Zertifikate
  • Validierung der bestehenden Konfiguration und Sicherheitsmaßnahmen
  • Simulation einer vollständigen Kill-Chain zu vorab definierten Angriffsszenarien -ohne aufwendiges Pentesting und vor allem ohne Gefährdung des produktiven Betriebes
  • Erstellung eines Visibility-Reports

 


„Im Zeitraum des Assessments wurden 93.303 Expired-SSL-Certificates-Sessions in der gesamten IT-Netzwerkumgebung erkannt.“

Der Report bietet Ihnen eine ganzheitliche Sicht auf die jeweiligen Transaktionenabhängigkeiten in Ihrem Netzwerk und darauf, woher nach wohin diese kommunizieren. Gepaart wird diese Sichtweise mit fundierten Aussagen dazu, wie vorbereitet Ihr Netzwerk auf potenzielle Breaches ist.

Gerüstet mit diesen Informationen sind Sie - sofern erforderlich - in der Lage, Ihre Angriffsfläche weiter zu verringern und Risikomanagement-Strategien zu optimieren. 

Sie sollten jedoch stets Folgendes bedenken: Jedes Security Assessment ist eine Momentaufnahme. Es treten immer neue Sicherheitslücken auf und es ist nicht möglich, jeden Breach zu verhindern. Was Sie allerdings machen können, ist bestmöglich vorbereitet zu sein.

Möchten Sie mehr über die Machbarkeit eines Security Assessments in Ihrem Netzwerk erfahren? Dann sprechen Sie uns an: Fabian Fink, fabian.fink(at)amasol.de, SecOps Specialist und Account Manager. 

]]>
SecOps
news-65 Fri, 01 Jul 2022 08:22:49 +0000 Gartner Magic Quadrant APM 2022 https://www.amasol.de/blog/detail-page/gartner-magic-quadrant-apm-2022 Anfang Juni wurde der neue Magic Quadrant für Application Performance Monitoring und Observability von Gartner veröffentlicht.
Auffällig ist dieses Mal insbesondere die Anzahl der Hersteller, die in diesem Jahr berücksichtigt wurden (In 2022 wurden 19 Herstellern von maximal 20 möglichen Herstellern in den Quadranten aufgenommen. Im Vergleich dazu waren in den Vorjahren nur 15 in 2021 bzw. 14 in 2020 im Quadranten gelistet.)

Für die Positionierung innerhalb des Quadranten wertet Gartner verschiedenen Kriterien je Hersteller aus. Je weiter oben ein Hersteller positioniert ist, desto besser ist seine „Ability to Execute" (Ausführungsfähigkeit). Hier fließt mit rein: 

  • Wie gut das aktuelle Produkt und die Dienstleistungen des Herstellers an den aktuellen Markt / Bedarf angepasst sind.
  • Wie gut der Hersteller finanziell aufgestellt ist und mit welcher Wahrscheinlichkeit er das evaluierte Produkt auch künftig noch am Markt anbieten kann. 
  • Wie gut der Hersteller im PreSales Bereich agiert und hier auch unterstützung anbieten kann. 
  • Wie schnell der jeweilige Hersteller sich an neue Gegebenheiten bspw. durch konkurrent, Marktentwicklung, Anforderungen neuer Kunden usw. anpassen kann.
  • Wie gut das Marketing des jeweiligen Herstellers agiert, um klar, kreativ aber auch effizient die eigene Botschaft zu transportieren.
  • Wie der Hersteller es schafft mit seinem Produkt und Dienstleistungen auch die erwarteten Ergebnisse bei seinen Kunden zu erzielen.

Für die Positionierung auf der zweiten Achse steht die „Completeness of Vision". Umso weiter rechts ein Hersteller postioniert ist, desto besser sind die folgenden Kriterien erfüllt:

  • Der Hersteller versteht die Anforderungen des Marktes und überträgt diese auf sein Produkt und die Services.
  • Klare Marketing Aussagen werden konsistent sowohl intern als auch extern kommuniziert.
  • Es gibt eine Sales-Organisation sowohl für den direkten als auch indirekten Vertrieb, die die Marktreichweite vergrößern. 
  • Für die Produkt-Strategie gibt es einen klaren Ansatz, um die aktuellen und künftigen Anforderungen an das Produkt umzusetzen.
  • Es gibt ein logisches und solides Geschäftskonzept.
  • Ressourcen und Kapital werden zwecksmäßig und zukunftssicher eingesetzt. 
  • Es können Services und andere Angebote auch außerhalb der eigenen geografischen Region angeboten werden, bspw. durch eigene Ressourcen oder Partner.

Außerdem wurden in diesem Jahr auch zum ersten Mal Security-Komponenten, die in das Produkt inkludiert sind, mit bewertet. Gerade die letzten großen Security-Vorfälle wie bspw. log4j haben gezeigt, wie wichtig es ist, dass nicht nur Application Performance im Fokus ist sondern auch die Komponenten mit den vorhandenen Schwachstellen analysiert werden können. Security- und Betriebs-Teams haben bereits in der Vergangenheit häufiger die gleiche Datenquellen genutzt (bspw. Log-Dateien), aber nun wachsen hier die Funktionalitäten auch in Tools zusammen, sodass einige APM Hersteller nun auch Security Funktionalitäten anbieten. 

Dabei sieht die Bewertung für die Hersteller aus dem amasol Portfolio wie folgt aus:

Broadcom

Broadcom wird mit dem DX APM Produkt von Garnter als Niche Player eingestuft. Gartner sieht hier den Fokus von Broadcom hauptsächlich bei den Bestandskunden und im Bereich von Betriebsteams. Dabei kann Broadcom für seine Kunden einen guten und günstigen Einstieg in APM bieten. Funktionell deckt DX APM alle wichtigen Bereiche von User Experience, Application Monitoring, Infrastruktur, Netzwerk und Mainframe ab. 

Dynatrace

Dynatrace hat Gartner mit seinem aktuellen Produkt überzeugt und konnte mit seinen Funktionalitäten unter anderem rund um Distributed Tracing, OpenTelemetry Integration, AI Funktionen, Integrationen bei den größten Cloud Providern seinen Platz im Leaders Quadranten sichern. 
Dabei stellt Gartner auch die gute Kombination von Application und Security Monitoring sowie den einfachen Rollout von Dynatrace durch OpenAgent Architektur in den Vordergrund. 

Riverbed (Aternity)

Nachdem Riverbed 2019 die APM Produkte in die separate Organisation „Aternity" ausgelagert hatte, werden diese nun wieder in die Riverbed Organisation zurück integriert. Aktuell stuft Gartner Riverbed als Niche Player ein. Dabei stellt Gartner insbesondere die Möglichkeiten von Aternity im Bereich des End-User-Monitorings heraus. So gibt es bei Aternity, im Gegensatz zu anderen Herstellern, Branchen-Benchmarks, bei denen Kunden ihre eigene Performance mit Marktbegleitern vergleichen können. 
Trotz positiver Entwicklung und neuer Möglichkeiten in der Entwicklung, bringt die Reintegration von Aternity in die Riverbed Organisation auch Unsicherheit für potentielle Kunden über die Zukunft des Produktes mit. Ebenso hat der Fokus auf End-User-Monitoring dazu geführt, dass Kernfunktionen im APM Bereich nicht so stark ausgebaut wurden, wie bei anderen Herstellern.

Splunk

Splunk APM kombiniert Metriken, Traces und Log Analyse und wird damit von Gartner als Visionär positioniert. Besonders die bestehenden Splunk Kunden können einfach die APM Plattform in ihre vorhandene Splunk Lösung integrieren und so einen Mehrwert im Unternehmen generieren. Auch die Unterstützung im OpenTelemetry Bereich und die APM Service Map, die Abhängigkeiten und Engpässe visualisiert, stellt Gartner dabei besonders heraus. Auf der Roadmap von Splunk steht ein Ausbau der Monitoring Möglichkeiten und auch Security Insights mit Integrationen in Splunk Cloud und Splunk Log Observer. 
Allerdings sind die Splunk APM Produkte noch nicht vollständig integriert (Splunk APM, Splunk Synthetics, Cloud Network Monitoring) und auch das komplexe Preismodell kritisiert Gartner hier. 

LogicMonitor

LogicMonitor ist allgemein im ITIM Bereich bekannt. Kurzlich hat LogicMonitor APM Funktionalitäten durch die Integration von OpenTelemetry Daten und verbesserte Log Analyse hinzugewonnen. LogicMonitor wurde im Gartner Bericht außerhalb des Magic Quadrants erwähnt, erfüllt jedoch die Kriterien für eine Positionierung im Quadranten selbst noch nicht. 

Jeder der vorgestellten APM Anbieter hat seine eigenen Stärken und Einsatzbereiche, so dass es für jede Art von Anforderungen einen passenden Hersteller gibt. Gerade da die Preismodelle bei allen Herstellern relativ komplex sind, unterstützen wir Sie gerne den passenden Anbieter zu wählen, zu evaluieren und auch die notwendigen Informationen für eine Preisanfrage zusammenzustellen. Sprechen Sie uns gerne an bei Fragen oder Unterstützungsbedarf.

]]>
APM
news-64 Tue, 17 May 2022 12:55:34 +0000 amasol SecOps – das Netzwerk sichern, aber durchgängig https://www.amasol.de/blog/detail-page/amasol-secops-das-netzwerk-sichern-aber-durchgaengig Die vorherigen Teile der Beitragsreihe zum amasol-SecOps-Lösungsansatz können Sie hier nachlesen:
  • Teil I: amasol SecOps - Das Nutzer Verhalten im Fokus
  • Teil II: amasol SecOps - Netzwerk Forensik in Echtzeit
  • Teil III: amasol SecOps - Applikationssicherheit von Anfang an
  • Nach einem Ausflug in die Welt des römischen Handels auf dem Mittelmeer geht der Fokus des vierten und letzten Teils dieser Beitragsreihe zurück auf den Perimeter des Römischen Reiches. Dort hat der Befehlshaber seine Grenzen stets im Blick und kennt die wichtigsten Standorte, die Tag und Nacht bewacht werden müssen.

    Da der Befehlshaber sehr erfahren ist, weiß er, wie die Feinde des Römischen Reiches üblicherweise agieren. Aus diesem Grund werden sämtliche Sicherheitsvorkehrungen – zum Beispiel stabile Wälle – nicht nur routinemäßig auf Sicht überprüft, sondern manchmal auch eigene vertrauenswürdige Trupps mit dem Versuch beauftragt, Lücken in der Verteidigung zu finden. Das ist eine umfangreiche Aufgabe und so folgt der Befehlshaber dem Prinzip „divide et impera“, das heutzutage in der Informatik als „divide and conquer“-Paradigma bekannt ist, um die Verteidigung abschnittsweise zu überprüfen. Sollten dabei Lücken im Grenzwall festgestellt werden oder unaufmerksame Wachposten, die ein unbemerktes Vorbeikommen an einem Grenzposten ermöglichen, sind entsprechende Gegenmaßnahmen zu treffen.

    Der Feind schläft nie – das sollte Ihre Verteidigung auch nicht

    So wenig sich der erfahrene römische Befehlshaber auf den Lorbeeren einer erfolgreichen Überprüfung ausruhen sollte, können sich auch in modernen Zeiten Security-Teams nicht sicher sein, dass regelmäßige Pentests zur Gewährleistung der Netzwerksicherheit ausreichen. Schließlich treten neue Sicherheitslücken unerwartet auf. Zudem bedeutet Pentesting monetären, personellen und zeitlichen Aufwand für jeden Durchführungszyklus. Das wiederum spricht gegen eine engmaschige Überwachung durch Pentesting.

    Quasi-kontinuierliche Überwachung durch Breach-and-Attack-Simulation

    An dieser Stelle zeigt die Automatisierung ihre Vorzüge. Die „Threat Simulator“-Lösung des Herstellers Keysight ermöglicht eine effiziente und kostengünstige Überwachung der Netzwerksicherheit. Mithilfe der Breach-and-Attack-Simulation können die auf dem MITRE ATT&CK Framework basierenden gängigen Angriffsszenarien quasi-kontinuierlich getestet werden. Auf diese Weise werden die aktuellen Sicherheitsvorkehrungen im Netzwerk validiert und bei Bedarf verbessert. Gleichzeitig liegen die Ergebnisse der Simulationen als Beweis der getroffenen Sicherheitsmaßnahmen vor.

    Hat amasol SecOps Ihr Interesse geweckt? Dann sprechen Sie uns gerne an: Olga Wall, Consultant für Application Performance Management.

    ]]>
    SecOps APM
    news-63 Fri, 22 Apr 2022 08:14:34 +0000 Neuer amasol Partner: LogicMonitor https://www.amasol.de/blog/detail-page/neuer-amasol-partner-logicmonitor "Ziel der neuen Partnerschaft ist es, amasol Kunden einen noch besseren Einblick in ihre IT-Infrastrukturen und Anwendungen zu ermöglichen." amasol begrüßt die Firma LogicMonitor als neuen Herstellerpartner. Das Unternehmen aus Santa Barbara in den USA ist mit seiner Cloud-basierten Plattform einer der neuen Anbieter im Bereich IT Infrastructure Monitoring und IT Infrastructure Management für Unternehmen und Managed Service Provider (MSPs).

    Ziel der neuen Partnerschaft ist es, amasol Kunden einen noch besseren Einblick in ihre IT-Infrastrukturen und Anwendungen zu ermöglichen.

    Dies gilt insbesondere für Unternehmen, die sich gerade auf dem Weg in die Cloud befinden. Dabei ist es entscheidend, auf Cloud-basierte Monitoring Services zurückgreifen zu können, mit denen sie die immer komplexer werdenden IT-Infrastrukturen und Multi-Cloud-Implementierungen verwalten können. Die LogicMonitor Cloud-Plattform bietet dafür die perfekte Grundlage.

    Frank Jahn, CSO amasol AG, erklärt zur neuen Kooperation: „Bereits bei der Gründung von amasol vor 20 Jahren gehörte das Thema IT Infrastucture Management zu den Kernthemen des Unternehmens und spielt auch heute noch in zahlreichen Kundenprojekten eine wichtige Rolle. LogicMonitor bringt alles mit, was eine moderne Lösung in diesem Bereich beherrschen muss. Mit über 2.500 verfügbaren Monitoring Templates können alle gängigen IT Komponenten „plug & play“ überwacht werden. Besonders begeistert mich an der Lösung die Art und Weise, wie Metriken und Log-Daten in einem Tool überwacht werden und daraus Anomalien über künstliche Intelligenz ermittelt werden.“

    Peter Dalziel, EMEA Director bei LogicMonitor. ergänzt: „amasol genießt einen hervorragenden Ruf als ‚trusted advisor‘ seiner Kunden. Die Kombination aus amasol Beratungskompetenz und der AIOps-Plattform von LogicMonitor bedeutet, dass amasol Kunden ab sofort von einer schnellen Wertschöpfung durch eine vollständige Transparenz ihrer gesamten Hybrid-/Multi-Cloud-Umgebung profizieren können.“

    Cloud Computing in Europa weiter auf dem Vormarsch

    Cloud Computing wird in Europa in den nächsten Jahren voraussichtlich exponentiell wachsen. So prognostiziert beispielsweise Global Market Insights ein Marktwachstum von derzeit 25 Milliarden US-Dollar auf über 75 Milliarden US-Dollar im Jahr 2026 . Immer mehr europäische Unternehmen haben erkannt, dass die Cloud einen skalierbaren Ansatz bietet, der häufig zu höherer betrieblicher Effizienz und verbesserter geschäftlicher Flexibilität bei geringeren Kosten führt. Das nahtlose Monitoring und Management hybrider IT-Infrastrukturen wird damit zum entscheidenden Erfolgsfaktor.

    Weitere Informationen zu LogicMonitor:

    - eBook Download: The Ultimate Guide to Observability

    - Workbench On-Demand mit amasol vom 24. Februar 2022: Turning Sight into Vision with LogicMonitor

    - LogicMonitor Extensible, Secure Infrastructure Monitoring for Hybrid IT

    ]]>
    news-62 Wed, 16 Mar 2022 10:54:18 +0000 Dynatrace Cloud Automation Module bietet automatisiertes „Observability-Driven“-Monitoring über den gesamten Lebenszyklus einer Anwendungslandschaft https://www.amasol.de/blog/detail-page/dynatrace-cloud-automation-module-bietet-automatisiertes-observability-driven-monitoring-ueber-den-gesamten-lebenszyklus-einer-anwendungslandschaft Das Dynatrace Cloud Automation Module kombiniert automatisches und intelligentes Monitoring mit einer unternehmensspezifischen Steuerungs- und Kontrollebene zur Automatisierung von Anwendungsbereitstellung und Betrieb. Es unterstützt Unternehmen damit bei der Automatisierung des kompletten Softwareentwicklungszyklus und Orchestrierungsprozesses. Die Folge: schnellere Innovation und geringeres Risiko. Entscheidende Erfolgsfaktoren im heutigen Wettbewerb: Geschwindigkeit, Resilienz und Skalierbarkeit

    Um ihre Position im Wettbewerb zu festigen, müssen Unternehmen heute auf die folgenden Erfolgsfaktoren achten:

    • Geschwindigkeit: Schnelleres „Time to Market“ und immer kürzere Release-Zyklen ohne Beeinträchtigungen für die Anwendungsqualität.
    • Resilienz: Kritische Produktionssysteme dürfen einfach nicht ausfallen.
    • Skalierbarkeit: Verteilte Teams, die sich um unzählige Anwendungen kümmern müssen, die weltweit auf heterogenen Technologie-Stacks aufgebaut sind, benötigen mehr Autonomie und engere Zusammenarbeit.

    Diese Erfolgsfaktoren führen zu besonderen Herausforderungen im Laufe eines Softwareentwicklungszyklus wie z. B.:

    • Fragmentierte Tool-Abdeckung, was die Komplexität für Entwicklungs-, DevOps- und SRE-Teams erhöht, da mehrere Tools erforderlich sind, um ein einigermaßen umfassendes Bild zu erhalten, dem dann auch noch der „single point of truth“ fehlt.
    • Überdehnter Tool-Einsatz außerhalb deren Schlüssel-Use-Cases und weit über deren Kernfunktionen hinaus führt zu unzuverlässigen Daten, die wiederum zu falschen Entscheidungen und zu einem trügerischen Gefühl von Sicherheit führen.
    • Hoher Arbeitsaufwend bei Integration und Konfiguration durch das „Zusammenbasteln“ unterschiedlicher proprietärer und/oder DIY-Lösungen mit möglicherweise negativen Folgen für deren Interoperabilität.
    • Fülle an Daten, die eigentlich helfen sollen, stattdessen aber in zu viel „Noise“ und unnützen Alarmmeldungen münden, weil intelligente Ursachenanalyse und Transparenz fehlen.
    • Eine „Quantität statt Qualität"-Haltung, bei der einfach alles gemessen wird, anstatt sich auf das zu konzentrieren, was wirklich wichtig ist: die Services mit den größten Auswirkungen auf die Customer Experience.

    Um diese Herausforderungen zu meistern, ist es entscheidend, ein kundenfokussiertes, produktzentriertes Kontrollsystem zu etablieren. Dies ermöglicht „Oberservability“ über den gesamten Lebenszyklus der Softwareentwicklung mit integrierten Automatisierungsfunktionen, die eine sichere und risikofreie Bereitstellung ermöglichen. Um dies zu erreichen, ist künstliche Intelligenz heute eine Grundvoraussetzung. Nur so können Release-Zyklen verkürzt, Bereitstellungen beschleunigt, die Gesamteffizienz erhöht und die Zusammenarbeit optimiert werden. Dies wiederum führt letztendlich zu höheren Service-Levels und reibungslosen Kundenerfahrungen.

    Dynatrace stellt Cloud Automation Module für Entwicklung-, DevOps- und SRE-Teams vor

    Mit Dynatrace Cloud Automation bietet das Unternehmen ab sofort KI-basierte Observability und Automatisierungsfunktionen für den gesamten Lebenszyklus einer Anwendungsumgebung in einer integrierten Lösung.

    Das neue Modul profitiert dabei von den KI- und Automatisierungsfunktionen der Dynatrace Software Intelligence Platform und unterstützt Entwicklungs-, DevOps- und SRE-Teams bei der Prozessoptimierung.

    • Automatisierter SLO Validation and Quality Gates stellen sicher, dass qualitativ hochwertiger Code sanft durch die Software-Delivery-Pipeline gleitet und im Produktiveinsatz keine Fehler-Budgets verletzt.
    • Automatisierte Closed-Loop-Fehlerkorrektur bei Software-Releases, die im Produktiveinsatz ausfallen, durch eine Kombination von KI-unterstützter Ursachenanalyse zum Aufdecken von Fehlern im Programmier-Code und Keptn-Orchestrierung, um automatisch, d. h. ohne manuellen Eingriff, Fehlerbehebungs-Runbooks auszuführen.
    • Automatisierter Release Inventory- und Versionsvergleich, der es Teams ermöglicht, die Performance einzelner Release-Stände einfach zu evaluieren und gegebenenfalls auf die Vorgängerversion zurückzuspringen.
    ]]>
    APM
    news-61 Tue, 15 Mar 2022 11:32:33 +0000 What's new at Dynatrace? - März 2022 https://www.amasol.de/blog/detail-page/whats-new-at-dynatrace-maerz-2022 Dynatrace hat eine Reihe Neuerungen veröffentlicht. Die wichtigsten Highlights haben wir für Sie in diesem Beitrag. zusammengefasst. Neue Promotheus-basierte Extensions für weitere 200+ Technologien

    Dynatrace baut seine erweiterten Analysekapazitäten für Prometheus aus und stellt nun weitere Extensions, die auf Prometheus-Metriken basieren, bereit. Damit sind nun weitere Einblicke in alle Technologien, die Prometheus-Exporter nutzen, möglich. Das Prometheus-Format wird in Technologien wie HAProxy, RabbitMQ, MongoDB, NetApp, Consul, Memcached und InfluxDB eingesetzt.

    Neben den nun neu hinzukommenden Prometheus-Extensions gibt es bereits Monitoring für Prometheus in Kubernetes sowie einen Amazon Managed Service für Prometheus.

    Die Prometheus-Extensions können über den Dynatrace-Hub bezogen werden und benötigen für die Konfiguration via yaml-Dateien keine besonderen Programmierkenntnisse.

    Mehr Details dazu im Dynatrace-Blog.

    Einsatz von Dynatrace GitHub Actions in CI/CD Pipelines

    Ein neues Feature ist die Dynatrace GitHub Action, die DevOps-Teams Echtzeit-Einblicke in sämtliche verfügbaren Informationen aus CI Pipelines gibt. Damit können Incidents innerhalb von CI/CD Pipelines schneller festgestellt und behoben werden.

    Dazu muss lediglich eine Dynatrace GitHub Action über den GitHub Marketplace bezogen und in den entsprechenden Workflow eingefügt werden.

    Vorteile dieses Monitoring sind:

    • Sammeln von Statistiken zur Bewertung der Qualität von Pipelines
    • Überwachung der Qualität von Pipelines mittels SLOs:

    CI/CD Pipeline Health Objective

    • Einbindung in die Root-Cause-Analyse durch die Dynatrace Davis AI:

    Root-Cause-Analyse durch die Dynatrace Davis AI

    Mehr Informationen dazu im Dynatrace-Blog.

    Proaktives Self-Monitoring in Dynatrace Managed

    Beginnend mit Version 1.230 gibt es in Dynatrace eine „Local self-monitoring“-Environment. In dieser Umgebung werden Metriken über den Gesamtstatus und die aktuelle Auslastung des Dynatrace-Clusters bereitgestellt, was eine große Hilfe bei dem Onboarding neuer Applikationen oder einer Clustererweiterung sein kann:

    Cluster Utilization Dynatrace Managed

    Dieses Self-Monitoring verursacht keine zusätzlichen Kosten und kann auch nicht gelöscht werden.

    Die Dynatrace Self-Monitoring-Extension kann der Umgebung über den Dynatrace-Hub hinzugefügt werden.

    Mehr Informationen im Dynatrace-Blog und in der Self-Monitoring-Dokumentation.

    ]]>
    APM
    news-60 Thu, 03 Mar 2022 12:14:37 +0000 Dynatrace Perform 2022 – ein Rückblick https://www.amasol.de/blog/detail-page/dynatrace-perform-2022-ein-rueckblick Die Dynatrace Perform ist das jährliche internationale Event für alle Dynatrace-Kund*innen. Neben spannenden Vorträgen und Einblicken in Kundenprojekte werden auch immer die großen Produktneuerungen vorgestellt. An zwei Tagen gab es jeweils ca. 2 Stunden Rahmenprogramm auf der „Mainstage“ und anschließend unzählige Breakout-Sessions on Demand zum Abruf. 

    Auf der Mainstage wurden die großen Produktneuheiten präsentiert:

    Software Intelligence as Code

    In vielen Unternehmen wird es schon gelebt: die Verbindung von Applikationsentwicklung und -betrieb, das sogenannte DevOps-Modell. Damit auch Monitoring und die mit Dynatrace verbundene AI in dieses Modell eingebunden werden kann, ist es notwendig, dass neben dem Rollout der Agenten auch die Monitoring-Konfiguration und -Auswertung mit in Deployment-Prozesse eingebunden werden.

    Schon in der Vergangenheit hat Dynatrace viele Konfigurationsmöglichkeiten über die API angeboten, um diese ebenfalls automatisieren zu können. Diese Möglichkeiten wurden nun noch einmal weiter ausgeweitet, sodass nun Konfigurationen, Dashboard-Definitionen, Metriken, Alarme, SLOs, Application Security und vieles mehr über die API durchgeführt werden können. Einen ausführlichen Bericht hierzu finden Sie auf dem Dynatrace Blog.

    Mit dem Thema „Software Intelligence as Code“ veröffentlicht Dynatrace nun auch offiziell sein „Monaco“-Projekt (Monitoring as Code). Hier erhalten die Kund*innen ein Tool-Set an die Hand, um Monitoring-Konfiguration automatisiert bspw. auch im Rahmen der eigenen CI/CD Pipeline ausrollen zu können. Dabei werden Konfigurationsänderungen versioniert in einem Repository abgespeichert, genau so, wie es schon jetzt in Ihrem Entwicklungsprozess für den Quellcode der Applikation passiert. 

    Observability for MultiCloud Serverless Functions

    Da in vielen großen Unternehmen nicht nur eine Cloud-Plattform zum Einsatz kommt, sondern häufig mehrere, ist es auch notwendig, dass Applikationen, die von dieser Struktur Gebrauch machen, ebenso gut gemonitort werden können wie alle anderen Applikationen. Um dies erreichen zu können, hat Dynatrace bekannt gegeben, dass neben der bereits vorhandenen Unterstützung für AWS Lambda auch Microsoft Azure Functions, Google Cloud Functions sowie Kubernetes-Umgebungen, Messaging Queues (sowohl auf Cloud-Plattformen als auch klassische Queues) und Cloud-Datenbanken von allen großen Cloud-Anbietern unterstützt werden.

    Diese Unterstützung ist nicht nur in den Dashboards erkennbar, sondern auch Traces, die mehrere dieser Funktionalitäten nutzen, sind unterbrechungsfrei im Monitoring enthalten und erlauben so eine vollständige Analyse. Weitere Details können Sie im Dynatrace-Blog nachlesen.

    DevSecOps Automation Alliance Partner Program 

    Dynatrace hatte auch in der Vergangenheit bereits einen starken Fokus auf Integrationen mit anderen Tools in den jeweiligen Kundenumgebungen gelegt. In den vergangenen Monaten wurde es noch einmal vereinfacht, diese Extensions zu nutzen, als Dynatrace den sogenannten Dynatrace Hub einführte. Damit sind direkt in der eigenen Dynatrace-Umgebung die verfügbaren Extensions sichtbar, können aktiviert und heruntergeladen werden.

    Nun ist Dynatrace noch einen Schritt weiter gegangen: Mit der Ankündigung des DevSecOps Automation Alliance Partner Program können nun Integrationen von ausgewählten Partnern nicht nur im Dynatrace Hub aktiviert werden, sondern auch direkt konfiguriert und eingesetzt werden. Zur Verfügung stehen dabei aktuell folgende Integrationen:

    • Atlassian Jira
    • Neoload (Load Testing)
    • Gremlin & ChaosNative (Chaos Testing)
    • Snyk (Vulnerability information)
    • Slack (Communication) 
    • JFrog Pipelines, Atlassian Bitbucket, Gitlab & Azure DevOps (Deployment Pipelines)
    • PagerDuty, xMatters & OpsGenie (Incident Management)
    • LaunchDarkly & Split (Feature Flags)
    • Akamas (Kubernetes Performance Optimization)

    Mehr zu den neuen Möglichkeiten für Integrationen finden Sie auch im Blog-Beitrag von Dynatrace zu diesem Thema. 

    Real-time attack detection and blocking

    Bereits vor einiger Zeit hat Dynatrace sein Feature „Application Security“ vorgestellt. Mit einer einfachen Aktivierung durch das Umlegen eines Schalters in Ihrer Dynatrace-Umgebung werden alle gängigen Applikationsprozesse untersucht, gefundene Schwachstellen analysiert, bewertet und aufgezeigt. Mit diesem Feature haben Sie schon jetzt die Möglichkeit, Schwachstellen in Ihren Applikationen zu erkennen und anschließend auch zu beheben.

    Im Rahmen der Dynatrace Perform hat Dynatrace nun vorgestellt, dass dieses Feature um die Erkennung und Blockierung von aktuell laufenden Attacken auf eben diese Schwachstellen erweitert wird. Damit hat man als Dynatrace-Kund*in die Sicherheit, dass auch während der Behebung von Schwachstellen diese nicht ausgenutzt werden und Angreifer*innen wichtige Daten aus dem Unternehmen abziehen können.

    Die Erkennung und Blockierung nutzt dabei das sowieso schon vorhandene Wissen über die Applikation, um gezielt die User-Aktionen zu blockieren, die Services mit Schwachstellen aufrufen. Damit ist sichergestellt, dass die Grundfunktionalität der Applikation erhalten bleibt, während potenziell schädliche Aktionen unterbunden werden.

    Mehr hierzu finden Sie auch im Dynatrace-Blog.

    Am zweiten Tag hat Bernd Greifeneder, CTO Dynatrace, die Mainstage mit seinem Ausblick auf die Zukunft geschlossen. Auch hier hat er noch einmal den Bedarf für einen modernen Schutz vor Angriffen auf Applikationen betont. Aktuelle Ansätze mit Firewalls werden mit stark vernetzten Services, der Nutzung von Function as a Service und modernen Cloud-Architekturen nicht mehr geeignet sein, um allen Angriffen standzuhalten. Hier muss ein moderner Ansatz her, der zusammen mit einer automatischen Bewertung von Schwachstellen eine Einordnung von aktuellen Situationen erlaubt. 

    Abgeschlossen hat Bernd Greifeneder seine Keynote mit dem provokanten Statement „Automate or die“. Darin betonte er nochmals, dass die wachsende Komplexität in der Entwicklung und im Betrieb von Applikationen es notwendig macht, einen intelligenten Automatisierungsansatz zu wählen, der hilft, diese Komplexität zu handeln. Ansonsten wird man mit den Herausforderungen eines modernen Applikationsbetriebs und -entwicklung nicht mehr Schritt halten können.

    Alle Sessions der Dynatrace Perform gibt es on demand zum Anhören hier.

     

     

    ]]>
    APM