Dummy Title http://example.com en-gb TYPO3 News Sun, 28 May 2023 04:54:57 +0000 Sun, 28 May 2023 04:54:57 +0000 TYPO3 EXT:news news-117 Thu, 27 Apr 2023 16:06:00 +0000 Dynatrace Usergroup in Wien am 27.04.2023 https://www.amasol.de/blog/detail-page/dynatrace-usergroup-in-wien-am-27042023 Die Atmosphäre war großartig und es war inspirierend zu sehen, wie Unternehmen unterschiedlicher Größe und Branchen zusammenkamen, um ihre Erfahrungen und Best Practices zu teilen. Die Usergroup bot jedoch nicht nur eine Plattform für Diskussionen, sondern auch für Networking und den Austausch von Kontakten. Am 27. April 2023 fand in Wien die zweite Dynatrace Usergroup statt und es war wieder ein Erfolg! Die Veranstaltung bot eine hervorragende Gelegenheit für Kunden, sich über das Produkt Dynatrace auszutauschen und voneinander zu lernen. Ziel war es, durch Diskussionen und Feedback das Produkt aber auch die Einsatzgebiete besser kennenzulernen. Insgesamt nahmen 19 Teilnehmer aus verschiedenen Branchen und Unternehmen unterschiedlicher Größe teil und diskutierten wichtige Themen wie die Stärken und Schwächen von Dynatrace sowie neue Anwendungsmöglichkeiten.

Um die Diskussionen zu vertiefen und spezifischer zu gestalten, wurden die Teilnehmer in zwei Gruppen aufgeteilt. Die eine Gruppe beschäftigte sich mit Dynatrace aus Sicht der Architekten und Entwickler, während die andere Gruppe das Thema aus der Perspektive des Betriebs beleuchtete. Hier wurden die oben genannten Themen (Stärken, Schwächen, Anwendungsmöglichkeiten) ausgearbeitet, die als Grundlage für die nächste Dynatrace Usergroup dienen sollen.

Wir möchten uns herzlich bei allen Teilnehmern bedanken, die dazu beigetragen haben, diese Veranstaltung zu einem so großen Erfolg zu machen. Wir hoffen, dass wir auch zukünftig mit so einer hohen Beteiligung rechnen dürfen.

Die Atmosphäre war großartig und es war inspirierend zu sehen, wie Unternehmen unterschiedlicher Größe und Branchen zusammenkamen, um ihre Erfahrungen und Best Practices zu teilen. Die Usergroup bot jedoch nicht nur eine Plattform für Diskussionen, sondern auch für Networking und den Austausch von Kontakten.

Aufgrund des Erfolgs planen wir bereits die nächste Usergroup, diese wird im Herbst im Icon Tower am Hauptbahnhof in Wien stattfinden. Zur Veranstaltung werden Spezialisten von Dynatrace eingeladen, um die erarbeiteten Fragen und Anregungen zu besprechen. Wenn Sie an der nächsten Dynatrace Usergroup teilnehmen möchten, können Sie sich schon heute unter rudolf.könig(at)amasol.at anmelden.

]]>
news-115 Wed, 15 Mar 2023 12:46:32 +0000 Top 6 Tipps zur Verbesserung von MTTx | Moogsoft https://www.amasol.de/blog/detail-page/top-6-tipps-zur-verbesserung-von-mttx-moogsoft In der Studie von Moogsoft für den ersten "State of Availability Report" wurden 1.900 Techniker nach der Durchschnittszeit bis zur Entdeckung (MTTD) und der Durchschnittszeit bis zur Wiederherstellung (MTTR) befragt, zwei führende Leistungsindikatoren (KPIs) für das "Incident Management", die eng mit der Verfügbarkeit verbunden sind. Moogsoft fand heraus, dass weniger als 15 % der Befragten ihre MTTD (Mean Time To Detect) verfolgen. Es dauert doppelt so lange, ein Problem zu entdecken, als es zu beheben. Außerdem gaben 80 % der Befragten an, dass sie ihre MTTR nicht verfolgen (der durchschnittliche Lebenszyklus eines Vorfalls beträgt neunzig Minuten, und die meisten Befragten halten ihre SLAs nicht ein). Das bedeutet, dass jedes Mal, wenn ein Vorfall auftritt, eine Stunde verloren geht. Gartner schätzt die Kosten ungeplanter Ausfallzeiten auf etwa 5.600 US-Dollar pro Minute, das sind über 300.000 US-Dollar pro Stunde.

Das ist eine Menge ungeplanter Arbeit, die nicht sichtbar ist. Der US-amerikanische Ökonom Peter Drucker soll gesagt haben: "You can’t improve what you don’t measure".  

Der durchschnittliche Lebenszyklus eines Vorfalls dauert 90 Minuten bis zur Lösung.

Die Daten von Moogsoft deuten darauf hin, dass eine geringere Anzahl von KPIs mit einer höheren Verfügbarkeit und Mean Time to Resolve (MTTR) korreliert. Die Hinzufügung der Mean Time to Detect (MTTD) bedeutet jedoch, dass die Teams den gesamten Lebenszyklus eines Vorfalls sehen und Prioritäten setzen können, um ihn zu verkürzen.

Es gibt komplexe Methoden zur Berechnung von MTT(x), aber Moogsoft weiß aus dieser Untersuchung, dass die Begrenzung der Anzahl von KPIs in direktem Zusammenhang mit dem Erreichen eines höheren Verfügbarkeitsniveaus steht. Moogsoft empfiehlt daher, dass sich Teams auf MTTD und MTTR konzentrieren, da dies die aussagekräftigsten und am einfachsten zu messenden KPIs sind. Durch die Verringerung des Zeitaufwands für die Behebung von Störungen wird Zeit für die Verbesserung von Plattformen und Diensten und die Verringerung des Störungsvolumens in der Zukunft frei.

Hier sind die 6 wichtigsten Tipps zur Verbesserung Ihrer MTTx-KPIs laut Moogsoft -

  1. Vergewissern Sie sich, dass Sie die Definitionen aller Ihnen zur Verfügung stehenden KPIs verstehen - und dass dieses Verständnis in Ihrem Team und Ihrer Organisation verbreitet ist.
  2. Verstehen Sie, wie die verfügbaren KPIs mit den (kurz- und langfristigen) Unternehmenszielen übereinstimmen.
  3. Wählen Sie eine kleine Anzahl von KPIs aus und konzentrieren Sie sich auf diese - stellen Sie sicher, dass sie instrumentiert sind, damit die Teams keine Zeit damit verbringen, nach ihnen zu suchen, sie zu berechnen und darüber Bericht zu erstatten - sie müssen zumindest auf einer täglichen Basis verfügbar sei
  4. Nutzen Sie KPIs aktiv, um Verbesserungsmöglichkeiten zu identifizieren und zu messen, die dazu führen, dass den Teams mehr Zeit zur Verfügung steht, um langfristig in das Kundenerlebnis zu investieren.
  5. Suchen Sie nach Instrumenten und Tools, die mehr tun als nur zu überwachen und zu warnen - suchen Sie nach Tools, die Erkenntnisse liefern, die ein Mensch allein nur schwer finden kann
  6. Akzeptieren Sie, dass Tools ständig gewartet werden müssen - sie müssen korrekt konfiguriert und angepasst werden, wenn sich die Bedingungen um sie herum ändern - bei den meisten Tools gibt es einen Overhead (und/oder finden Sie ein Tool, das die Überwachung überwacht, z. B. AIOps)

Weitere Daten, Einblicke von Branchenführern und umsetzbare Erkenntnisse finden Sie im vollständigen State of Availability Report.

 

Moogsoft Glossar
Akronym   Abkürzung                Defintion
MTBF Mean Time Between Failures    Misst die Fähigkeit eines Systems oder einer Komponente, seine/ihre erforderlichen Funktionen unter bestimmten Bedingungen für eine bestimmte Zeitspanne auszuführen; die Zeit, die zwischen Systemausfällen im täglichen Betrieb vergeht.
MTTA Mean Time To Acknowledge Die durchschnittliche Zeit, die vom Auslösen eines Alarms bis zum Beginn der Bearbeitung des Problems vergeht.
MTTD Mean Time To Detect (Discover)       Die Zeit zwischen dem Auftreten eines Vorfalls und seiner Entdeckung. Oder die Zeit, die für die Entdeckung der Ursache eines Vorfalls aufgewendet wird, bevor mit der Durchführung der Reparatur begonnen wird.
MTTF Mean Time To Failure Die durchschnittliche Zeitspanne, die ein defektes System weiterlaufen kann, bevor es ausfällt. Die Zeit beginnt, wenn ein schwerwiegender Fehler in einem System auftritt, und endet, wenn das System vollständig ausfällt. MTTF wird verwendet, um den Status von nicht reparierbaren Systemkomponenten zu überwachen und zu analysieren, wie lange eine Komponente im Feld funktioniert, bevor sie ausfällt.
MTTR Mean Time To Recover (Restore)    Die Zeit, die benötigt wird, um eine Anwendung nach einem Leistungsproblem oder einer Ausfallzeit wieder in Betrieb zu nehmen. Dies umfasst die gesamte Zeit des Ausfalls - vom Zeitpunkt des System- oder Produktausfalls bis zur Wiederherstellung der vollen Betriebsbereitschaft.
MTTR Mean Time To Repair Die durchschnittliche Zeit, die für die Reparatur eines Systems benötigt wird, einschließlich der Reparaturzeit und der Testzeit.
MTTR Mean Time To Resolve (Resolution) Die mittlere Zeit bis zur Problemlösung bezieht sich auf die Zeit, die benötigt wird, um ein Problem zu beheben und nachfolgende "Bereinigungen" oder proaktive Schritte durchzuführen, die verhindern sollen, dass das Problem erneut auftritt. Teams sollten sich mit beiden Aufgaben befassen, bevor sie ein Problem für gelöst erklären können.
MTTR Mean Time To Respond Die durchschnittliche Zeit, die ab dem Zeitpunkt der ersten Meldung benötigt wird, um ein Produkt- oder Systemversagen zu beheben. Darin ist die Verzögerungszeit im Warnsystem nicht enthalten.

Moogsoft ist der führende Anbieter von KI-gesteuerten Observability-Lösungen für intelligentes DevOps. Moogsoft liefert die fortschrittlichste Cloud-native Self-Service-Plattform für Software-Ingenieure, Entwickler und Betreiber, um sofort alles zu sehen, zu wissen, was falsch ist und Dinge schneller zu beheben.

Original Moogsoft Blog

 

]]>
news-114 Fri, 10 Mar 2023 14:29:44 +0000 Rückblick Dynatrace Perform 2023 https://www.amasol.de/blog/detail-page/rueckblick-dynatrace-perform-2023 Nach zwei Jahren als virtuelles Event kehrte die Dynatrace Perform 2023 vom 13. bis 16. Februar nach Las Vegas zurück. Nichtsdestotrotz konnten alle Dynatrace User weltweit durch die Übertragung der Mainstage-Vorträge virtuell an der Perform teilnehmen. IT Automation – die strategische Komponente der digitalen Transformation

Von einer Observability Plattform hin zu einer Analytics Plattform

Weitere auf der Dynatrace Perform angekündigte Highlights sind:

Dynatrace AutomationEngine:

Dynatrace AppEngine:

]]>
news-112 Fri, 10 Mar 2023 13:20:38 +0000 Servicetrace APM wird nicht re-implementiert https://www.amasol.de/blog/detail-page/servicetrace-apm-wird-nicht-re-implementiert Nun ist es offiziell: Servicetrace APM (Synthetic Monitoring) wird von Salesforce nicht in MuleSoft RPA re-implementiert. Servicetrace APM (Synthetic Monitoring) wird nicht in MuleSoft RPA re-implementiert, nur für RPA-Kunden geht es weiter. Auf Basis einer umfassenden Marktstudie und mehreren PoCs haben wir geeignete Ersatzprodukte ausgewählt.

]]>
APM
news-102 Tue, 28 Feb 2023 10:54:01 +0000 amasol auf Expansionskurs mit der FIELDS Group https://www.amasol.de/blog/detail-page/amasol-auf-expansionskurs-mit-der-fields-group Die amasol GmbH hat mit der FIELDS Group einen Investor gewonnen, der sich mehrheitlich am Unternehmen beteiligt. Gemeinsam wollen die Geschäftspartner das Wachstum von amasol in Europa weiter ausbauen. Außerdem soll der zunehmenden Internationalisierung des Geschäfts Rechnung getragen werden. amasol bietet Services mit den Schwerpunkten auf Observability und Service Level Management systemkritischer IT-Infrastruktur, Application Performance Monitoring und Artificial Intelligent Operations (AIOps). Durch seine außerordentliche Expertise hat das Unternehmen sich in Deutschland und Österreich seit 1999 als einer der führenden IT-Dienstleister fest etabliert. Es unterhält strategische Partnerschaften unter anderem mit Broadcom, Dynatrace, LogicMonitor, Riverbed und Splunk. Heute betreuen über 80 MitarbeiterInnen Unternehmen aus den Bereichen Automotive, Finanzen und Versicherung, Gesundheit und Telekommunikation – die Hälfte der DAX-Unternehmen und namhafte IT Service Provider gehören zu den Kunden. 

"Wir freuen uns, mit der FIELDS Group einen Partner gefunden zu haben, der unsere Vision eines modernen IT-Management teilt", sagt Frank Jahn, Geschäftsführer (CSO) von amasol. „Mit FIELDS wollen wir das bisher Erreichte nun auf eine neue Ebene heben, um unsere bestehenden und neue Kunden noch besser zu bedienen.“ Dazu wird amasol das Spektrum seiner Dienstleistungen weiter optimieren und den Service international ausrichten.

„Gemeinsam mit FIELDS haben wir drei Ziele priorisiert“, so Stefan Deml, Geschäftsführer (CTO) von amasol. „Erstens werden wir gemeinsam mit unseren bewährten Software-Partnern maßgeschneiderte Services weiter ausbauen: Observability als Managed Service – sowohl on-premise als auch aus der Cloud. Außerdem wird die erfolgreiche Vermarktung des „Service Level Management, made by amasol“ vorangebracht – unsere Eigenentwicklung. Drittens möchten wir der Internationalisierung unserer Kunden organisatorisch künftig noch besser begegnen,“ erläutert Stefan Deml. 

FIELDS investiert hauptsächlich in mittelständische Unternehmen mit großem Wachstumspotenzial. „Von Beginn der Gespräche an haben uns die Entwicklung und der gute Ruf von amasol fasziniert,“ sagt Rutger Alberink, Partner bei FIELDS. „Wir freuen uns darauf, die MitarbeiterInnen und das Management Team dabei zu unterstützen, amasol zum führenden Managed Service Provider für Observability in Europa auszubauen.“

Das Geschäft soll weiterhin in erster Linie serviceorientiert und amasol ein attraktiver Arbeitgeber bleiben. „Unser besonderes Augenmerk richten wir auf den Mehrwert für die Kunden und die Gestaltung von Arbeitsplätzen für Talente,“ so André Reitz, Investment Manager bei FIELDS.

amasol wurde bei der Transaktion von Corporate Finance International (CFI) begleitet, einem der führenden Corporate Finance Berater mit besonderer Expertise für den Sektor Technologie.

Weitere Informationen: www.fields.nl/de/

]]>
amasol Insight
news-100 Wed, 08 Feb 2023 10:43:00 +0000 Outcome statt Output https://www.amasol.de/blog/detail-page/outcome-statt-output Der Bewertungsmaßstab hat sich geändert: Wenn Unternehmen heute den Beitrag bewerten, den die IT zum Erfolg des Unternehmens leistet, dann geht es immer häufiger nicht mehr nur darum, dass die IT „läuft“, sondern darum, wie Mitarbeiter und Kunden – und damit das Unternehmen selbst – von einer leistungsfähigen, effizienten und agilen IT profitieren. Outcome statt Output heißt die Devise.  

Outcome statt Output - was bedeutet das für Ihre IT?

Der Bewertungsmaßstab hat sich geändert: Wenn Unternehmen heute den Beitrag bewerten, den die IT zum Erfolg des Unternehmens leistet, dann geht es immer häufiger nicht mehr nur darum, dass die IT „läuft“, sondern darum, wie Mitarbeiter und Kunden – und damit das Unternehmen selbst – von einer leistungsfähigen, effizienten und agilen IT profitieren. Outcome statt Output heißt die Devise.

 

BizOps als wichtiger Baustein Ihrer Unternehmensstrategie

Die Rolle der IT hat sich in den letzten Jahren dramatisch verändert. In immer mehr Branchen gilt: Business und IT wachsen zusammen. Beispiel Einzelhandel. Eine Branche, bei der es noch vor wenigen Jahren einzig und allein darum ging, Produkte in einem Ladengeschäft an den Kunden zu bringen, setzt immer stärker auf die Online-Karte. „Click & Collect“ bei Mode und Accessoires, Lieferdienste bei im Internet bestellten Lebensmitteln sowie Liefer- und Montage-/Aufstelldienste für online bestellte Möbel und Haushaltsgeräte sind nur einige Beispiele dafür, dass Präsenzeinzelhandel und Online-Retail immer mehr zu einem Multi-Channel-Angebot für den Kunden verschmelzen. Als Folge dieser Entwicklung gelangen immer mehr Unternehmen zu der Erkenntnis: Mittelfristig werden nur die Unternehmen erfolgreich sein, bei denen nicht mehr zwischen IT und Business unterschieden wird. 

 

Digitalisierung: Fluch und Segen für die IT

Die Auswirkungen der Digitalisierung auf das Kundenverhalten betreffen mittlerweile fast alle Branchen und Wirtschaftszweige. Der moderne Kunde möchte nicht nur Kleidung, Möbel und Produkte des täglichen Bedarfs, sondern immer häufiger auch sein Auto, seine Versicherung, seinen nächsten Urlaub, seinen Personalausweis oder seinen neuen Stromanbieter bei einem Umzug heute einfach und bequem kaufen, bestellen, buchen oder beauftragen. Und dies ist mittlerweile in der Regel am besten online möglich. Anstatt in ein Ladengeschäft oder eine Behörde – dort in der Regel erst nach einer vorherigen Terminvereinbarung – laufen zu müssen, setzt er sich an seinen PC, sein Notebook oder sein Smartphone und bestellt dort. Doch der moderne Kunde ist verwöhnt. Er erwartet eine möglichst optimale Nutzererfahrung (User Experience, UX). Diese setzt sich in der Regel zusammen aus einem schnell aufrufbaren und übersichtlichen Online-Sortiment, einem einfachen und bequemen Bestellvorgang und einer sofort verfügbaren Hilfestellung, wenn sich Fragen zum Produkt bzw. zur Dienstleistung und/oder zum Bestellvorgang ergeben. Treten an einer der Stellen Probleme oder Verzögerungen auf, leidet die Nutzererfahrung und der Kunde wird den Bestellvorgang abbrechen, bzw. sich beim nächsten Mal einen anderen Anbieter suchen, denn dieser ist im Internet ja nur einen Mausklick entfernt.

Für die IT bedeutet dies auf der einen Seite, dass sie in den Fokus einer gesamtunternehmerischen Betrachtung rückt. In digital ausgerichteten Unternehmen gibt es heute kaum noch Prozesse, die nicht IT-gestützt sind. Die meisten davon sind zumindest teilautomatisiert. Der Betrieb von Unternehmen – gleich welcher Art – ist also direkt abhängig vom Funktionieren und der Verfügbarkeit von IT-Systemen.

Eine performante und stets verfügbare IT-Infrastruktur gehört damit auch zu den zentralen Faktoren für den Unternehmenserfolg, denn nur so kann dem Kunden eine Nutzererfahrung geboten werden, die ihn auch mittelfristig an das Unternehmen bindet.
Auf der anderen Seite ändern sich aber auch die Bewertungskriterien für den  „Erfolg“ von IT-Projekten. 

 

Vom Output zum Outcome

In der Vergangenheit wurde in der IT-Welt häufig zwischen so genannten „roten“ und „grünen“ Projekten unterschieden. Auf dieser Grundlage erfolgte dann auch die Bewertung der Arbeit der IT: Je mehr „grün“ desto besser.
Mit der sich im Zuge der Digitalisierung verändernden Rolle der IT als zentraler Faktor für den Unternehmenserfolg funktioniert diese Bewertung allerdings nicht mehr. Stattdessen stehen immer häufiger die vier Buchstaben „WHEG“ im Mittelpunkt. Diese stehen für „Was Hat Es Gebracht?“.

In einem Vortrag brachte es ein Enterprise-Architekt kürzlich auf den Punkt: „Wir haben kein Problem mit roten Projekten, wir haben ein Problem mit grünen Projekten, die nichts bringen.“ Mit „roten“ Projekten sind natürlich die gemeint, die aus den unterschiedlichsten Gründen aus dem Zeit- und Geld-Budget laufen. Bei „grünen“ Projekten ist dagegen vom reinen Output her betrachtet alles in Ordnung, aber eben nicht, wenn man das oben genannte WHEG-Prinzip als Messlatte anlegt. 

Statt sich also am reinen Output zu orientieren, muss das Outcome in den Mittelpunkt der Betrachtung rücken. Wie bereits erwähnt steht In Zeiten der Digitalisierung der Kunde (intern wie extern) und dessen Nutzererfahrung im Zentrum aller unternehmerischen Aktivitäten. Und deshalb kann die Antwort auf die Frage „Was hat es gebracht?“ im Zusammenhang mit IT-Projekten also nur lauten: Der Kunde konnte schneller, komfortabler und noch besser auf seine kundenspezifischen Anforderungen und Bedürfnisse ausgerichtet bedient werden. Im wurde eine optimale Nutzererfahrung geboten.

 

BizOps: Alle Augen auf den Benutzer/Kunden

Doch wie findet man heraus, ob eine Geschäftstransaktion auch die optimale Nutzererfahrung bietet? 
Genau an dieser Stelle kommt BizOps – der Begriff steht für „Business“ und „Operations“ und ein Zusammenwirken der beiden Bereiche beim Betreiben, Steuern und Optimieren moderner Geschäftsprozesse, die tief mit den agilen IT-Abläufen des Unternehmens vernetzt sind.

Nur so gelingt es, die Nutzererfahrung als wesentlichen Faktor für den Geschäftserfolg zu verstehen, zu messen und zu optimieren. An die Stelle des reinen IT-„Output“ als Bewertungskriterium tritt das „Outcome“ für den Geschäftserfolg.
Unternehmen, die heute bereits ein BizOps-Konzept verfolgen, beschäftigen sich mit den folgenden drei Themenbereichen:

  1.  Aufstellen crossfunktionaler Teams aus IT-Betrieb und Produktmanagement im Rahmen eines Centers of Excellence
  2. Schaffen der Grundlage für die Durchführung von Performance- und Impact-Analysen in Echtzeit, deren Ergebnisse allen Beteiligten über einfach verständliche und benutzerfreundliche Dashboards zur Verfügung gestellt werden
  3. Schaffen einer vollständigen Transparenz über eine heute in der Regel heterogene IT-Infrastruktur (On-Premise, Cloud, Hybrid), die die Nutzererfahrung, also den Outcome, in den Mittelpunkt stellt

 

Outcome =  Stellenwert der IT  ändert sich

Diese neue Orientierung am Outcome muss sich dann aber auch direkt in den Key Performance Indikatoren (KPI) niederschlagen, die zur Beurteilung der IT definiert werden. Beispiel: Wer als IT-Verantwortlicher dem Vertriebschef berichtet, um wie viele Millisekunden schneller ein Service mittlerweile aufrufbar ist oder eine bestimmte Menge an Daten gespeichert werden kann als noch vor einem halben Jahr, hat den Orientierungswechsel in der Bewertung seiner Arbeit noch nicht verstanden.
Wer hingegen nachweisen kann, wie viele Kunden ein Account-Manager innerhalb einer Stunde mehr bedienen kann als beim letzten Berichtstermin, gewinnt die Aufmerksamkeit des Vertriebsverantwortlichen. Nur wenn die IT-KPIs Business-Werte widerspiegeln, wird die IT als das anerkannt, was sie ist: ein wesentliches Business-Tool und damit eines der wichtigsten BizOps-Elemente. 
In der Praxis bedeutet dies nicht nur einen veränderten Stellenwert der IT, sondern auch die Notwendigkeit, dass die zwischen IT und Business vereinbarten KPIs grundlegend anders definiert werden. In der Vergangenheit basierten diese ausschließlich auf technischen Messwerten. Die Auswirkungen auf das Business und der Beitrag für den Geschäftserfolg des Unternehmens wurden dabei kaum oder gar nicht berücksichtigt.

Zukünftig muss es deshalb andere KPIs geben, mit denen die Arbeit der IT bewertet wird: 
Business-KPIs, die zukünftig aber auch für die IT gelten , damit mit den „Gewerken“ Technology Business Management, IT-Operations Analytics, IT Infrastructure Management und Application Performance Management nicht nur eine effiziente IT zur Verfügung gestellt wird, sondern eine effektive, flexible und vor allem agile IT, deren Wert sich am Grad der Business-Unterstützung misst. Dies führt zu der Erkenntnis: BizOps und IT dürfen in der digitalen Welt nicht mehr getrennt voneinander betrachtet werden. 

 

Fazit: „A Fool with a Tool is still a Fool!”

Sie kennen vielleicht dieses etwas provokante Zitat des amerikanischen Software-Ingenieurs Grady Booch. Als Fazit für diesen Beitrag zum Thema BizOps als wichtiger Bestandteil der Unternehmensstrategie soll es als Warnung, bzw. gut gemeinter Rat verstanden werden. Wer nämlich nun glaubt, die Neufokussierung auf den richtigen Outcome der IT für den Geschäftserfolg könne am einfachsten und schnellsten damit bewerkstelligt werden, dass man sich neue Tools ins Haus holt, der irrt. Wie in vielen anderen Bereichen gilt auch hier: Zuerst müssen die zum Teil seit Jahren eingefahrenen Prozesse angegangen werden. Dabei geht es darum, sich wie erwähnt von der alten Betrachtungs- und Bewertungsweise der Arbeit der IT, die sich ausschließlich auf den Output beschränkt, zu verabschieden. Danach geht es darum, IT-Betrieb und Business an einen Tisch zu bringen, um so eine neue Betrachtungs- und Bewertungsweise der Arbeit der IT, die sich ausschließlich am Outcome für den Geschäftserfolg und die Nutzererfahrung orientiert, zu erreichen. Und erst dann geht es darum, die erforderlichen Tools einzuführen, die diese Neufokussierung unterstützen.

Wir bei amasol unterstützen bereits seit längerem Unternehmen bei derartigen Transformationsprojekten und sorgen dann mit leistungsfähigen Tools z.B. von Dynatrace, Splunk oder Riverbed neben dem richtigen Outcome auch dafür, dass Sie mit Ihrer Mannschaft die IT effizienter managen. So bringen wir Leben in Ihre BizOps- und DevOps-Strategien und machen Ihr Unternehmen darüber hinaus interessant für zukünftige Mitarbeiter. 

 

 

]]>
news-99 Tue, 07 Feb 2023 10:43:00 +0000 Splunk Add-On für Cherwell https://www.amasol.de/blog/detail-page/splunk-add-on-fuer-cherwell Das Splunk Add-on für Cherwell ist ein Tool, mit dem Splunk-Benutzer Tickets in Cherwell, einer beliebten IT-Service-Management-Plattform (ITSM), erstellen und mit Anmerkungen versehen können. Dieses Add-on integriert Splunk-Daten mit Cherwell und ermöglicht es Anwendern, Tickets direkt aus Splunk-Warnmeldungen zu erstellen, Prozesse zur Behebung von Störungen zu optimieren und die Zusammenarbeit zwischen IT-Betrieb und Service-Desk-Teams zu verbessern.

Das Add-on verfügt über ein intuitives Dashboard, mit dem die Benutzer die von Splunk erstellten Tickets einfach verfolgen können. Das Splunk Add-on für Cherwell bietet eine nahtlose, integrierte Lösung für die Verwaltung von ITSM-Aufgaben innerhalb der Splunk-Plattform, unabhängig davon, ob Sie ein IT-Betriebsprofi oder ein Service-Desk-Analyst sind.

 

Use Case, der mit dem Add-on implementiert werden kann:

  • Da Splunk gut in der Überwachung von Anwendungen und Protokollen ist, kann diese Fähigkeit mit diesem Add-on erweitert werden.
  • Es können Tickets erstellt und im Falle eines Fehlers den zuständigen Teams zugewiesen werden.
  • Durch die Erstellung und Zuweisung von Tickets an ein zuständiges Team kann die Lösungszeit und die Reaktionszeit reduziert und die Verfügbarkeit einer Anwendung erhöht werden.
  • Es kann auch ein Dashboard für die kreierten Tickets erstellt und Warnmeldungen erzeugt werden, die den verantwortlichen Stake-Holder benachrichtigen können, noch bevor SLAs verletzt werden.

 

Architektur der Anwendung

  • Dieses Add-on verwendet Cherwell-APIs, um Tickets zu erstellen und den Status von Tickets abzurufen. 
  • Dieses Add-on verwendet Splunk-eigenes Python für die Ticketerstellung und -kommentierung.
  • Sobald ein Ticket erstellt ist, speichert es den Ticketverlauf im Splunk KV-Speicher, der für die Erstellung von SLA-basierten Alarmen eingesetzt werden kann.

 

 

]]>
news-98 Wed, 21 Dec 2022 10:33:00 +0000 Vom IT-Monitoring zur Business Observability https://www.amasol.de/blog/detail-page/vom-it-monitoring-zur-business-observability Der Schritt vom Monitoring zur Observability ist dringend erforderlich, denn anders können Unternehmen eine komplexe IT kaum noch ohne markante Störungen betreiben, um für eine angemessene Performance und User-Experience zu sorgen. Mit dem Versäumen eines Wechsels begeben Unternehmen sich mittlerweile in eine ernsthafte existenzielle Gefahr. Die größte Herausforderung der IT ist immer noch die Komplexität der hybriden Systeme. In Deutschland ist die Anzahl der Unternehmen, die zur Nutzung von Clouds übergegangen sind, zwischen 2011 und 2022 von 28 % auf ganze 84 % gewachsen*. Parallel führte die Transformation zur Integration von immer mehr diversen Services, Warenwirtschaftssystemen oder Onlineshops – und damit zu extrem heterogenen Systemlandschaften. Es entstanden zahlreiche Datensilos, während die Datenmengen in den Terrabytebereich wuchsen, ohne dass sie bisher horizontal integriert worden wären. Auch die Frequenz der Deployments zur Einführung neuer Anwendungen oder Services erhöhte sich stark. Parallel zu diesen Entwicklungen der digitalen Transformation aber blieben die Ressourcen für ein umfassendes, zuverlässiges Monitoring der IT begrenzt. So wurde es zu einer extrem komplexen Aufgabe, denn immer mehr Vorgänge sind zu überwachen, immens viele potenzielle Schwachstellen gefährden den reibungslosen Betrieb und eine stabile Performance. 

Die Unternehmen versuchen noch, den Herausforderungen durch singuläre intelligente Überwachungen wie Cloud-, Network- oder Server-Monitoring zu begegnen – aber dieser Ansatz reicht nicht mehr aus. Er bindet jede Menge personeller Ressourcen für das Finden von Fehlerquellen und das Besorgen der jeweiligen Lösungen. Und oftmals dauert das Beheben der Ursachen von Störungen nicht Stunden, sondern Tage. So entsteht zum Beispiel eine schwache Performance mit langen Ladezeiten oder anderen Komplikationen. Gerade im Bereich des E-Commerce aber gilt: Jeder Klick zählt. Besonders hier wurden die Erwartungen der Kund*innen oder Nutzer*innen mit dem Fortschritt der Digitalisierung immer höher. User, die ein langsames Laden von Seiten oder Dysfunktionen in Kauf nehmen müssen, steigen ganz einfach aus oder löschen sogar Applikationen. Deshalb ist ein Übergang zur Observability sehr dringend nötig. Was kann sie zur Steigerung der Performance beitragen, was leistet das Konzept? 

Wir kommen mit dem Monitoring aus einer Welt von Incidents, Listen einzelner Vorkommnisse, vergleichbar mit herkömmlichen Staumeldungen: Man weiß, wo es welche Störungen gibt, aber den erhaltenen Informationen mangelt es an Aussagekraft – und die Erkenntnis über das Ausmaß der jeweiligen Probleme ist vage. Entsprechend lange dauert es, eine sinnvolle Entscheidung zu treffen, zum Beispiel, ob man auf derselben Autobahn bleiben oder seine Route ändern sollte. 

Der umfassende Ansatz der Observability führt weiter: Ihre Ergebnisse sind zu vergleichen mit denen, die wir beim Reisen oder auf dem Weg ins Büro von einem Navigations-System erhalten. Sie bietet einen Überblick aller wichtigen Faktoren in Echtzeit: die Höhe des Verkehrsaufkommens, Unfälle, Staus, eine Verzögerungsanalyse – und eine dynamische Routenführung. Alles ist auf einen Blick sichtbar. So erhalten wir eine verbindliche Orientierung in Echtzeit – und sinnvolle Entscheidungen für eine relativ zügige Weiterfahrt sind möglich.

Mit Observability erhält man anhand von Metriken, Logs und Traces alle relevanten Leistungsdaten von IT-Architekturen in Echtzeit auf einen Blick. Die Metriken liefern ein Bild vom Zustand des gesamten Systems. Logs liefern detaillierte Informationen für die Rekonstruktion von Transaktionen oder die Analyse von Störungen. Mithilfe von Traces werden User-Aktivitäten sichtbar und Fehler lassen sich sowohl identifizieren als auch beheben. Durch das gezielte Erfassen sämtlicher Komponenten eines Systems erhält man – auch mithilfe von AIOps-Lösungen – alle relevanten Informationen, um für eine Steigerung der Performance einer Website oder die Stabilität von Anwendungen und Diensten zu sorgen. 

Mit dem herkömmlichen Monitoring erfahren wir nur, dass Störungen vorliegen und Schwellenwerte überschritten werden. Observability hingegen zeigt uns auch, warum etwas nicht funktioniert. Es werden nicht nur Unregelmäßigkeiten angezeigt, sondern auch deren Ursachen werden klar und damit kann wertvolle Zeit für das Beheben von Störungen eingespart werden. 

Die Mercedes-Benz Group AG zum Beispiel analysiert mittlerweile im Bereich Aftersales zahlreiche ihrer global relevanten Dienste in Echtzeit. Das Unternehmen kann so auf kritische Ereignisse unmittelbar reagieren. Die Basis dieser „data-driven decisions“ sind aktuelle, verbindliche Daten zur Verfügbarkeit und Stabilität der Informationskette. Observability hilft hier auch dabei, die Zusammenarbeit von internen und externen Kräften zu optimieren. Die IT-Mitarbeiter*innen gewinnen ein Verständnis von Zusammenhängen und werten „Vorwarnungen“ aus. Sie handeln mittlerweile rechtzeitig, und zwar bevor Teile des Systems ausfallen. Die Fehlermeldungen mehrerer Tools und Datenquellen werden an einer zentralen Stelle erfasst und mithilfe von KI-Lösungen (AIOps) zu Situationen verdichtet. Die Alarme sind so von ganzen 3,1 Millionen Events auf lediglich 122 Situationen reduziert worden! Die Effekte liegen auf der Hand: Durch Observability wird seitens des Unternehmens eine große Menge an Zeit und Kosten eingespart für die Stabilität und Verfügbarkeit der Dienste – entscheidend aber ist die Steigerung der Profitabilität. 

Eine Investition in Observability ist für zahlreiche Unternehmen heute unerlässlich, ein Verharren in einer Welt von diversen unterschiedlichen Tools für vielfältige Aufgaben des Monitorings aber ausgesprochen fahrlässig. 

 

*Quelle: Statista 

 

]]>
APM
news-97 Tue, 20 Dec 2022 10:26:00 +0000 SecOps – ein geschäftskritischer Faktor https://www.amasol.de/blog/detail-page/secops-ein-geschaeftskritischer-faktor Die ernsten Bedrohungen von Behörden und Unternehmen durch Cyber-Angriffe werden immer zahlreicher, ausgereifter – und damit sehr viel gefährlicher. Der deutschen Wirtschaft entsteht laut bitkom ein Schaden von nicht weniger als 203 Milliarden Euro pro Jahr. 2022 haben die Attacken zugenommen und 45 Prozent der Unternehmen fürchten, dass sie ihre geschäftliche Existenz bedrohen können – 2021 waren es noch 9 Prozent. SecOps, ein kontinuierliches Security Monitoring in Realtime mit automatisiertem Detection- und Response-Management, wird zur Sicherung von Unternehmen unabdingbar. Jagden auf User-Daten und Passwörter, Phishing und die Infizierung mit Schadsoftware (Malware), Schäden durch Viren und Ransomware – die Folgen von Cyber-Angriffen reichen von Ausfällen einzelner Anwendungen und Systembereiche über den Verlust von wertvollstem Know-how und sensiblen Informationen bis hin zum tagelangen Shutdown der gesamten IT. Doch immer noch fragen sich die Verantwortlichen in den Unternehmen, welches Monitoring heute infrage kommt, um hybride IT-Infrastrukturen zu schützen, Risiken rechtzeitig zu erkennen und Vorfällen durch Angriffe möglichst schnell begegnen zu können. Dabei ist längst klar, dass es heute im Bereich des Monitorings ohne eine ausgereifte Observability, das Performance-Management von Systemen und deren Überwachung in Realtime kaum noch möglich ist, eine IT-Landschaft stabil und sicher zu betreiben.

In Sachen Sicherheit ist aber meist noch der reaktive Umgang mit Cyber-Bedrohungen die Regel. Überwacht und geschützt wird das eigene Netzwerkperimeter etwa durch Firewalls, Systeme zur Prävention unbefugten Eindringens (Intrusion-Prevention-Systeme, IPS) und zum nachträglichen Aufspüren von Eindringlingen (Intrusion-Detection-Systeme, IDS), Web-Filter und nachgelagerte Malware-Scanner.

Doch allein die Entwicklung von Ransomware-Angriffen zeigt, dass die alten Bollwerke mit ihren Präventionsansätzen keine effektive Sicherheit mehr gewährleisten. Zu diversen Ereignissen fehlen detaillierte, kontextbezogene Informationen, eine Schatten-IT sowie unbekannte IT-Ressourcen sind im Einsatz, es bestehen Risiken – verursacht durch Dritte über Lieferketten oder andere Informationswege – und eine mangelnde Überschaubarkeit sämtlicher Ereignisse sowie kausaler Abhängigkeiten verschiedener Systembereiche führen zu gefährlichen Security-Whitespots. Zudem verfügen viele Unternehmen nicht über die erforderlichen technologischen und personellen Ressourcen, um komplexe IT-Systeme angemessen zu überwachen. Die Gefahren aber erfordern eine permanente Aufmerksamkeit. Denn die globale Vernetzung bringt rund um die Uhr eine globale Bedrohung mit sich. Deshalb ist heute nicht nur sehr viel mehr Transparenz im Hinblick auf Sicherheitslücken in den Unternehmen erforderlich, sondern jede Anomalie sollte in Echtzeit erkannt und zugleich eliminiert werden – ohne nennenswerte Verzögerungen.

Eine Lösung für diese komplexe geschäftskritische Herausforderung ist XDR – Extended Detection & Response. Dieser Observability-Ansatz im Bereich der IT-Sicherheit sorgt für das kontinuierliche Monitoring eines Netzwerks und sämtlicher Endgeräte hinsichtlich der Entdeckung und aktiven Behandlung akuter kritischer Vorfälle.

Dabei wird in einem Security Operations Center (SOC) eine Sammlung aller in einer Infrastruktur aufgekommenen Incidents und Events vorgenommen. Eine verhaltensbasierte Netzwerküberwachung und -forensik (Network Detection & Response – NDR) sorgt für die Reaktion auf sicherheitsrelevante Unregelmäßigkeiten, sobald sie innerhalb des Perimeters vorkommen. Jeder Vorfall wird genau bewertet und entsprechend der vorgefundenen Sicherheitsrisiken erfolgt ein passender Incident Response zu seiner akuten Bekämpfung. Diese Echtzeitüberwachung wird parallel auf sämtliche angebundenen Endgeräte erweitert (Endpoint Detection & Response – EDR). Auf externen PCs in Homeoffices, Laptops, Tablets oder Smartphones sorgt ebenfalls ein verhaltensbasiertes Incident- und Event-Monitoring für Transparenz und Sicherheit.

Diese zeitgemäße SecOps-Lösung ermöglicht erheblich effektivere Überprüfungen und entsprechende Stabilisierungen der Systeme als herkömmliche Präventionslösungen. XDR umfasst die Überwachung sämtlicher IT-Komponenten vom Endpunkt über Netzwerk-Sensoren bis hin zu Cloud-Instanzen und Microservices. Um die Sicherheit permanent zu gewährleisten, werden außerdem regelmäßig Angriffe auf die IT fingiert, um immer wieder möglichst alle potenziellen Schwachstellen auszuschließen. Durch den Einsatz von AI-Lösungen und Machine Learning können sich die Mitarbeiter*innen im SOC auf das Wesentliche wie zum Beispiel unklare Ereignisse im System konzentrieren. So werden Ausfälle von Anwendungen deutlich reduziert und Unterbrechungen des Betriebs nahezu ganz vermieden.

Ein Energieversorger zum Beispiel hatte es seinen einzelnen Abteilungen überlassen, in ihren jeweiligen operativen Rollen individuelle Lösungen für die Sicherheit zu entwickeln und zu implementierten. Nach einer strategischen Überprüfung beschloss die Geschäftsleitung, die Funktionen in einem SOC zu konsolidieren. So konnte in einem hochkomplexen Workflow eine ausgesprochen große Transparenz hergestellt werden, um akute Sicherheitsprobleme in Echtzeit aufzuspüren und darauf präzise zu reagieren.

Durch XDR konnte ein Versicherer nach der Entdeckung einer Log4Shell-Schwachstelle in kürzester Zeit rund 250 „Log4Shell JNDI Injection Attempts“ auf seinen Systemen identifizieren und dann beseitigen, um einen enormen potenziellen Schaden rechtzeitig auszuschließen.

Konsequent wäre es, wenn Unternehmen heute nach der Einführung von Observability und SecOps alle relevanten Aspekte einer Sicherheit in Echtzeit schon während der Entwicklung und Einführung neuer Dienste in den Betrieb berücksichtigen würden. DevSecOps beschreibt einen kulturellen Wandel, der eben beginnt: Die Lücke zwischen Entwicklungs-, Betriebs- und Security-Teams schließt sich. So wird mit Observability sowie Extended Detection und Response die Handlungsfähigkeit sowohl für den reibungslosen Betrieb als auch die Unternehmenssicherheit stark verbessert.

 

Quelle: https://www.bitkom.org/Presse/Presseinformation/Wirtschaftsschutz-2022

 

]]>
SecOps
news-94 Tue, 29 Nov 2022 15:51:10 +0000 Bessere Datenanalyse, höherer Innovationsgrad, mehr Umsatz https://www.amasol.de/blog/detail-page/bessere-datenanalyse-hoeherer-innovationsgrad-mehr-umsatz Auf diesen einfachen Nenner lassen sich die Ergebnisse einer aktuellen, von der Firma Splunk in Auftrag gegebenen weltweiten Umfrage unter Fach- und Führungskräften zusammenfassen. Grundlage für die Umfrage mit dem Titel „The Economic Impact of Data Innovation 2023“ ist die Erkenntnis, das jedes Unternehmen heute vor der essenziellen Herausforderung steht, die Kundenbedürfnisse und -erwartungen in einem immer stärker wettbewerbsorientierten Markt mit immer komplexeren Technologien zu erfüllen. Die präzise und zeitnahe Analyse einer immer größeren Masse an verfügbaren Daten wird damit immer häufiger zum Problem, für das es eine Lösung geben muss. Data Innovation: Datenanalyse als Grundlage für neue Geschäftsprozesse

Im Mittelpunkt der Studie stand der Begriff „Data Innovation“. Die Marktforscher*innen legten für die Umfrage folgende Definition dafür fest: „Die Konzeption und Umsetzung neuer bzw. die fundamentale Veränderung bestehender Geschäftsprozesse durch den Einsatz neuer Methoden zur Datenanalyse und das Nutzen neuer Datenquellen, auf die das Unternehmen bisher keinen Zugriff hatte.“

Ausgehend von dieser Definition wurden dann drei Unternehmenstypen klassifiziert:

  • Anfänger (Beginners)
  • Fortgeschrittene Anfänger (Intermediates)
  • Vorreiter (Leaders)

Diese wurden wiederum in Bezug auf ihre Data-Innovation-Reife (data innovation maturity) nach sechs Kriterien beurteilt:

  • Datenklassifizierung
  • Datenaggregierung
  • Datenqualität
  • Datenanalysekompetenz
  • Datenanalysetools
  • Daten-Monitoring

 

Die wichtigsten Ergebnisse

Das wichtigste Ergebnis zuerst: Die Data-Innovation-Vorreiter erzielen einen um 9,5 % höheren Bruttogewinn! Weitere Ergebnisse der „Leader“ im Vergleich zu den „Intermediates“ und „Beginners“:

  • 95% der Vorreiter gaben an, dass sie die Enrwicklungsgeschwindigkeit von Anwendungen verbessert haben (im Vergleich zu 76% bei den Anfängern).
  • 95% der Vorreiter haben die Entwicklereffizienz erhöht (versus 71% bei den Anfängern).
  • 95% der Vorreiter haben die Anwendungsfunktionalität verbessert (76% bei den Anfängern).
  • 93% der Vorreiter erzielten einen Schub bei der Anwendungs-Performance (versus 78% bei den Anfängern).

Dies wirkte sich laut den Umfrageautor*innen direkt auf die Kundenbeziehungen aus. Folge waren:

  • eine höhere Markenloyalität (48% der Vorreiter versus 30% der Anfänger),
  • ein höherer Customer lIfetime Value (49% vs. 30%),
  • eine höhere Kundenzufriedenheit (53% vs. 43%),
  • eine höhere Empfehlungsrate (45% vs. 22%).

„Daten sind der Treibstoff des 21. Jahrhunderts. Die Ergebnisse der Splunk-Umfrage unterstreichen einmal mehr diese These", erklärt Frank Jahn, Vorstand und CSO bei amasol. „Doch nur wer in der Lage ist, das volle Potenziel aus den verfügbaren Daten zu schöpfen und dabei auch riesige Mengen an Daten aus unterschiedlichsten Quellen anzuzapfen, wird diesen in mittlerweile jedem Unternehmen verborgenen Schatz auch heben. Datenklassifiezierung und -aggregation und deren Analyse mit den richtigen Methoden und Tools sind dabei der Schlüssel zum Erfolg."

]]>
ITOA
news-93 Mon, 28 Nov 2022 16:23:10 +0000 Untersuchungen zum Beitrag von AIOps zum IT Operations Management - Teil I https://www.amasol.de/blog/detail-page/untersuchungen-zum-beitrag-von-aiops-zum-it-operations-management-teil-i Die meisten Menschen werden, wenn sie den Begriff „künstliche Intelligenz“ oder auch seine Abkürzung „KI“ hören, wohl an ihre Lieblings-Science-Fiction-Story aus einem Film oder Buch denken. Oft dreht sich die Story um eine künstliche Intelligenz, die rebelliert und der Menschheit gefährlich wird. So weit ist KI heutzutage in der Realität zum Glück noch nicht. Der Einsatz von KI treibt den menschlichen Fortschritt in der Forschung und Technik immer wieder stark an: Autos, die selbst fahren, Sprachen verarbeitende Geräte, die Gespräche mit Menschen führen können, Algorithmen, die aus Erfahrungen lernen und wichtige Entscheidungen so schnell treffen können, wie dies für einen Menschen nicht möglich wäre. Diese Liste ist nur eine kleine Auswahl an Beispielen, wie KI zum Fortschritt in diversen Feldern eingesetzt wird. So ist es auch keine Überraschung, dass sich die Wirtschaft stark mit diesem Thema beschäftigt, um durch den Einsatz von KI in Unternehmen Vorteile zu erreichen. In der heutigen digitalen Welt ist die IT aus vielen Unternehmen nicht mehr wegzudenken und so beschäftigen viele auch eigene IT-Abteilungen, um sämtliche Prozesse und Vorgänge der IT mit der notwendigen Aufmerksamkeit und dem entsprechenden Know-how zu managen. Diese Operationen decken verschiedene Felder wie zum Beispiel das Usermanagement, das Management der gesamten Infrastruktur oder das Verwalten von digitalen Geschäftsprozessen des Unternehmens ab, sodass diese ohne Unterbrechungen durchgeführt werden können. Der erfolgreiche Umgang mit diesen Operationen kann, je nach Unternehmensgröße, sehr umfangreich gestaltet sein und ist eine Voraussetzung für die Vermeidung von Schäden und Extrakosten. Auch die Daten, mit denen dabei umgegangen wird, wachsen kontinuierlich enorm an, wodurch sich die Komplexität der IT und deren Anforderungen stetig erhöht: Hier spricht man von „Big Data“. In diesem Zusammenhang ist das Feld des AIOps entstanden. AIOps ist eine Kombination aus den Begriffen „Artificial Intelligence“ (Abkürzung: AI) und „IT Operations“, also künstliche Intelligenz und IT-Operationen. Es geht um die Anwendung von KI auf Operationen in der IT, um diese zu verbessern und effizienter zu gestalten.

AIOps ist ein relatives junges Feld, jedoch nehmen seine Beliebtheit und Bekanntheit stetig zu, da die Entwickler*innen und der Vertrieb von AIOps-Lösungen genau das versprechen, was es für Unternehmen so interessant macht: durch den Einsatz von AIOps mit den stark steigenden Anforderungen und hoher Komplexität in der IT zurechtzukommen.

AIOps ist im Allgemeinen nicht nur die Idee oder ein Lösungsansatz in der IT, sondern steht auch für die AIOps-Tools und -Plattformen, welche die Features und Lösungsansätze mit sich bringen. Der Begriff selbst existiert erst seit Kurzem. Künstliche Intelligenz half bereits seit den 1980ern, die Bedürfnisse von Unternehmen zufriedenzustellen. Ein Unterbereich der KI, Machine Learning, erhielt jedoch erst im 21. Jahrhundert mehr Aufmerksamkeit als Unterstützung für Geschäftsprozesse. Dabei entwickelte sich der Bereich der „IT Operations Analytics“, kurz ITOA. Das Problem an ITOA war, dass die Analysen auf vergangenen Daten beruhten, was es sehr statisch machte und zu Problemen mit dynamischen Infrastrukturen wie Cloud- oder Virtualisierungstechnologien (Container, virtuelle Maschinen und virtuelle Netzwerke) führte. Aus dem Bedürfnis, auch diese modernen und agilen Infrastrukturen zu überwachen und besser mit Echtzeitdaten umgehen zu können, entwickelte sich das Feld AIOps, bei dem nun auch Machine Learning mehr in den Fokus rückte.

Eines der im IT-Bereich relevantesten Forschungs- und Beratungsunternehmen, Gartner, hat den Begriff „AIOps“ zum ersten Mal im Jahr 2017 benutzt, um zu beschreiben, wie mit dazugehörigen Tools IT-Operationen – durch Anwendung von Analysen und Machine Learning auf sogenannte „Big Data“ – automatisiert und verbessert werden sollen. Gartners genaue Definition lautete: „AIOps platforms utilize big data, modern machine learning and other advanced analytics technologies to directly and indirectly enhance IT operations (monitoring, automation and service desk) functions with proactive, personal and dynamic insight. AIOps platforms enable the concurrent use of multiple data sources, data collection methods, analytical (real-time and deep) technologies, and presentation technologies“.

Im Market Guide für AIOps erwähnt Gartner außerdem, dass das Ziel von AIOps sei, die Qualität von aufgenommenen Daten zu verbessern, sodass Infrastruktur- und Operationsleader diverse Use-Cases mit angemessenen Maßnahmen betreiben können. Auch stellt Gartner eine Grafik zur Verfügung, um diese Definition zu unterstützen und den Einsatz von AIOps-Plattformen im IT-Operations-Management darzustellen (siehe Abbildung 1).

 

Market Guide for AIOps Platforms

Im technischen Mittelpunkt der AIOps-Plattformen stehen deren drei sogenannten Säulen:

  • KI
  • Machine Learning
  • Big Data

Auf diese drei Säulen bauen wiederum die drei Hauptfunktionen von AIOps auf, die kontinuierlich und simultan durchlaufen werden:

Hierbei geht es darum, sämtliche Daten, die in das AIOps-Tool fließen, richtig zu analysieren und daraus den Status von überwachten Systemen abzuleiten sowie Zusammenhänge und mögliche Gefahren festzustellen. Da dies in Echtzeit passiert, kommt hierbei Machine Learning zum Einsatz. Es ist unmöglich, bei solch gewaltigen Datenmengen Anomalien, Zusammenhänge zwischen Daten oder den Kontext manuell zu erkennen. Ein wichtiges Ziel dieser Funktion ist die deren schnelle Erkennung. Dies hilft enorm bei der Feststellung der Grundursache eines Problems und ermöglicht einen effizienten Umgang damit sowie dessen zukünftige Vermeidung.

  • Beobachten (observe)

In dieser Funktion geht es um das Einbetten von AIOps in das IT-Servicemanagement (ITSM) des Unternehmens. Eine solche Plattform muss mit dem bestehenden ITSM des Unternehmens integriert und synchronisiert werden, sodass auf Änderungen, Ereignisse und Abhängigkeiten im System des Unternehmens mit entsprechenden Maßnahmen reagiert werden kann.

  • Einbetten in ITSM (engage)

Auch werden Vorgänge automatisiert, um Abhilfe bei Problemen zu schaffen, ohne dass für jedes Anliegen menschliches Eingreifen benötigt wird. So kann zum Beispiel ein bestimmtes Skript automatisch vom Tool als Antwort auf ein bekanntes Problem eingesetzt werden, um dieses schnell und effektiv zu beseitigen.

Auch werden Vorgänge automatisiert, um Abhilfe bei Problemen zu schaffen, ohne dass für jedes Anliegen menschliches Eingreifen benötigt wird. So kann zum Beispiel ein bestimmtes Skript automatisch vom Tool als Antwort auf ein bekanntes Problem eingesetzt werden, um dieses schnell und effektiv zu beseitigen.

  • Handeln und Automatisieren (act)

Durch den richtigen Einsatz von AIOps in der IT soll vor allem ermöglicht werden, mit der hohen Komplexität und den steigenden Anforderungen in der IT durch Flexibilität zurechtzukommen. Durch diese verbesserte Effizienz im Umgang mit den Daten werden auch Kosteneinsparungen entstehen (Gartner, 2022). Durch diese Vorteile wird AIOps für jedes Unternehmen zu einem interessanten Thema.

ITOM - IT Operations Management

AIOps soll vor allem dem IT Operations Management (ITOM) zur Seite stehen. Was genau wird jedoch unter diesem Begriff verstanden? Unternehmen und deren Kunden sind heutzutage so abhängig vom sofortigen Zugriff auf IT-Komponenten, dass selbst kürzeste Ausfälle enorme Konsequenzen und Kosten zur Folge haben können. Diese Ausfälle durch richtiges Management der IT-Komponenten zu reparieren und zu verhindern, ist Ziel von ITOM.

Nach Gartner wird ITOM-Software wie folgt definiert: „IT operations management (ITOM) software is intended to represent all the tools needed to manage the provisioning, capacity, performance and availability of computing, networking and application resources — as well as the overall quality, efficiency and experience of their delivery“.

Eine genaue Abgrenzung des Umfangs der Funktionen und Verantwortlichkeiten von ITOM existiert nicht. Viele Hersteller von ITOM-Software definieren den Umfang unterschiedlich, je nach ihrem Angebot, jedoch sind sich viele bei den drei allgemeinen Bereichen einig. Hierbei hat BMC Software ein Whitepaper von Sudip Sengupta über ITOM und ITSM veröffentlicht, das genauer auf ITOM und dessen Funktionen eingeht. BMC ist eine der größten Firmen im Bereich von IT-Service-Tools. Diese drei Funktionsbereiche und diverse Beispiele sind nach BMC:

  • Management der Netzwerkinfrastruktur des Unternehmens: effizientes Port-/Protokollmanagement, Management der gesamten internen und externen Netzwerkkommunikation, Zugangsmanagement für autorisierte Nutzer
  • Management der allgemeinen IT-Infrastruktur des Unternehmens, also von Hardware, Servern, Anwendungen und Arbeitsplatzgeräten: Bereitstellen, Konfigurieren, Management und Warten von Servern, virtuellen Maschinen, Laptops und ähnlichen relevanten Geräten der Unternehmensumgebung, Uptime von Servern, Anwendungen und Geräten sicherstellen, Verwaltung von Datenspeichern / Email- und Dateienservern, Patches und Upgrades von Servern durchführen
  • Help-Desk-Operationen: First-Level-Support, Nutzerprofile bereitstellen, Backups anfordern, Management von Wiederherstellung im Desaster-Fall

Diesem Whitepaper zufolge verspricht ITOM durch diese Funktionen unter anderem folgende Vorteile:

  • Verbesserte Verfügbarkeit von Services
  • Bessere Kunden- und Nutzererfahrung
  • Minimale Downtimes
  • Verringerte Kosten von Operationen durch reguläre Überwachung

Gartner beschreibt IT-Operationen in ihrem Market Guide genauer. So sind die Aufnahme von Metriken und Logs sowie von Analysen die primären Voraussetzungen für die zugehörigen Teams. Am Anfang steht die Eventkorrelation, erweitert auf die Analyse von Metriken und Logs, gefolgt von Analysen zum Verhalten von Systemen und Nutzern. Die Ziele hierbei sind:

  • Die Entdeckung von Anomalien
  • Die Analyse von Problemursachen
  • Diagnostische Informationen

Noch dazu kann es Use-Cases geben, die Automatisierungen beinhalten, wie die Durchführung von Skripten oder automatischen Workflows.

Nachdem in diesem Artikel der theoretische Hintergrund zum Thema AIOps erläutert wurde, sollen die folgenden genauer auf AIOps-Plattformen eingehen. Nicht nur, wie diese aufgebaut sind und welche Ziele mit diesen erreicht werden sollen, sondern auch, welche Anforderungen sie erfüllen müssen und welche Voraussetzungen Unternehmen für den Einsatz dieser beachten sollten – aber auch, welche Risiken dadurch entstehen.

]]>
news-91 Thu, 24 Nov 2022 13:38:00 +0000 Wie geht eigentlich BizOps? https://www.amasol.de/blog/detail-page/wie-geht-eigentlich-bizops "Die BizOps-Teams setzen sich aus teilweise sehr unterschiedlichen Kompetenzen zusammen: Hier werden BWLer, ITler, Ingenieure, Data Scientists gebraucht, um alle Aspekte der Aufgabe abzudecken." Wir hatten schon festgestellt, dass BizOps hilft, Geschäftsprozesse und Abläufe zu transformieren (siehe „Was ist eigentlich BizOps?“) und an die Anforderungen digitalisierter Unternehmen anzupassen. Dabei reicht die Arbeit der zentralen BizOps-Teams, die inzwischen in etlichen amerikanischen Tech-Companies etabliert wurden, vom Design von Prozessen und Projekten bis hin zu deren Durchführung. Dazu müssen sie vermessen, analysiert, automatisiert und ganz allgemein optimiert werden.

Wie geht eigentlich BizOps?

Wir hatten schon festgestellt, dass BizOps hilft, Geschäftsprozesse und Abläufe zu transformieren (siehe „Was ist eigentlich BizOps?“) und an die Anforderungen digitalisierter Unternehmen anzupassen. Dabei reicht die Arbeit der zentralen BizOps-Teams, die inzwischen in etlichen amerikanischen Tech-Companies etabliert wurden, vom Design von Prozessen und Projekten bis hin zu deren Durchführung. Dazu müssen sie vermessen, analysiert, automatisiert und ganz allgemein optimiert werden.

US-Tech-Unternehmen haben zentrale BizOps-Teams

Theoretisch klingt das ganz einfach, aber das dann praktisch zu realisieren, ist durchaus eine Herausforderung. Das beschreibt übrigens auch der BizOps-Vordenker Dan Yoo in seinen Beiträgen, die er unter anderem auf LinkedIn veröffentlicht hat. Er hat mit BizOps geholfen, die Mitgliederzahl des Profi-Netzwerks um das Fünffache zu steigern. Auch Dropbox, einer der weltweit größten File-Hosting-Anbieter, hat bereits vor einigen Jahren ein BizOps-Team etabliert, das nach Aussagen des Unternehmens einen großen Anteil am rasanten Wachstum der Company hat.

Verantwortung von Design bis Execution

In Organisationen wie LinkedIn oder Dropbox arbeiten zentrale BizOps-Teams quer zu den Businessbereichen. Sie sind direkt am CEO aufgehängt, oft ist der CEO Teil der BizOps-Initiative. Sie nehmen sich nicht nur Prozesse vor, sondern auch Projekte, und realisieren neue Ideen – immer vom Design bis hin zur Ausführung. Diese Komplettverantwortung für einen Prozess oder ein Projekt führt zu einer viel höheren Durchgängigkeit und Transparenz als bei Prozessen, die arbeitsteilig und von verschiedenen Geschäftsbereichen verantwortet werden. Die BizOps-Teams betrachten Prozesse wie von außen, prüfen, ob sie ihren Zweck erfüllen, zerlegen sie in ihre Einzelteile, verschlanken und optimieren sie so, dass sie nachher effektiver ablaufen, einfacher verändert werden können und neue Kundenbedürfnisse schneller bedienen können. Neue Projekte werden quasi auf der grünen Wiese realisiert, zunächst unabhängig von den bestehenden Geschäfts- und Produktbereichen. Dieses Vorgehen erlaubt einen deutlich höheren Freiheitsgrad, weil es keine Rücksichten nehmen muss auf Bestehendes. Jedes Projekt wird im Grunde gehandhabt wie ein Start-up.

BizOps bleibt ein Traum ohne IT

Die BizOps-Teams setzen sich aus teilweise sehr unterschiedlichen Kompetenzen zusammen: Hier werden Betriebswirtschaftler, ITler, Ingenieure, Data Scientists und Domänen-Experten gebraucht, um alle Aspekte der Aufgabe abzudecken. Gemeinsam sollte diesen unterschiedlichen Know-how-Trägern allerdings sein, dass sie bereits einige Erfahrungen in ihren Fachgebieten gesammelt haben und nachgewiesenermaßen über ihre jeweiligen Tellerränder schauen können.

Doch viele Unternehmen werden sich keine zentralen BizOps-Teams leisten können, deren Mitglieder nichts anderes machen, als neue Projekte anzugehen und Prozesse bis in ihre kleinsten Verästelungen zu zerlegen und neu zusammenzusetzen. Doch auch mit dezentralen BizOps-Teams, die diese Aufgabe zusätzlich zu ihrem normalen Job annehmen, oder sogar einzelnen Experten kann viel erreicht werden – wenn sie denn gehört werden und die Unterstützung von Bereichs- und Geschäftsführung erhalten. Da sind einerseits die entsprechende Führung und Autorisierung der Teams nötig, aber auch die richtig ausgerichtete IT-Infrastruktur und die richtigen Werkzeuge.

So wie Lego oder die Transformers

Denn das schönste Prozess- oder Projektdesign ist nur so gut, wie die ihnen unterliegende IT-Infrastruktur, die Applikationen und ganz entscheidend das IT-Management. Und da sind wir beim IT-Part von BizOps. Um die Anforderungen an schnelle Veränderungen, Einbeziehung sich verändernder Kundenbedürfnisse, Produktions- und Logistikbedingungen erfüllen zu können, ohne dass die Kosten explosionsartig ansteigen, wird eine granulare, weitgehend entkoppelte IT benötigt, die je nach Aufgabe immer wieder anders zusammengesetzt werden kann. Wenn Sie jetzt daran denken, welche unterschiedlichsten „Bauwerke“ Sie in Kindertagen mit Ihrem Legokasten realisiert haben, dann geht das schon in Richtung einer BizOps unterstützenden IT. Doch damit das mit der BizOps IT auch wirklich funktioniert, braucht es eher so etwas wie die „Transformers“. Sie erinnern sich: der Film über die außerirdischen Roboter, die sich in Autos verwandeln können und wieder zurück, je nachdem, was gerade gefordert ist.

]]>
BizOps
news-73 Fri, 18 Nov 2022 13:07:17 +0000 BizOps – immer und überall am Business ausgerichtet https://www.amasol.de/blog/detail-page/bizops-immer-und-ueberall-am-business-ausgerichtet-1 Business- oder IT-Perspektive ist nicht mehr die Frage. Das Business kann nur noch mit IT erfolgreich gestaltet werden. Dazu muss aber die IT die Businesssprache verstehen und sprechen. „Heute spreche ich mindestens einmal pro Woche mit der IT“, erklärte mir kürzlich der CEO eines mittelständischen Unternehmens auf die Frage, wieso er sich so gut mit Analytics und Customer Journeys auskennt. „Bis vor einigen Jahren war das anders, da hat man zwischen Business und IT nur kommuniziert, wenn etwas nicht funktioniert hat oder zu spät kam. Jetzt sitzt die IT genauso selbstverständlich mit am Tisch wie Entwicklung, Vertrieb und Marketing, wenn wir größere neue Vorhaben planen. Die verstehen das Business inzwischen viel besser und wir im Geschäft sind viel stärker auf die IT angewiesen.“

Früher war die IT zu schwerfällig

So viel Lob und Gemeinschaftsgefühl bekommt eine IT immer noch eher selten von der Businessseite entgegengebracht, aber sie hat in den letzten Jahren hart daran gearbeitet, die alte Schlucht zwischen IT und Business zu überbrücken. Diese war entstanden, weil die IT auch aus Mangel an entsprechenden Technologien nicht in der Lage war, die Systeme an die sich relativ schnell ändernden Anforderungen des Business anzupassen. Neue Technologien und Delivery-Modelle wie Cloud, Virtualisierung, Containerisierung oder auch Cloud native und Server-less trugen genauso zum Brückenschlag bei, wie neue Arbeits- und Organisationsweisen zum Beispiel Agile, Continuous Delivery oder Selbstorganisation. Das Zeug, die Lücke komplett zu schließen hat das am Business-Outcome orientierte BizOps-Konzept, das einerseits von einem sehr frühen Schulterschluss zwischen IT und Business lebt, weil es ihn im Betrieb auch tatsächlich realisiert und andererseits am Business orientierte Messgrößen und KPIs für den Betrieb (Operations) sowie eine gemeinsame Sprache zwischen den beiden Bereichen vorsieht. Auf diese Weise entsteht ein sehr effizienter Regelkreis (siehe Abbildung

 

Die vier typischen Schritte für BizOps aus Businesssicht

Die Businessseite ist in der Grafik zwar nicht explizit statt, aber weil BizOps die Elemente der modernen Softwareentwicklung und des Betriebs mit Messgrößen und Fragestellungen aus der Businessperspektive erweitert, spielt sie in allen Stationen des Feedback-Kreislaufs implizit eine große Rolle.

Ein typisches BizOps-Projekt durchläuft deshalb 4 Phasen:

Im Research geht es darum - auch mit Hilfe von Feedback aus den betroffenen Bereichen – eine realistische Einschätzung des zu lösenden Problems zu bekommen. Das beinhaltet nicht nur Gespräche, sondern auch die Analyse interner und externer Vergleichsdaten aus Business-Sicht. Geht es zum Beispiel um die Optimierung des Sales-Systems müssen erst einmal Vergleichsgrößen her. Wie gut ist das eigene Sales-Team gegenüber Mitbewerbern, wie stark verbessern sich Sales-Quantität und Qualität mit der Einführung neuer Systeme? Wie werden die Mitarbeiter gemessen? Pro-Kopf-Umsatz? Beratungsqualität? Zahl der Kunden pro Tag etc.

Im zweiten Schritt Alignment wird eine überzeugende Präsentation auf Basis der gefunden Research-Daten erstellt. Hier muss darauf geachtet werden, dass die Interessen aller beteiligten Teams berücksichtigt und ein Konsens für das weitere Vorgehen gefunden wird. Erst wenn das geklappt hat, kann man an die echte Planung der nötigen Schritte gehen. Execution bedeutet Umsetzung. Die involvierten Teams setzen die geplanten Aufgaben und Schritte um. Das BizOps-Kernteam kümmert sich in dieser Phase um Monitoring und Troubleshooting. bei einigen Aufgaben sollte das BizOps-Team vor der Umsetzung außerdem testen, ob seine Ideen funktionieren.

Der vierte Schritt Performance Management beinhaltet in erster Linie das Tracken und Monitoren von Key Performance Indicators (KPI) und Erfolgsfaktoren. Damit BizOps-Projekte erfolgreich sind, müssen diese aber Business-KPIs sein, die in Beziehung zu den eingesetzten digitalen Services werden. Man kann besagten Pro-Kopf-Umsatz eines Vertriebsmitarbeiters nicht direkt auf das Sales-System herunterbrechen. Aber man kann messen, wie lang ein Mitarbeiter benötigt, um die Kaufhistorie eines Kunden in den letzten 12 Monaten angezeigt zu bekommen; oder wie lange es braucht, die Bestellung eines Kunden zu autorisieren, wie viele Datenpunkte eines Kunden pro Jahr erfasst werden etc.

Und am Ende des Gesprächs sagte der anfangs erwähnte CEO noch diesen bemerkenswerten Satz: „Früher ging IT nicht ohne Geschäft, heute funktioniert kein Geschäft ohne IT. Es hat einige Zeit gedauert, bis wir das verinnerlicht hatten, aber heute handeln wir nach dieser Maxime.“

Quellen:

- https://www.bptrends.com/digital-transformation-bizops-and-business-architecture/
- https://www.rocketblocks.me/guide/bizops/role-overview.php
- https://www.everestgrp.com/2021-02-companies-moving-to-bizops-model-for-optimal-value-in-third-party-services-blog-.html

]]>
BizOps
news-90 Fri, 11 Nov 2022 13:38:00 +0000 Perform while you transform https://www.amasol.de/blog/detail-page/perform-while-you-transform "Doch BizOps ist viel mehr als ein organisatorischer Ansatz, der Start-ups hilft, sich weiterzuentwickeln. Auch etablierte Unternehmen profitieren davon." Im Prinzip hat BizOps drei Aufgaben: Es ist ein Katalysator für die Zusammenarbeit und puscht Projekte, für die anfangs zu wenig Kapazitäten und Skills im Unternehmen vorhanden sind. Drittens kümmert sich BizOps darum, neue Fähigkeiten und Funktionen auszuprägen. Diese Einschätzung stammt aus berufenem Mund: Yao Chang, Director Business Operations von Intercom, eines amerikanisch-irischen Anbieters von Customer-Messanger-Lösungen. Das 2011 gegründete Unternehmen gehört zum Unicorn-Club, zu dem Start-ups zählen, die mit mehr als einer Milliarde Dollar bewertet werden. Intercom bietet eine Customer Interaction Platform an, zu der intelligente Chat Bots, ein Kundenmanagement- und Analyse-System und eine Support-Plattform gehören. So werden Intercom-Kunden in die Lage versetzt, mit ihren Kunden individualisiert und teilautomatisiert anlassbezogen zu kommunizieren. Dem Endkunden erscheinen Anlass, Art und Ziel der Kommunikation individuell. Intercom versetzt Unternehmen in die Lage, Tausende solcher Interaktionen parallel zu führen.

BizOps befähigt, neue Dinge voranzutreiben

Chang berichtet im Intercom-Blog davon, wie sein Unternehmen mit BizOps eine Unternehmensstrategie entwickelt hat. Dazu wurden klare Schlüssel-Metriken identifiziert, mit denen der Grad der Zielerreichung gemessen werden kann, und es wurde Input von allen Verantwortlichen eingeholt. Basierend darauf wurden strategische Eckpfeiler gesetzt sowie strategische Initiativen formuliert und priorisiert.

Junge, schnell wachsende Unternehmen wie Intercom sorgen mit BizOps für den Fokus, den sie für ihr Wachstum benötigen, dafür, dass die richtigen Business-Initiativen gestartet, die richtigen Leute mit dem richtigen Know-how zusammenarbeiten und dass das Unternehmen die Funktionen und Fähigkeiten entwickelt, die es für seinen Erfolg braucht.

BizOps ermöglicht Ambidextrie

Doch BizOps ist viel mehr als ein organisatorischer Ansatz, der Start-ups hilft, sich weiterzuentwickeln. Auch etablierte Unternehmen profitieren davon. Ihnen erlaubt es, eine Fähigkeit auf- bzw. auszubauen, über die in den letzten zwei Jahren sowohl von IT- als auch von Unternehmensberatern viel gesprochen wird, wenn es um die digitale Transformation geht: Ambidextrie.

Ambidextrie oder Beidhändigkeit beschreibt in der Organisationslehre die Fähigkeit von Unternehmen, gleichzeitig effizient und flexibel zu sein. Das Bonmot „Perform while you transform“ erklärt genau diese Herausforderung: In Zeiten von Umbruch oder Disruption müssen Unternehmen beidhändig arbeiten können. Die eine Hand konzentriert sich auf die bestehenden Produkte und Geschäftsmodelle. Es gilt, sie effizient zu managen, weiterzuentwickeln und möglichst lange erfolgreich zu betreiben. Die andere Hand kümmert sich um neue digitale Geschäftsmodelle, probiert neue Arbeitsmethoden und -modelle aus, die den kommenden Herausforderungen einer digitalisierten Wirtschaft besser entsprechen.

Wie die Hände eines Jongleurs

Dabei dürfen sich die Hände nicht gegenseitig in die Quere kommen und darf die eine die Arbeit der anderen nicht behindern. Gleichzeitig agieren die Hände ja nicht unabhängig voneinander. Sie sind im gleichen Rumpf verankert und übernehmen auch Fähigkeiten voneinander. Die Hand, die sich um die Effizienz des bestehenden Geschäfts kümmert, kann durchaus Know-how von der anderen Seite übernehmen und umgekehrt. Das gleiche gilt für die Teams, die für den digitalen Zweig arbeiten. Sie entstammen zumindest teilweise den Teams aus den bestehenden Geschäftsbereichen. Eigentlich agieren die beiden Seiten genauso wie die Hände eines Jongleurs, die gleichzeitig verschiedene Gegenstände in der Luft halten.

IT muss beidhändig sein

Genauso wie das Business eines Unternehmens beidhändig agieren können muss, braucht auch die IT diese Fähigkeit. Nur besteht hier die Herausforderung darin, dass es nicht ausreicht, diese Capabilities nebeneinander zu etablieren, sondern sie müssen interagieren. So wie das eine Hirn des Jongleurs beide Arme steuert, muss auch die IT in der Lage sein, beiden Anforderungen – der nach Effizienz und der nach Flexibilität – gerecht zu werden.

]]>
BizOps
news-89 Fri, 11 Nov 2022 13:37:00 +0000 Damit Innovation nicht mehr „stört“ https://www.amasol.de/blog/detail-page/damit-innovation-nicht-mehr-stoert „Die Idee von Digital BizOps postuliert, dass es viele neue Werkzeuge und Disziplinen für den digitalen Geschäftsbetrieb gibt, die es zu nutzen gilt." Business Operations ist alles, was im Unternehmen passiert: Damit das Unternehmen funktioniert und Geld verdient. Diese eher traditionelle Definition von BizOps ist eine von vielen, die zurzeit mehr oder weniger unwidersprochen im Netz kursieren. Folgende Elemente zählen laut dieser Definition dazu: Prozesse, Belegschaft, Ort sowie Ausrüstung und Technologie.

BizOps muss zwei Dinge gleichzeitig können

Im digitalen Zeitalter ist diese Beschreibung von BizOps zwar nicht obsolet, aber sie sollte ergänzt werden. Wir hatten bereits im letzten Blog-Beitrag ausgeführt, dass BizOps heute zwei Dinge gleichzeitig können muss: und zwar das Bestehende möglichst immer effizienter machen und zugleich das Neue (d. h. Geschäftsmodelle, Produkte, Services, IT, Art der Zusammenarbeit) ermöglichen. In einer ausschließlich auf Effizienz ausgerichteten Business Operations würden Innovation und die damit einhergehende Veränderung immer als „störend“ wahrgenommen werden. Es ist auch klar, warum: Innovation passt noch in kein Schema. Innovation führt zu Verschiebungen von Mitarbeitenden, sie verändert oder zerstört Prozesse und ihre Ergebnisse lassen sich meist noch nicht abschließend bewerten.

DevOps und Cloud-Delivery gehören zu BizOps

Deshalb verändert sich das Verständnis von BizOps zumindest in dem Bereich, in dem es darum geht, Neues zu ermöglichen bzw. neue Geschäftsfelder aufzubauen und profitabel zu machen. Daryl Plummer, Distinguished Vice President Analyst bei Gartner, erklärt die neue Philosophie von Business Operations in einem Blog-Beitrag daher folgendermaßen:

„Die Idee von Digital BizOps postuliert, dass es viele neue Werkzeuge und Disziplinen für den digitalen Geschäftsbetrieb gibt, die es zu nutzen gilt. Zu den Tools und Disziplinen gehören unter anderem Kategorien wie DevOps und industrialisierte Cloud-Delivery. Und BizOps erkennt an, dass es neue Regeln gibt. Die neuen Regeln des digitalen Geschäftsbetriebs basieren auf der Annahme, dass die Art und Weise, wie wir die Dinge in der Vergangenheit gemacht haben, nicht unantastbar ist. Wir müssen bereit sein, uns zu ändern. Und um das zu erreichen, müssen wir unsere operativen Annahmen in Frage stellen und bereit sein, unsere Abläufe regelmäßig an neue Gegebenheiten anzupassen. Dazu brauchen wir immer mehr sogenannte ‚Feedbackschleifen‘ zwischen internen und externen Personen und Prozessen. Diese Rückkopplungsschleifen werden es den Nutzern einer digitalen Technologie ermöglichen, die Entwicklung des Designs und der Nutzung der digitalen Technologie mit angemessener Geschwindigkeit voranzutreiben, um bei Bedarf einen Unterschied zu machen.“

Was bitte ist ein „Transitional Asset“?

Plummer führt im gleichen Blog-Beitrag u. a. die Idee des „Transitional Asset“ ein, das eine Art Zwischenzustand der bekannten physikalischen und immateriellen Vermögenswerte (Assets) darstellt. Digital BizOps müsse vor allem mit dieser neuen Wertegattung umgehen und Unternehmen in die Lage versetzen, von ihnen zu profitieren.

Diese Transitional Assets entstehen in den Grenzbereichen von physischer und virtueller Welt. Dort zum Beispiel, wo die physikalischen Eigenschaften einer Maschine durch Sensordaten in die virtuelle Welt gelangen und auf diesen Daten neue Geschäftsfelder aufgebaut werden können. Oder wenn aus einem virtuell gestalteten Objekt durch 3D-Druck direkt ein physikalisches Objekt entsteht. Transitional Assets bauen Brücken zwischen physischen und immateriellen Werten, ähnlich wie Geld oder Aktien. Allerdings haben sie den großen Vorteil, dass sie selbst ihren Wert nicht verlieren. Anders als eine Maschine, die man nur einmal verkaufen kann, kann man einen 3D-gedrucktes Objekt viele Male verkaufen, ohne dass das zugrunde liegende virtuelle Design an Wert verliert. Im Gegenteil: Durch schnelle Veränderungen und Optimierungen lässt sich der Wert des Transitional Asset sogar weiter erhöhen.

Eine harte Nuss

Schon gedanklich ist das eine harte Nuss. Wenn Unternehmen aber den ganzen Weg gehen wollen, um von dieser neuen Wertegattung zu profitieren, hat dies enorme Auswirkungen auf die Methoden und Werkzeuge von BizOps.

Im Rahmen seines Vortrags auf der Perform 2018 hat der Analyst Ray Wang ein interessantes Beispiel gegeben: Durch geschickte Integration von Business, User Experience und Operations-Metriken konnte Domino’s Pizza sein Geschäftsmodell umfassend digitalisieren – Pizza blieb damit zwar ein „Physical Asset“, aber der Mehrwert für den Kunden durch den digitalen Rundum-Service auf Basis neuer „Transitional Assets“ hat Dominos ein unglaubliches Wachstum beschert: https://twitter.com/rwang0/status/954762698247438336. Welche Transformationsschritte hierfür notwendig waren, stellt Kyle Wong im Beitrag auf forbes.com dar. Die Basis des Erfolgs war, den Kunden durch Exzellenz im Angebot und Bestellprozess immer wieder zu begeistern und so für Kundenbindung und zusätzlichen Umsatz zu sorgen – z. B. durch innovative mobile Apps, die das Nutzungsverhalten des Benutzers verstehen, ihn zum richtigen Zeitpunkt informieren („Hey, willst du nicht deine Lieblingspizza jetzt bestellen, dann kommt sie an, wenn Du zu Hause bist!“) oder über Augmented-Reality-Visualisierung schon vor der Bestellung Lust auf die dampfende Pizza machen.

Die involvierten Mechanismen wie mehr Agilität, Flexibilität, mehr Raum für Experimente und die Fähigkeit, auch von unerwarteten Gelegenheiten zu profitieren, sind bekannt. Aber der Teufel steckt im Detail: Wie zum Beispiel muss Performance Management gestaltet sein und nach welchen Regeln muss es funktionieren, um eine Design-Software optimal einsetzen zu können? Wie muss Security im IoT-Bereich aufgebaut sein, damit ein Unternehmen seine Transitional Assets adäquat schützen kann? Welche Daten und welche Analytics Tools werden benötigt, um eine IT zu optimieren, die dieses digitale BizOps unterstützt?

Wenn Sie sich jetzt ähnliche Fragen stellen, dann kommen Sie doch zum BizOps-Forum, zu dem amasol am 27. und 28. Mai 2019 nach München einlädt. Wir freuen uns auf den Austausch mit Ihnen!

]]>
BizOps
news-88 Tue, 08 Nov 2022 13:36:00 +0000 Das „Was hat es gebracht?“-Prinzip https://www.amasol.de/blog/detail-page/das-was-hat-es-gebracht-prinzip "Komisch ist nur, dass IT-Management immer noch darum kämpfen muss, vom Business anerkannt zu werden." Es ist Zeit zu fragen, ob die Business-Disziplin BizOps und das Management und der Betrieb von IT-Systemen so viel miteinander zu tun haben, dass ein IT-Beratungshaus wie amasol als Veranstalter des BizOps-Forum ernst genommen werden kann

Zum einen ist BizOps in digital ausgerichteten Unternehmen eine Aufgabe, die ohne die Bereitstellung und Analyse enormer Datenmengen aus unterschiedlichsten Quellen nicht mehr bewältigbar wäre. Zum anderen gibt es kaum noch Prozesse in Unternehmen, die nicht IT-gestützt sind. Die meisten davon sind zumindest teilautomatisiert. Der Betrieb von Unternehmen – gleich welcher Art – ist absolut abhängig vom Funktionieren und der Verfügbarkeit von IT-Systemen.

Wie kommt die IT auf Augenhöhe?

Natürlich ist das eine Binsenweisheit: Das weiß angeblich jeder, auch auf der Business-Seite. Komisch ist nur, dass es dann so wenig Wissen über das Thema IT-Management gibt und dass die Disziplin immer noch darum kämpfen muss, vom Business anerkannt zu werden. In einem aktuellen Beitrag zum Thema IT-Business-Management schreiben die Unternehmensberater von Deloitte bezeichnenderweise: „In vielen Unternehmen kämpft die IT nach wie vor mit einer existenziellen Frage: Wie kann sie sich vom reaktiven Befehlsempfänger zum strategischen Partner der Businessseite entwickeln? Wie kommt man von einer traditionellen Auslieferung von IT-Produkten und -Services zu Beiträgen, die den Business-Wert erhöhen? Eine Rolle, die helfen würde, die IT-Aktivitäten und -Ausgaben mit den Prioritäten des Gesamtunternehmens zu verbinden.“

Um eine solche Partnerschaft auf Augenhöhe zu erreichen, kann IT-Management oder IT-Service-Management nicht mehrheitlich als wichtigste Priorität ausgeben, die IT-Prozesse optimieren (IDG-Studie) zu wollen. Das wäre ungefähr so, als wenn die Businessseite sich an der Qualität der Vertriebsprozesse messen würde und nicht am Umsatz oder Gewinn des Unternehmens.

Outcome statt Output

Die DevOps-Praktiker versuchen der IT schon länger beizubringen, nicht mehr Output-orientiert zu agieren, sondern Outcome-orientiert. Der Unterschied? Output-orientiert bedeutet, dass die IT daran gemessen wird, ob sie die geplanten Projektschritte zeit- und budgetgetreu liefert. Outcome-orientiert folgt dagegen dem „Was hat es gebracht?“-Prinzip (WHEG-Prinzip). In einem Vortrag brachte es ein Enterprise-Architekt kürzlich auf den Punkt: „Wir haben kein Problem mit roten Projekten, wir haben ein Problem mit grünen Projekten, die nichts bringen.“ Mit „roten“ Projekten sind natürlich die gemeint, die aus dem Zeit- und Geld-Budget laufen. Bei „grünen“ Projekten ist dagegen vom Output her betrachtet alles in Ordnung, aber eben nicht, wenn man das WHEG-Prinzip als Messlatte anlegt.

Business-KPIs auch für die IT

Diese Art zu messen muss auch dem Anspruch der Self-Driving-IT zugrunde liegen, damit sie mit den „Gewerken“ Technology Business Management, IT-Operations Analytics, IT Infrastructure Management und Application Performance Management nicht nur eine effiziente IT zur Verfügung stellen kann, sondern eine effektive, flexible IT, deren Wert sich am Grad der Business-Unterstützung misst.

Diese neue Orientierung am Outcome muss sich beispielsweise direkt in den Key-Performance-Indikatoren (KPI) niederschlagen. Wer dem Vertriebschef berichtet, wie viel Millisekunden es heute schneller geht, einen Service aufzurufen oder eine bestimmte Menge an Daten zu speichern als vor einem halben Jahr, erntet günstigstenfalls ein müdes Gähnen. Schlimmstenfalls redet der Vertriebschef direkt im Anschluss mit einem Cloud-Provider, der Sales-Automation-Werkzeuge anbietet, von denen er sich eine direkte Business-Unterstützung verspricht. Wer hingegen berichtet, wie viel mehr Kunden ein Account-Manager innerhalb einer Stunde mehr bedienen kann als beim letzten Berichtstermin, gewinnt die Aufmerksamkeit des Vertriebsverantwortlichen. Das gilt natürlich auch für die anderen IT-Management-Gewerke. Nur wenn die IT-KPI Business-Werte widerspiegeln, wird die IT als das anerkannt, was sie ist: ein wesentliches Business-Tool und damit eines der wichtigsten BizOps-Elemente. Deshalb braucht amasol als Ausrichter des BizOps-Forums keinerlei Bedenken zu haben, der richtige Veranstalter für solch ein Event zu sein. Im Gegenteil: BizOps und IT lassen sich in der digitalen Welt nicht mehr getrennt voneinander buchstabieren.

]]>
BizOps
news-87 Tue, 08 Nov 2022 13:36:00 +0000 Technology Business Management: Es geht immer um Balance https://www.amasol.de/blog/detail-page/technology-business-management-es-geht-immer-um-balance "Bei BizOps geht es darum, eine Balance zu halten: zwischen dem effektiven Betreiben bestehender Geschäfte und der Entwicklung neuer Business Opportunities." Es geht immer um das richtige, ausgewogene Maß: Bei Unternehmensbilanzen geht es um das richtige Verhältnis von Kosten und Gewinn. Dasselbe gilt es für den Technologie- und IT-Einsatz. Welche Art von Infrastruktur, welche Services werden benötigt, um welches Ziel zu erreichen? Antworten auf diese Fragen sind wichtig, aber sie allein sorgen noch nicht für Ausgeglichenheit zwischen Technologieeinsatz und -aufwand einerseits und dem Geschäftserfolg andererseits.

Dieses Gleichgewicht kann erst dann hergestellt werden, wenn Klarheit darüber herrscht, welchen Beitrag der Technologieeinsatz zum Geschäftserfolg tatsächlich liefert. Es geht also darum, IT genauso als Ressource zu betrachten und zu managen wie Kapital, Arbeit und Rohstoffe.

Mit ihrem Hang zu verkürzenden, aber treffenden Aussagen nennen die Amerikaner dieses Streben nach Balance „Manage IT like a business“. Um dieses Ziel realisieren zu können, hat die sich aus Anwender- und Anbieterunternehmen zusammensetzende Non-Profit-Organisation Technology Business Management Council einen Bezugsrahmen entwickelt. Dieser beinhaltet Fragen nach der Definition von Services, nach der Art und Weise, wie Kosten erhoben werden, und danach, wie sich Preise für diese Service bilden lassen. Weitere Punkte innerhalb des Frameworks betreffen die Art der Zusammenarbeit zwischen Business- und IT-Management, die Nutzungsintensität von Services, Prognosen für den kommenden IT-Bedarf, Leistungsmessung der IT sowie das Herstellen von Kostentransparenz.

Dabei dürfen die Antworten auf diese Fragen nicht auf generellen Schätzungen basieren, sondern sind Ergebnis von Daten, die von Agenten und Tools zur Auswertung bereitgestellt werden. Auf diese Weise kann Technology Business Management einen Zusammenhang herstellen zwischen der Infrastruktur und den geschäftsorientierten Services, die den Geschäftsprozessen zugrunde liegen. So lässt sich eindeutig feststellen, welche Infrastruktur und welcher IT-Service welchen Wertbeitrag zum Geschäftserfolg geliefert haben.

Die Wirkung solcher klaren Aussagen lässt sich gar nicht hoch genug schätzen: „Das Online-Shop-System von XY hat unsere Online-Verkäufe um 20 Prozent gesteigert und wir sind pro Transaktion um 25 Prozent preiswerter als der Durchschnitt.“ So kann sich die IT sicher sein, dass ihr Beitrag zum Geschäftserfolg gewürdigt wird. Aber das gilt natürlich im Negativen genauso: „Der neu eingeführte Digital Workplace hat die Produktivität unseres Vertriebs um 10 Prozent sinken lassen. Vor allem die anfänglichen Fehler im Gruppenkalender haben zu 15 Prozent weniger erfolgreichen Meetings mit Geschäftspartnern geführt.“ Die Aussagen mögen zwar manchmal hart sein, aber sie schaffen auch die Möglichkeit, gezielt gegen Fehlentwickelungen vorzugehen. Kimberly Sorenson, Director KPMG CIO Advisory, hat das in einem Beitrag des US-amerikanischen CIO-Magazins hervorragend auf den Punkt gebracht: „Es geht nicht darum, die Fehler der Vergangenheit aufzudecken, sondern darum, die richtigen Entscheidungen für die Zukunft zu treffen.“

Voraussetzung dafür ist allerdings der Unternehmenswille zur Offenheit. Kein Verstecken, kein Verschleiern von Kosten, keine geschönten Nutzungsdaten mehr. Das Ergebnis dieser Offenheit ist Transparenz: Was haben wir in welche Technologien investiert und in welchem Maß haben diese Technologien die Business-Resultate verbessert? Und noch einmal: Die Antworten auf diese Fragen basieren nicht auf Einschätzungen, sondern auf Daten.

Diese Kultur der Transparenz herrscht leider noch nicht in der Mehrheit der Unternehmen. Aber angesichts der großen Veränderungen, die Unternehmen besonders im Hinblick auf die Digitalisierung gerade erleben, ist Transparenz bitter notwendig.

Und was hat Technology Business Management mit BizOps zu tun? Das ist schnell erzählt: Wenn Unternehmen eindeutig wissen, welche Technologie welchen Wertbeitrag liefert, können sie objektiv entscheiden, welche Technologie sie wofür einsetzen und wie sie sie am besten nutzen. Das gilt für bestehende und für neue Geschäftsprozesse und -modelle. Schließlich geht es auch bei BizOps darum, eine Balance zu halten: zwischen dem effektiven Betreiben bestehender Geschäfte und der Entwicklung neuer Business Opportunities.

]]>
TBM
news-86 Wed, 02 Nov 2022 13:35:00 +0000 Goldgrube „Predictive Maintenance“ https://www.amasol.de/blog/detail-page/goldgrube-predictive-maintenance "Der wichtigste Unterschied zwischen „Preventive“ und „Predictive Maintenance“ ist also die Vermeidung von Geldverschwendung." Kennen Sie den Unterschied zwischen vorsorglicher und vorausschauender Instandhaltung – also zwischen „Preventive“ und „Predictive Maintenance“?

Die erste Variante ist vergleichbar mit dem turnusmäßigen Ölwechsel bei unseren Autos, den wir rund alle 20 000 Kilometer machen, um Schäden am Motor zu vermeiden. Die Angabe 20 000 Kilometer stammt vom Autohersteller und basiert auf Erfahrungswerten und Daten, die während Entwicklung und Testphase des Motors gemessen werden. Bei „Predictive Maintenance“ hingegen liefern Sensoren im Motor zum Beispiel Daten über die Dichte und Viskosität des Öls. Dazu kommen Umgebungsparameter wie Außentemperatur, gefahrene Kilometer, Belastungsarten des Motors sowie Werte von anderen Motoren ähnlicher Größe, ähnlicher Laufleistung und vieles andere mehr. All diese Daten werden zusammengeführt und analysiert, um möglichst genau den Zeitpunkt eines drohenden Ausfalls des Motors vorherzusagen. So lässt sich das bestmögliche Datum für einen Ölwechsel bestimmen – quasi als Relation zwischen drohendem Schaden und größtmöglichem Nutzen, der sich aus einer Ölfüllung erzielen lässt. Je weiter ein Auto, ein Lkw zumal, ohne Ölwechsel fahren kann, desto geringer sind die Betriebskosten.

Der wichtigste Unterschied zwischen „Preventive“ und „Predictive Maintenance“ ist also die Vermeidung von Geldverschwendung.

Alle Maschinen und Systeme profitieren

Der Ölwechsel ist nur ein leicht verständliches Beispiel. Die Vorteile von Predictive Maintenance mithilfe von Echtzeit-Sensordaten, die zum Beispiel in einer Cloud gesammelt und analysiert werden, treffen auf alle Maschinen und Anlagen zu – auch für IT-Systeme und -Services. Je komplexer ein Gesamtsystem, desto mehr Messpunkte müssen eingerichtet werden, um genügend aussagekräftige Daten zu erhalten, mit deren Hilfe das richtige Austausch- oder Wartungsdatum für eine Komponente bestimmt wird.

Doch mithilfe der Daten und ihrer Analyse können nicht nur Wartungsarbeiten vorausgesagt werden, sondern auch Maßnahmen eingeleitet werden, die die Wartung weiter hinausschieben, indem zum Beispiel die Leistung einer Maschine der angestrebten Lebensdauer einer Komponente angeglichen wird. In einer IT-Landschaft lassen sich Sensoren und Agenten für das Monitoring des Gesamtsystems und verschiedener Services nutzen: zum einen, um zu wissen, wie sie beim Endanwender funktionieren. Zum anderen lassen sich so aber auch die Leistungen von Service- und Infrastruktur-Providern überprüfen und verbessern.

Predictive Maintenance nutzt auch KI

Inzwischen bieten verschiedene Unternehmen Tools und Plattformen für die vorausschauende Wartung von Maschinen, Anlagen, IT-Systemen und Netzwerken an. Zum Teil sind das einfache Monitoring-Systeme, zum Teil sind das sehr ausgereifte Plattformen, die auch schon Machine-Learning-Algorithmen einsetzen, um in bestimmten Situationen die jeweils am besten geeigneten Maßnahmen vorzuschlagen.

Eine sehr große Herausforderung in diesem Zusammenhang ist das Sammeln, Aufbereiten und Analysieren der Daten. Sie werden häufig in verschiedenen Geschäftsbereichen, unterschiedlichen Fertigungsstätten und von zum Teil sehr verschiedenen Sensoren gesammelt. Das heißt, es kommen unzählige Datenformate zusammen, die an unterschiedlichen Standorten nach verschiedenen Kriterien und in unterschiedlichen Systemen gespeichert werden. Deshalb setzt eine funktionierende Predictive-Maintenance-Strategie vor allem den bewussten Umgang mit Daten und eine gewisse Daten-Architektur voraus. Die Daten dürfen nicht mehr in einzelnen Silos gespeichert werden, sondern müssen den Zugriff aller Berechtigten ermöglichen. Hier spielen Cloud- und Big-Data-Services eine wichtige Rolle. Cloud-Speicher bieten die nötige Infrastruktur und Big-Data-Services sorgen dafür, dass Daten unterschiedlicher Formate verarbeitet werden können, ohne sie zuvor zu normalisieren. Machine-Learning-Algorithmen erleichtern bzw. automatisieren im Endausbau den Umgang mit gewonnenen Ergebnissen.

]]>
BizOps
news-85 Tue, 25 Oct 2022 13:34:00 +0000 Agile Infrastrukturen sind nur zum Viertel eine technische Herausforderung https://www.amasol.de/blog/detail-page/agile-infrastrukturen-sind-nur-zum-viertel-eine-technische-herausforderung "Die Vorzüge der agilen Methoden haben sich herumgesprochen, sodass sich auch andere Unternehmensbereiche intensiver mit diesem Thema auseinandersetzen." Agile Entwicklung findet zwar noch nicht überall statt, aber sie wird in vielen IT-Organisationen zumindest ansatzweise praktiziert. Immer öfter versuchen Unternehmen von starren Release-Wechseln wegzukommen und stattdessen Softwareprodukte in kleineren Schritten schneller zu entwickeln und zu deployen.

Agile Vorteile haben sich herumgesprochen

Die Vorzüge der agilen Methoden – Geschwindigkeit, Flexibilität, Qualität – haben sich inzwischen herumgesprochen, sodass sich auch andere IT- und Unternehmensbereiche intensiver mit diesem Thema auseinandersetzen. Im Businessbereich probt man die agile Umsetzung neuer Geschäftsmodelle, Prozessveränderungen und Produktideen – viele nennen das BizOps. Enterprise-Architekten, die sowohl Fach- als auch IT-Prozesse und -Landschaften im Blick haben, arbeiten an agilen Verfahren und auch die IT selbst versucht, agile Prinzipien über die Entwicklung hinaus anzuwenden, zum Beispiel in der IT-Infrastruktur.

Diese eher ganzheitlichen Anwendung agiler Verfahren gilt bei Agilitätsberatern nicht umsonst als hohe Schule. Nur, so ihre Lehrmeinung, wenn das ganze Unternehmen agil ausgerichtet ist, können die Vorteile wirklich ausgeschöpft werden. Solange nur einzelne Silos – beispielsweise die Softwareentwicklung agilisiert würden, entstehen in anderen Bereichen immer wieder Verzögerungen durch Nachfragen, Missverständnisse und Technologiebrüche.

Voraussetzung ist eine beschleunigte Infrastruktur

Eine der wesentlichen Säulen einer unternehmensweiten Agilisierung ist die Beschleunigung der IT-Infrastruktur. Sie stellt eine kritische Ressource für fast alle Unternehmensbereiche und natürlich für alle Geschäfts- und Prozessveränderungen dar. Von ihr hängt es ab, wie schnell ein digitales Produkt oder ein digitaler Service tatsächlich auf den Markt kommt und in welcher Qualität er dort wahrgenommen wird. Ganz banales Beispiel: Wenn eine neues E-Commerce-Plattform aufgrund mangelnder Server-, oder Netzressourcen zu langsam ist, verlieren die Kunden sehr schnell die Lust und wenden sich anderen Anbietern zu.

Dabei ist die Agilisierung der Infrastruktur nur zu einem Viertel eine technische Herausforderung. Die restlichen Dreiviertel haben mit Organisation zu tun.

Software defined everything

Technisch gesehen muss zwischen der Infrastruktur selbst – also Server-, Speicher- und Netzwerkressourcen eine Management-Schicht (Software defined everything) eingezogen werden, mit deren Hilfe die Ressourcen den verschiedenen Workloads anforderungsgerecht schnell und flexibel zugeordnet werden können. Das bedeutet am Beispiel der bereits erwähnten E-Commerce-Plattform, dass diese Management-Schicht in der Lage sein muss, die Ressourcen auch belastungsgerecht zu steuern. Je mehr Interessenten dort nach Produkten suchen, desto mehr Ressourcen müssen der Plattform zur Verfügung gestellt werden. Das ist keineswegs trivial, vor allem wenn man bedenkt, dass die Ressourcen-Anforderungen nicht von einem dezidierten und erfahrenem Infrastruktur-Team gestellt werden, sondern zum Beispiel im Self-Service-Verfahren von den Entwicklern der Plattform. Voraussetzung für das Funktionieren dieser Management-Schicht ist unter anderem ein ausgeklügeltes Performance-Management, das Funktionieren und Auslastung der eingebundenen Ressourcen exakt überprüft und bis hin zu genauen Belastungsprognosen auch managed.

Natürlich funktioniert agiles Infrastruktur-Management in der Cloud besser. Allerdings müssen dann auch Cloud-Orchestrierungs- und Provisioning-Tools in die technische Gleichung miteinbezogen werden.

Agile Infrastrukturteams

Aus organisatorischer Sicht geht es zum einen darum, die Infrastrukturteams agil zusammenzusetzen. Bisher waren sie beispielsweise nach den unterschiedlichen Ressourcen organisiert – Speicherteam, Computer- und Netzwerkteam. In agilen Infrastrukturteams sollten dagegen diese Skills gemischt sein.

Zum anderen müssen die Prozesse zur Auslieferung von Infrastruktur-Services vereinfacht und möglichst automatisiert werden. Statt für besagte E-Commerce-Plattform eine dezidierte Infrastruktur-Anforderung zu formulieren, die dann von den verschiedenen Infrastruktur-Spezialisten überprüft und realisiert wird, müssten die Entwickler-Teams das im Self-Service anfordern können. Dabei kann das Self-Service-Tool sich nicht darauf beschränken, eine bestimmte Zahl an Rechenkernen, Speicherkapazitäten und Netzwerkbandbreite anzufordern, sondern es muss auch eine Plausibilitätsprüfung erfolgen. Wenn das (noch) nicht geht, sollten Entwickler und Infrastrukturteams schon während der Entwicklung der Plattform zusammenarbeiten und die Anforderungen an die Infrastruktur gemeinsam formulieren. Das ist zugleich die dritte organisatorischer Herausforderung: Infrastruktur- und Entwicklungsteams müssen eng zusammenarbeiten, um den Prozess der Infrastrukturbereitstellung möglichst schnell und friktionslos abschließen zu können.

Unternehmen, die eine agile Infrastruktur schaffen müssen, um die sich schnell ändernden Geschäftsprozesse und -modelle bedarfsgerecht und flexibel anpassen zu können, müssen auf der technischen Seite dem Software-defined-everything-Paradigma gerecht werden. Auf der anderen Seite müssen sie die organisatorischen Voraussetzungen schaffen, die agile Formen der Zusammenarbeit ermöglichen. Unternehmen, die bereits ihre Software-Entwicklung agilisiert haben, sind dabei im Vorteil, weil sie die organisatorischen Herausforderungen bereits kennen und sie zumindest teilweise bewältigt haben.

]]>
BizOps
news-84 Mon, 24 Oct 2022 13:34:00 +0000 BizDevOps-Transformation bei der Keybank https://www.amasol.de/blog/detail-page/bizdevops-transformation-bei-der-keybank „Um einen Code-Change in Produktion zu bringen, hat die Bank über 14 Tage gebraucht – obwohl es dank der neuen Technologie nur Sekunden gebraucht hat, ihn zu realisieren.“ Andreas Grabner vom Monitoring-Spezialisten Dynatrace berichtet über einen Use Case bei der amerikanischen Bank Keybank. Sie ist in 15 Staaten vertreten, hat 20.000 Mitarbeiter und einen Jahresumsatz von fünf Milliarden US-Dollar. Die Bank ist vor gut zwei Jahren auf die Container-Anwendungsplattform OpenShift von Red Hat umgestiegen und betrachtete sich mit einigem Recht als innovativen Cloud-Anwender, der Cloud-native arbeitet. Allerdings waren viele Prozesse wie Delivery-, Aproval- und andere Prozesse noch weitgehend manuell. Das reduzierte den Geschwindigkeitszuwachs wieder ganz erheblich, den man mit dem Umstieg auf OpenShift erzielt hatte. Grabner, der seit 20 Jahren Erfahrung in den Bereichen Softwareentwicklung, -Testing und -Architektur  hat und inzwischen auf hochperformante, skalierbare Applikationen in der Cloud spezialisiert ist, beschreibt, welches Ausmaß dieser Flaschenhals hatte: „Um einen Code-Change in Produktion zu bringen, hat die Bank über 14 Tage gebraucht – obwohl es dank der neuen Technologie nur Sekunden gebraucht hat, ihn zu realisieren.“

Um Cloud-native zu arbeiten, brauche es einfach mehr, als eine App in einem Container unterzubringen und auf einer Public-Cloud-Plattfom zu deployen. Unternehmen, die wirklich Cloud-native arbeiten, müssten laut Grabner in der Lage sein, einen Code-Change innerhalb einer Stunde in die Produktion zu geben und innerhalb von zehn Minuten auf Störungen zu reagieren. Einer Dynatrace-Studie zufolge können das allerdings bisher nur fünf Prozent der Unternehmen, die von sich behaupten, Cloud-native zu arbeiten.

Grabner erzählt von den Maßnahmen in den Bereichen „automate quality“, „automate deployment“ und „automate operations“, die die Keybank mithilfe von Dynatrace eingeführt hat, um die Time to Production erheblich zu reduzieren. Heute ist die Bank in der Lage, die Entwicklungen täglich zumindest in ein Pre-Production-Environment zu bringen. Dort werden die Entwicklungen von einigen Tausend Kunden der Bank genutzt. Wenn dort keine Schwierigkeiten auftauchen, werden die Changes an alle Kunden der Bank ausgerollt. Außerdem erklärte Graber noch einige Highlights von Dynatrace im Bereich automatisiertes Monitoring, automatisierte Quality Gates, Deployment und Operations.

Zu guter Letzt stellt Grabner das Open-Source-Projekt „keptn“ vor: ein Framework, das Unternehmen bei den Themen Continuous Deployment und Automated Operations unterstützen soll.

]]>
BizOps
news-83 Wed, 19 Oct 2022 13:22:00 +0000 OTTO Group Reduces System Complexity with Splunk Business Flow https://www.amasol.de/blog/detail-page/otto-group-reduces-system-complexity-with-splunk-business-flow "Mit der Splunk-Lösung sollen nun nicht nur DSGVO-Anfragen von Kunden schneller bearbeitet, sondern auch Finanztransaktionen verfolgt und dokumentiert werden." OTTO hat über 6,6 Millionen aktive Kunden, im Online-Katalog sind rund 2,8 Millionen Produkte gelistet und es laufen bis zu zehn Bestellungen pro Sekunde ein. „Der Markt möchte Flexibilität – das führt zu Komplexität in den Systemen. Um alles auf Linie zu bringen, nutzen wir Splunk“, sagt Andre Pietsch, Productmanager  bei OTTO. Die Lösung erlaubt die benutzerfreundliche Analyse vorhandener und neuer Daten und führt damit zu Prozessverbesserungen. Und: Sie bildet Prozesse so ab, dass sie nicht nur von der IT, sondern auch von Business-Nutzern analysiert werden können, um Schwachstellen zu eliminieren.

Pietsch nennt Beispiele: Über einen Filter werden Prozesse wie Durchlaufzeiten geclustert und per Klick dargestellt. Damit wird deutlich, an welchen Stellen Leistung verloren geht. Zudem berechnet ein integriertes Modul Conversion Rates und beobachtet alle aktuellen Aktivitäten von Kunden im Shop. „Damit können Business-Anwender A/B-Tests im lebenden System machen.“

Mit der Splunk-Lösung sollen nun nicht nur DSGVO-Anfragen von Kunden schneller bearbeitet, sondern auch Finanztransaktionen verfolgt und dokumentiert werden – „denn ein Blick auf dieses lebende System zeigt, wie Prozesse implementiert sind.“

Das Ergebnis: Über die Analyse der „Thing Journey“ optimiert OTTO die „Customer Journey“.

]]>
BizOps
news-82 Tue, 11 Oct 2022 13:22:00 +0000 Agile Operations kein Hexenwerk https://www.amasol.de/blog/detail-page/agile-operations-kein-hexenwerk "Es geht es darum, in komplexen IT-Umgebungen aus großen Mengen an IT-Betriebsdaten Schlussfolgerungen zu ziehen und diese dann verständlich darzustellen." Es wird viel vom Dev-, aber weniger vom Ops-Teil in DevOps gesprochen. Ist vielleicht auch verständlich. Development klingt kreativer und spannender. Agil wird die Konstruktion jedoch erst dann, wenn mit der agilen Entwicklung eine genauso agile IT-Operations verbunden ist. Und dieser Betrieb ist – kreativ oder nicht – eine komplexe Aufgabe. Während die Entwicklung effektive Lösungen für bestehende und neue Business-Anforderungen finden muss, arbeitet IT-Operations daran, diese Lösungen skalierbar, sicher, verfügbar, leistungsstark, widerstandsfähig, anwenderfreundlich und möglichst kosteneffizient zur Verfügung zu stellen. Das hat viel mit Hardware, Netzwerken und Security zu tun, also Dingen, die sich nicht mehrmals am Tag oder im Extremfall mehrmals pro Stunde verändern lassen.

Spezielle Ops-Strategien

Deshalb müssen hier neben den generellen DevOps-Maßnahmen wie interdisziplinärer Zusammenarbeit, automatisierten Dashboard oder Continuous Improvement einige spezielle Strategien implementiert werden, damit das Zusammenspiel von Dev und Ops funktioniert. Laut Disciplined agile sind das folgende:

Solution Monitoring – Lösungen müssen ständig mit geeigneten Tools und Systemen hinsichtlich Performance, Fehlerfreiheit, Sicherheit, Verfügbarkeit etc. überprüft werden. Für diese Disziplin gibt es verschiedene Lösungen, die besonders für agile Umfelder geeignet sind. Diese Monitoring-Systeme sollten in Echtzeit und Silo übergreifend funktionieren. Außerdem sollten sie folgende Funktionen aufweisen:

  • Entdecken und Darstellen der Aktivität aller Netzwerk-Devices und deren Anwendungen.
  • Störungen sollten automatisch Silo übergreifend korreliert und in ihrer Schwere bewertet werden können.
  • Application Performance und Real User Monitoring. Es sollten qualitative Aussagen zur Anwendungsperformance bis zum einzelnen User hin erstellbar und in grafischen Auswertungen darstellbar sein.
  • Virtual Machine Monitoring. Auch die Performance von Applikationen in virtuellen Umgebungen muss analysier- und darstellbar sein.
  • Data Center Konsolidierung und Cloud Migration. Diese Funktion erlaubt den Vorher- und Nachhervergleich sowie ein kontinuierliches Messen der Performance während einer Migration.
  • Security Analyse und Erkennen von Angriffen im Netzwerk. Hier geht es um das Aufzeigen von Sicherheitslücken und der Überprüfung der Compliance-Regeln im Netz. Außerdem werden mit dieser Komponente eines Monitoring-Systems Angriffe von Viren erkannt und sofortige Alarmierung ausgelöst.
  • IT Operations Analytics – Damit werden Performance Daten in verschiedenen Applikations-Ebenen und Datacenter-Silos korreliert. Darüber hinaus können Daten für weitere Analysesysteme zur Verfügung gestellt werden.

Standard Platforms – Entwicklungen schnell zu deployen funktioniert einfacher, wenn man es auf einer definierten Zahl verschiedener Hardware-Plattformen realisiert als in einer IT-Landschaft, die aus vielen unterschiedlichen und mitunter auch noch exotischen Plattformen mit spezifischen Anforderungen besteht.

Deployment Testing – Nachdem ein Update oder eine Komponente deployed worden ist, muss sichergestellt werden, dass sie auch im operativen Bereich sicher funktioniert, bevor sie in Produktion geht. Wurden die richtigen Versionen der richtigen Files überall dort installiert wo nötig? Wurden die notwendigen Datenbankanpassungen vollzogen? Auch hier gibt es Testmethoden, die agile Umgebungen besser unterstützen als traditionelle Methoden. Synthetic Monitoring ist zum Beispiel ein Weg, um Performance und Belastbarkeit einer neuen oder erneuerten Applikation oder eines Web-Services automatisiert zu prüfen und gegebenenfalls Schwachstellen zu beseitigen.

Automated Deployment – Damit es nur kleinstmögliche Verzögerungen gibt zwischen Entwicklung und Produktion müssen neue Komponenten automatisch deployed werden können. Das unterstützt das Konzept des Continuous Deployment.

Automated Deployment reduziert die Fehlerhäufigkeit eines manuellen Prozesses. Einmal richtig aufgesetzt und konfiguriert funktioniert der automatische Prozess immer wieder. Das bedeutet, jeder im Team kann Software deployen. Bei automatisiertem Deployment steckt das Wissen im Prozess und nicht mehr im Kopf einzelner Mitarbeiter. Ein manuelles Deployment durchzuführen und zu überprüfen ist zeitaufwendig. Zeit, die Entwicklern für ihre eigentliche Aufgabe genommen wird. Automatisiert funktioniert das Deployen in Sekunden. Menschen müssen sich erst dann darum kümmern, wenn tatsächlich Probleme auftauchen. Außerdem sind automatisierte Deployments nicht nur wiederholbar, sie können auch konfiguriert werden. Während der zugrunde liegende Prozess gleich bleibt, kann das Deployment leicht an spezifische Anforderungen angepasst werden. Die genannten Vorteile haben den Vorteil, dass Software deutlich öfter oder auch continuously deployed werden kann.

Operations Intelligence – Operations Intelligence ist ein Teil von IT-Intelligence. Hier werden BI und Analytics-Technologien auf die IT angewendet. Dabei geht es darum, in komplexen IT-Umgebungen aus großen Mengen an IT-Betriebsdaten Schlussfolgerungen zu ziehen und diese dann in Form von Dashboards oder Reports darzustellen. Die Einsatzbereiche von Operations Intelligence liegen dabei vor allem:

  • im zielgenauen Ermitteln auch bisher unbekannter Ursachen von Systemfehlverhalten,
  • dem Priorisieren von Problemen nach ihrem Schaden für Geschäftsprozesses,
  • Abschätzung des Aufwands für eine Fehlerbeseitigung,
  • Proaktive Kontrolle von Service-Performance und -Verfügbarkeit,
  • Vorausberechnung zukünftiger Systemzustände und ermitteln, wie sich diese auf die Service-Performance auswirkt,
  • Zuordnung der auftretenden Aufgaben zu den am besten geeigneten IT-Operation Teams,
  • Kapazitätsmanagement, es werden historische Trends analysiert und Zukunftsszenarien entwickelt, um den Kapazitätsbedarf vorauszusagen.

Natürlich kann der Teufel bei der Anwendung dieser Ops-Maßnahmen im Detail stecken, aber wer diese Strategien berücksichtigt, für den ist auch der Ops-Teil von DevOps kein Hexenwerk.

]]>
BizOps
news-81 Mon, 10 Oct 2022 13:21:00 +0000 Cloud Financial Intelligence – den Kosten auf der Spur https://www.amasol.de/blog/detail-page/cloud-financial-intelligence-den-kosten-auf-der-spur „Kulturwandel und digitale Transformation sind ganz große Themen bei Otto. Wir befinden uns in einem Wandel, der sich auf alle Bereiche auswirkt“ Otto nutzt neben seiner Private-Cloud-Infrastruktur seit einiger Zeit verstärkt auch die Public Cloud. Bettina Winterfeld, Managerin IT Services Professional bei der Otto Group, berichtet, wie das Unternehmen den IT-Mitarbeitern den Zugang zur Cloud vereinfacht. Dazu stellt der Bereich Cloud & Infrastructure Services, in dem Bettina Winterfeld arbeitet, im Wesentlichen drei Cloud Enabling Services bereit:

  •  Cloud Anbindung stellt eine sichere Kommunikation zwischen Otto und der jeweiligen Cloud bereit.
  •  Cloud Anmeldung versetzt berechtigte IT-Mitarbeiter in die Lage, sich mit ihren Otto-Accounts auch in der jeweiligen Cloud anzumelden.
  • Cloud Abrechnung (seit Neuestem „Cloud Financial Intelligence“)  macht es den ITlern möglich, nicht nur Cloud Services nach den von Otto vorgegeben Regeln abzurechnen, sondern diesen Abrechnungsprozess einfach, transparent und schnell zu bewerkstelligen.

Bettina Winterfeld geht vor allem auf die Gestaltung des Abrechnungsservices ein, der im Grunde genommen sehr viel mehr ist als eine einfache Abrechnung. ITler können mit dieser „kaufmännischen Schnittstelle“, den Einkauf eines Cloud –Service begründen, einer Kostenstelle zuordnen, abrechnen und die Kosten dafür transparent verfolgen. Das Tool hat eine Schnittstelle zum SAP-System. Damit stehen die Daten dem zentralen Einkauf zur Verfügung, der die Bestellung des Services letztlich vollziehen muss. Das Tool funktioniert bisher für die AWS Cloud und für Azure. Die Anbindung an die Private Cloud von Otto wird derzeit umgesetzt.

Winterfeld beschreibt sehr eindrücklich, wie stark sich der Bestell- und Abrechnungsvorgang vereinfacht hat und wie stark der Abrechnungsservice für mehr Flexibilität, Agilität und Transparenz sorgt. Das wiederum unterstütze die digitale Transformation bei Otto. „Kulturwandel und digitale Transformation sind ganz große Themen bei Otto. Wir befinden uns in einem Wandel, der sich auf alle Bereiche auswirkt“, fasst die Managerin IT Services Professional zusammen.

]]>
BizOps
news-80 Wed, 05 Oct 2022 13:14:00 +0000 Kundenzufriedenheitssteigerung durch Automatisierung https://www.amasol.de/blog/detail-page/kundenzufriedenheitssteigerung-durch-automatisierung „Kein Prozess kommt aus, ohne sich mit vielen anderen Systemen zu integrieren. Deshalb ist es, dass es sich gut mit anderen Systemen integrieren lässt“ Christian Löhnert ist als Solutions Engineer DACH in der Region verantwortlich für die von Resolve angebotene Automation- und Orchestration-Plattform. Seinem Unternehmen geht es darum, dass Kenneth Conzales, Research Director bei Gartner, nicht Recht behält: Der hatte nämlich postuliert, dass die Zufriedenheit der Businessseite mit dem IT-Support in den nächsten Jahren um 35 Prozent zurückgeht, weil die Serviceabteilungen nicht mehr in der Lage sind, die IT-Systeme ausreichend gut zu pflegen.

Laut Löhnert liegt das aber keineswegs an der Unfähigkeit der Support-Mitarbeiter – sondern an den immer komplexer werdenden Systemen und an der zugleich unzureichenden technischen Unterstützung des Supports. „Viel zu viel muss noch manuell gemacht werden. Mitarbeiter verlieren viel Zeit, wenn sie sich z.B. in drei verschiedene Systeme einloggen müssen, weil diese nicht miteinander reden können“, erklärt der Resolve-Vertreter. Intelligente Automatisierung, die dann eingesetzt wird, wenn es der Aufgabe und der Effizienz der Support-Prozesse dient, könne den IT-Support deutlich verbessern. Er nennt als Beispiel einen typischen Incident, der von der Kenntnisnahme, über Validierung, Diagnose, Behebung bis hin zur Ticketbearbeitung 61 Minuten dauert. Schon allein durch die Automatisierung von Kenntnisnahme und Validierung sinke die Mean Time to Repair um 34 Minuten. Bei vollständiger Automatisierung könne ein solcher Incident praktisch in Sekunden bewältigt werden.

Wichtig sei bei intelligenter Automatisierung vor allem die Einbindung von menschlichen Experten, weil eben nicht jeder Teilschritt automatisiert werden kann. Außerdem sei die Integrierbarkeit der Automationslösungen enorm bedeutsam. „Kein Prozess kommt aus, ohne sich mit vielen anderen Systemen zu integrieren.  Deshalb ist es für eine Automationsplattform elementar, dass sie sich gut mit anderen Systemen integrieren lässt“, erklärt Löhnert. Resolve gehe es darum, das Know-how der Experten im Second- und Third-Level-Support bereits im First Level verfügbar zu machen – damit schon dort die meisten Vorfälle gelöst werden können, ohne die Experten mit repetitiven Tätigkeiten zu belasten und die Kunden zu frustrieren, die ihr Problem immer wieder schildern müssen.

Für Löhnert geht die Reise vom Automatisieren einfacher Tätigkeiten wie Passwort-Reset über die größere Befähigung des First-Level-Supports bis hin zur vollständigen Automatisierung, die dem Enduser ermöglicht, seine Incidents im Self-Service zu lösen.

Kein Prozess kommt ohne die Integration mit vielen anderen Systemen aus.

]]>
BizOps
news-79 Tue, 04 Oct 2022 13:14:00 +0000 Voll digitalisierte End-to-End-Geschäftsprozesse https://www.amasol.de/blog/detail-page/voll-digitalisierte-end-to-end-geschaeftsprozesse "Dank agiler Entwicklung auf Basis von Scrum-Methoden können Kunden im Zwei-Wochen-Rhythmus neue Funktionen bereitgestellt werden." Die CKW AG mit Sitz in Luzern ist in der Schweiz im Bereich Energiewirtschaft tätig. Über die Cloud-Plattform ServiceNow wickelt das Unternehmen heute seine Business-Prozesse ab: von der Planung/Änderung der bestehenden Netzinfrastruktur bis hin zu Netzanschlüssen und dem Einbau von Zählern.

Nastaja Nicke, Projektleiterin und Product Owner bei CKW, fasst im Video die Benefits für den Use Case „Miete eines Übergabekastens“ zusammen, die  das Unternehmen mit ServiceNow realisiert hat. „Waren vormals 28 Prozessschritte bis zur Auslieferung nötig, sind es heute dank Automatisierung nur noch neun. Der manuelle Aufwand wurde durch das Prozess-Redesign und eine mobile App mit Google-Maps-Integration für Außendienstler um 95 Prozent reduziert.“

Erreicht wurde dies unter anderem durch die Integration von Logiken, die Fehleingaben ausschließen, durch die Visualisierung technischer und kaufmännischer Daten und durch ein automatisiertes Output-Dokumentenmanagement. „Die Zeit, die nötig ist,  um einen Brief zu schreiben, zu drucken und zu versenden, ist praktisch auf null Minuten gesunken. Früher waren dazu zwischen zehn und 20 Minuten nötig.“

Mehr Tempo heißt das Motto auch für Entwickler. Dank agiler Entwicklung auf Basis von Scrum-Methoden können Kunden im Zwei-Wochen-Rhythmus neue Funktionen bereitgestellt werden.

Grundvoraussetzung: Die Datenqualität muss stimmen. „In ServiceNow werden Daten aus verschiedenen Systemen zusammengefasst und einem Health-Check unterzogen. Unstimmigkeiten und Dubletten werden dabei eliminiert. Wir haben nun eine Datenqualität von 99 Prozent. Denn Automatisierung scheitert, wenn die Stammdaten nicht stimmen.“

]]>
BizOps
news-78 Fri, 30 Sep 2022 13:13:00 +0000 Wie kann uns AIOps helfen, als internationaler Serviceprovider die steigende Komplexität zu beherrschen? https://www.amasol.de/blog/detail-page/wie-kann-uns-aiops-helfen-als-internationaler-serviceprovider-die-steigende-komplexitaet-zu-beherrschen „Ich kann nur empfehlen, sich solche Systeme anzuschauen. Sie entlasten die Mitarbeiter und machen den Support deutlich effektiver.“ Der CIO und Datacenter-Chef des IT-Dienstleisters itelligence AG berichtet von einem Pilotversuch mit Artificial Intelligence for IT Operations (AIOPS). AIOPS wird eingesetzt, um das Service- und Performance-Management effektiver zu gestalten und mithilfe von AI und Machine Learning Incidents entweder früher zu erkennen oder sie sogar ganz zu vermeiden. Itelligence hat sich beim Piloten für die Installation von Moogsoft entschieden, das gemeinsam mit amasol in der Entwicklungsumgebung von Itelligence implementiert worden ist.

Nach einer einmonatigen Versuchsphase zeichnete sich ab, dass Moogsoft die Incident-Inbox um mehr als 50 Prozent entlastet. „Normalerweise liegt der Wert deutlich höher. Aber wir hatten schon vor dem Pilotversuch Regeln eingeführt, mit denen unsere Support-Teams tatsächliche Incidents und unsinnige Meldungen voneinander trennen können. Deshalb lag die Rate bei uns niedriger“, erklärt Muthig. Bei weiter zunehmendem Geschäft ist diese Kombination aus System- und menschlicher Bewertung allerdings keine Option mehr. „Das skaliert einfach nicht mehr ausreichend.“ Deshalb bewertete laut Muthig der eingebundene First- Level-Support den Pilotversuch auch als sehr positiv.

Muthig fasst die Vorteile folgendermaßen zusammen:

  •  Deutliche Reduktion des Noise, also deutlich weniger Events, um die sich der Support kümmern muss.
  •  Die Meantime to detect und die Meantime to restore reduzieren sich drastisch.
  • Komplexität wird reduziert.
  • Durch mehr Effizient im Service- und Performancemanagement lassen sich Innovationen früher in die bestehende IT-Landschaft einsteuern.

Insgesamt bewertet Muthig AIOPS und das Moogsoft-Tool als sehr hilfreich. „Ich kann nur empfehlen, sich solche Systeme anzuschauen. Sie entlasten die Mitarbeiter und machen den Support deutlich effektiver.“ Während ein Mitarbeiter im Support in einer komplexen IT-Landschaft rund sechs Monate lernen müsse, bis er sicher verschiedene Incidents erkennt und in ihrer Bedeutung einschätzen kann, lernten AIOPS-Systeme selbstständig und könnten Mitarbeiter sehr rasch unterstützen.

]]>
BizOps
news-77 Thu, 29 Sep 2022 13:12:00 +0000 A guide to business-demand driven IT budgets https://www.amasol.de/blog/detail-page/a-guide-to-business-demand-driven-it-budgets "Es gelte also, mit einem gemeinsamen Kennzahlenmodell eine Brücke zwischen IT und Business zu bauen, um so ein gemeinsames Verständnis zu erzeugen." Guillermo Cuadrado verantwortet bei Amadeus das Kosten- und Budgetmodell für die IT und die Erstellung von aktuellen Reports, Vorhersagen und Budgets. Amadeus ist einer der größten globalen IT-Service-Betreiber in der Luftfahrt- und Reisebranche. Über seine Kunden bedient Amadeus 1,8 Milliarden Reisende pro Jahr und rechnet 640 Millionen Ticketbuchungen jährlich ab.

Cuadrado spricht über Geschäftskennzahlen und ihre Bedeutung für die Entwicklung von IT-Budget/Kosten. Den Wert der IT sieht er in ihrer Fähigkeit Businessziele wie Umsatz- und Gewinnwachstum, zu unterstützen. In einem Umfeld, in dem die Businessseite der IT vorwirft, zu langsam und zu teuer zu sein und die Finanzabteilung das IT-Budget reduziert sehen möchte, fragt sich die IT allerdings, wie sie angesichts der Forderung „Do more with less“ die Businessziele effektiv unterstützen kann. Diese gegensätzlichen Sichtweisen sind auch in den unterschiedlichen Kennzahlen begründet, die IT und Business nutzen. Es gelte also, mit einem gemeinsamen Kennzahlenmodell eine Brücke zwischen IT und Business zu bauen, um so ein gemeinsames Verständnis zu erzeugen.

Die Amadeus IT hat deshalb ihr Budget in fixe und variable Kosten aufgeteilt, sodass sie Aussagen über die Kosten pro Transaktion treffen kann. Da wirtschaftliches Wachstum zwingend mit einem entsprechenden Anstieg von Transaktionen einhergeht, kann die IT für die Businessseite sehr leicht nachvollziehbar machen, dass sie Unterstützung braucht, um die zusätzliche Zahl an Transaktionen zu bewältigen. Auf diese Weise lässt sich laut Cuadrado ein „IT-Budget entwickeln, das von den Business-Anforderungen getrieben wird“. Cuadrado nennt diesen Weg den „Hitchhikers guide to a manageable IT budget“. Er zeigt drei wichtige Punkte auf, um ein businessgetriebenes Budget zu realisieren:

  • Eine Teilung der IT-Kosten in feste und variable Kosten erlaubt eine handhabbare Kostenvorhersage.
  • Die Verhandlungen mit Vertretern der Bsuinessseite müssen auf Metriken basieren, die diese versteht.
  • Wenn hohes Businesswachstum geplant ist, muss über zusätzliches Geld für die IT verhandelt werden.

Für Cuadrado bilden die gemeinsamen Metriken von Business und IT den Kern von BizOps.

]]>
BizOps
news-76 Tue, 20 Sep 2022 13:10:00 +0000 Faktor 10: mit BizOps zu höherer Performanz im (digitalen) Geschäft https://www.amasol.de/blog/detail-page/faktor-10-mit-bizops-zu-hoeherer-performanz-im-digitalen-geschaeft „Moonshots beginnen mit der richtigen Frage. Und die Frage ist, wie sich digitale Zuverlässigkeit in Zeiten wachsender Komplexität realisieren lässt." Der „Moonshot“ heutiger Unternehmen ist der Traum von digitalen Anwendungen, die sicher laufen. Dem steht jedoch die Komplexität im Weg, die weiter zunimmt. Die Herausforderung: Trotz dieser Widerstände die digitale Zuverlässigkeit erhöhen.

Für Prof. Dr. Frank Schönefeld, Prokurist und Mitglied der Geschäftsleitung der T-Systems Multimedia Solutions GmbH, steht fest: „Moonshots beginnen nicht mit klugen Antworten, sie beginnen mit der richtigen Frage.“ Und die Frage, wie sich digitale Zuverlässigkeit in Zeiten wachsender Komplexität realisieren lässt, beantwortet er mit „DevOps“. Das DevOps-Framework bildet die Grundlage, die alle Aspekte in der Entwicklungskette – von Sicherheit über Schnelligkeit, hohe Verfügbarkeit und Qualität bis hin zu Nutzerfreundlichkeit – integriert und um den Faktor X  steigern kann. Erreicht wird damit auch ein hoher Automationsgrad.

Die Erfolgsformel auf dem Weg von DevOps zu BizOps heißt für Schönefeld: „Value Stream Analysis“ + „Objective Key Results“ (OKR). Das Ergebnis: Senkung der IT-Kosten, Zunahme der Betriebs- und Prozesseffizienz, Steigerung des Geschäftswachstums und Erhöhung der Kundenzufriedenheit.

]]>
BizOps
news-75 Mon, 19 Sep 2022 13:09:00 +0000 BizOps – die enge Verzahnung von Business und IT https://www.amasol.de/blog/detail-page/bizops-die-enge-verzahnung-von-business-und-it „Unsere Kinder wachsen ganz selbstverständlich in einer digitalisierten Welt auf, die von digitalen Produkten, Services und von KI dominiert wird. Dieses Rad lässt sich nicht zurückdrehen.“ Frank Jahn, Mitglied des Advisory Boards BizOps Forum und Vorstand Vertrieb der amasol AG, begrüßt die rund 120 Teilnehmer des 1. Münchener BizOps Forums. Für ihn ist BizOps – also die enge Verzahnung von IT und Business – der nächste logische Schritt, den Unternehmen gehen müssen, um digitale Geschäftsmodelle zu entwickeln und operativ zu beherrschen. Jahn lässt keinen Zweifel daran, dass diese in Zukunft die Businesswelt bestimmen werden: „Unsere Kinder wachsen ganz selbstverständlich in einer digitalisierten Welt auf, die von digitalen Produkten, Services und von KI dominiert wird. Dieses Rad lässt sich nicht zurückdrehen.“

Wie machtvoll das Zusammenspiel von IT und Business sein kann, erläutert  Jahn anhand eines Netzdiagramms, in dem Key Performance Indicators aus dem Business- und aus dem IT-Operations-Bereich kombiniert werden. Wer sehen wolle, sagt er, wie sich zum Beispiel die Modernisierung eines Application Performance Management Systems auf das Business auswirkt, brauche nur einige Parameter aus beiden Bereichen zu erheben. An den Ergebnissen lasse sich sehr einfach nachweisen, dass eine Verbesserung der IT-Parameter auch eine positive Veränderung der Business-KPI bewirke.

Frank Jahn ruft die Teilnehmer dazu auf, das BizOps Forum zu nutzen, um gemeinsam mit den zahlreichen Referenten und Workshop-Leitern Lösungsansätze zu erarbeiten, mit denen sich Business und IT enger verzahnen lassen. Er verdeutlicht auch, dass das BizOps Forum kein einmaliger Event bleiben soll: „Dieses BizOps Forum ist unser Beitrag zur Digitalisierung. Wir möchten diesen Community-Event als Fixpunkt in Ihren Kalendern etablieren.“

]]>
BizOps
news-121 Tue, 13 Sep 2022 13:08:00 +0000 Biking 4 Butterfly Children 2022 - Saalbach-Hinterglemm https://www.amasol.de/blog/detail-page/biking-4-butterfly-children-2022-saalbach-hinterglemm Auch dieses Jahr haben wir an dem Mountainbike Event "Biking 4 Butterfly Children" in Saaalbach-Hinterglemm abgestrampelt. Mit viel Schweiß und einigen Flüchen haben wir auch dieses Jahr an dem Mountainbike Event "Biking 4 Butterfly Children" in Saaalbach-Hinterglemm uns für den guten Zweck abgestrampelt.

Unter der amasol-Flagge sind Fabian Fink, André Heller, Udo Götz, Andreas Zieschang, Anton Slapnik, Jan Wächtler und Martin Neidhart gemeinsam mit Kunden fast 400 km geradelt.

Es war ein tolles Event und Fabian meinte, dass es mal wieder sehr lustig war mit Kollegen ein solches Event zu veranstalten.

Noch dazu da am Ende - egal wie viele Kilometer man unterm Jahr fährt - zum Mountainbike-Profi wurde!

Hier noch den einen oder anderen Eindruck der Veranstaltung!

Wir freuen uns auf die Veranstaltung im nächsten Jahr!

]]>
BizOps