• Fehlende Transparenz wiederherstellen


Fehlende Transparenz wiederherstellen: Digital Experience von Cloud-Anwendungen

Immer mehr Unternehmen nutzen SaaS- und Cloud-Dienste. Gleichzeitig hat die Corona-Krise bewirkt, dass viele Beschäftigte von zu Hause arbeiten. Der Effekt ist der gleiche: Das Internet ist Teil der Netzwerkinfrastruktur. Dies hat zur Folge, dass Administrationsteams die Verfügbarkeit und Performance von Anwendungen nicht mehr ohne Weiteres nachverfolgen können. Der sogenannte Digital-Experience-Monitoring-Ansatz kann dabei helfen, die nötige Transparenz wiederherzustellen.

Der Trend geht nach wie vor zur Cloud – gerade in Zeiten, in denen das Home-Office zunehmend an Bedeutung gewinnt. Vermehrt ausgelagert werden zum Beispiel Applikationen wie SAP und klassische Office-Anwendungen. Hinzu kommen traditionelle Cloud-Applikationen wie Salesforce und Teams. Fakt ist: Die Nutzung von Inhalten im Browser wird immer mehr zum Standard. Grundsätzlich ist das eine nachvollziehbare Entwicklung, die Administratoren jedoch vor zahlreiche Herausforderungen stellt: Mit Nutzung der Cloud geht SD-WAN einher. Daraus resultiert ein vielfältiges und dynamisches Routing zwischen User und Cloud, das die Komplexität erhöht – und nicht zuletzt geht außerhalb des eigenen Netzwerkes auch die Kontrolle verloren. Wenn ein Anwender nun Schwierigkeiten mit einer Anwendung hat, lässt sich das mit den traditionellen Monitoringsystemen nur sehr eingeschränkt prüfen und eine Problembehebung ist kaum möglich. Die Auslagerung von IT-Services bietet viele Vorzüge – die User-Experience bleibt dennoch in der Verantwortung des Unternehmens. Somit besteht Handlungsbedarf, schließlich hat eine schlechte Performance Auswirkungen auf die Produktivität.

Neue Herausforderungen im Zeitalter von Cloud und Remote-Arbeit
Vor diesem Hintergrund ergeben sich ganz neue Herausforderungen: Einerseits müssen sich Verfügbarkeit und Antwortzeiten der Cloud-Dienste messen lassen, wo auch immer die Anwendung gehostet wird. Zusätzlich ist der User mobil. Herkömmliche Network Performance Monitoring Lösungen, die Qualitätsparameter mittels Datenpakete erheben, sind für die Hybridisierung von öffentlichen und privaten Netzen eher nicht geeignet. Zusätzlich erschweren Ende-zu-Ende Verschlüsselungstechniken die Analysemöglichkeiten. Weitere Herausforderungen liegen in dynamischen Änderungen im BGP/AS/SD-WAN Routing und in Sicherheits-Services wie zum Beispiel Secure Web Gateway, Firewall-as-a-Service oder Cloud Access Security Broker. Helfen kann hier nur ein neuer Ansatz, der unter dem Begriff Digital Experience Monitoring bekannt ist.

Zwei Herangehensweisen zur Ermittlung der Performance aus Anwendersicht
In Webanwendungen, auf die man selbst Zugriff hat, lässt sich ein Code-Snippet integrieren. Es liest Performancewerte direkt aus dem verwendeten Browser eines Anwenders aus, misst also aus Client-Sicht wie sich die Leistung beziehungsweise Qualität einer Applikation verhält. Beim Nutzer selbst muss dafür nichts installiert werden.

Doch was ist mit Applikationen, über die die Kontrolle gänzlich fehlt? Hier kommt eine Browser-Extension ins Spiel, die ohne Code-Snippet eine Messung initiieren kann. Vorab wird einmalig konfiguriert, welche Applikations-URLs über die Extension gemessen werden sollen.
Unabhängig davon, ob die Messung über ein Code-Snippet oder eine Browser-Extension gestartet wird, werden alle nötigen Informationen aus dem Browser geholt, statistisch zusammengefasst und kontinuierlich an einen zentralisierten Reporting-Server geschickt.

Fehlende Transparenz wiederherstellen: Digital Experience von Cloud-Anwendungen
Die Ladezeit einer Web-Applikation setzt sich aus unterschiedlichen Metriken zusammen. Diese Zeiten lassen sich nach Client, Network und Server aufschlüsseln.


Alle benötigten Informationen im Überblick
Egal auf welche der beiden Möglichkeiten die Wahl fällt – in jedem Fall liefert die Lösung eine Vielzahl von Informationen: Gemessen werden unter anderem lokale Verarbeitungszeit des Browsers, die DNS-Auflösung, die TCP-TLS-Sessionaufbauzeit und die Zeit, die benötigt wird, um die Daten vom Server über das Netzwerk zu übertragen. Hilfreich für eine Analyse ist hier eine Möglichkeit zum Filtern – nach Kriterien wie zum Beispiel Location, Provider oder das verwendete Betriebssystem. So lässt sich zum Beispiel die Erkenntnis gewinnen, dass eine Web-Applikation ausschließlich für Android-Systeme zu langsam lädt und diese Information an die Entwickler zurückspielen. Wer möchte, kann sogar jeden einzelnen Aufruf bis ins kleinste Detail analysieren. Wichtig zu wissen: Dabei ist niemals der echte Anwender sichtbar, es erfolgt also kein Zugriff auf personenbezogene Daten.

Auch und gerade für Administratoren, die eine eigene webbasierende Anwendung verwalten, liefert dieser Ansatz wichtige Informationen: Zwar hat man serverseitig Zugriff auf die reguläre Statistik und kennt zum Beispiel die Anzahl der Aufrufe etc., aber der Server gibt keine Auskunft über die Geschwindigkeit, die beim Anwender angekommen ist. Haben Anwender nun Probleme mit der Performance einer Web-Applikation, kann der Administrator zielgerichtet aktiv werden – schließlich liegen ihm alle Daten vor, die für ein Troubleshooting nötig sind. Vielleicht stellt er fest, dass das Java Script stellenweise fehlerhaft ist, was zu einer Performance-Beeinträchtigung führt – ein Problem, das relativ einfach behoben werden kann. Interessant dabei: Die Lösung misst die Rendering-Zeit am Browser inklusive Content-Loading. Beurteilt wird also nicht nur die Zeit, die für das Aufrufen einer Web-Applikation benötigt wird, sondern auch für das Laden aller Inhalte.

Die Wegeführung aktiv im Auge behalten
Durch das Outsourcing der IT-Services in die Cloud ist es auch notwendig, die Wegeführung vom Anwender zum Cloud-Anbieter stärker ins Monitoring aufzunehmen. Eine Möglichkeit, die Qualität und Zuverlässigkeit des Kommunikationsweges zu überwachen, ist eine zyklische aktive Messung. So lassen sich Basisdienste wie zum Beispiel DNS und die Netzwerkpfade auf Layer 3 zwischen Anwender und Cloud-Anbieter aus den relevanten Regionen überwachen. Somit können Änderungen im Peering/Transitverhalten und geographischen Ressourcen des Cloud-Anbieters proaktiv aufgezeigt werden. Weltweit verbreitete Stationen prüfen aktiv den Weg zu vorab definierten Anwendungen. Mit „Trace Route“ ist es auch möglich, den Netzwerkpfad zu visualisieren und die Strecke auf Basis von Laufzeit und Paketverlust zu beurteilen.


Fehlende Transparenz wiederherstellen: Digital Experience von Cloud-Anwendungen
Für eine schnelle Übersicht können die überwachten Anwendungen und deren Performancewerte angezeigt werden.


Qualität und Zuverlässigkeit der digitalen Transformation absichern
Zusammenfassend lässt sich sagen, dass für die Verlagerung der Services in die Cloud ein neuer Messansatz gewählt werden muss. Wenn Unternehmen dabei auf die Überwachung der kompletten Ende-zu-Ende-Kommunikation achten und die Servicequalität von internen und fremdbetriebenen Infrastrukturen aus User-Sicht global erfassen, erhalten sie die Transparenz, die klassische Werkzeuge nicht liefern können. Komfortabel sind „Out of the box“-Lösungen, weil sie den Konfigurationsaufwand signifikant reduzieren. Eine spezialisierte Performance-Monitoring-Lösung wie zum Beispiel Kadiska Digital Experience Monitoring erfüllt diese Anforderung. Damit erhalten die Administratoren eine einfache und sehr komfortable Möglichkeit, cloudbasierte Anwendungen zu überwachen und zu analysieren.