Im Blindflug durch die Wolke

Im Blindflug durch die Wolke

Über Entwicklungsumgebungen, Preisstaffelung und Speicher hinaus denken nur wenige IT-Teams darüber nach, wie die Nutzer das Cloud-Angebot wahrnehmen werden. Meistens wählen Unternehmen einen großen Anbieter, ohne zu hinterfragen, wie ihre Inhalte – sei es eine Anwendung, eine Website oder eine andere Dienstleistung – konkret ausgeliefert werden.

Wie können Unternehmen sicher sein, dass Cloud-Anbieter auch die nötige Leistung liefern, um eine erstklassige Nutzererfahrung zu gewährleisten? Manche Anbieter verfügen über ein grundlegendes Content Delivery Network (CDN), ein dezentrales System aus Servern, die in mehreren Rechenzentren verteilt liegen und Inhalte damit schneller zu den jeweiligen Nutzern bringen sollen. Doch dies ist nur ein Tropfen auf den heißen Stein und bietet weder eine Übersicht des vollständigen Auslieferungswegs bis zum Kunden noch eine Garantie, dass nicht an anderer Stelle im Netz ein Engpass die Auslieferung verzögert.

Zeit ist Geld

Geschäfte laufen heute über das Web. Eine schlechte Performance der Website eines Unternehmens – lange Ladezeit, häufige Ausfälle, langsamer Bildaufbau oder verzogene Audiospuren – kann den Markenwert und die Verkaufszahlen eines Unternehmens empfindlich beeinträchtigen. Zwischen der Performance der Website und des Unternehmens besteht eine direkte Korrelation, wie einige der weltgrößten Marken bereits erfahren mussten. So konnte der US-Handelsriese Walmart pro Sekunde verbesserter Ladezeit einen Umsatzanstieg von 2 Prozent verbuchen; Amazon verliert pro Millisekunde Verzögerung 6,79 Millionen US-Dollar; Yahoos Umsatz sackt pro Sekunde Verzögerung um 2,8 Prozent ab.

Die Performance von Websites wird von einer Reihe an Faktoren beeinflusst, darunter das Design von Anwendungen, die Standortwahl von Servern und Inhalten, sowie die Latenz im Internet. Doch bei der Frage, wie sich Internet-Performance messen und überwachen lässt, nach welchen Kriterien man Netzwerk- und Cloud-Anbieter wählen, Inhalte hosten und Rechenzentren gründen sollte, tappen viele IT-Planungsteams nach wie vor im Dunkeln.

Die Internet-Performance kann je nach Anbieter und Lage stark variieren. Die heute verwendeten Lösungen zum Management von Anwendungs- und Netzwerk-Performance (APM respektive NPM) wurden für den Einsatz innerhalb eines Unternehmensnetzwerkes entwickelt. APM- und NPM-Lösungen erkennen, wenn Performance-Probleme mit der Internetverbindung zusammenhängen; doch wo im Internet die Engstelle liegt, können sie nicht messen. Eine informierte Problemlösung wird so unmöglich. Und je mehr Anwendungen und Dienste in die Cloud wandern, desto komplexer wird dieses Problem.

Deutsche Unternehmen sind längst in der Cloud

Die Cloud ist da. Auch in deutschen Unternehmen setzt sich die Akzeptanz für Cloud-Dienste durch: 44 Prozent aller Unternehmen nutzten im vorigen Jahr bereits Cloud Computing, wie die Wirtschaftsprüfer von KPMG in Zusammenarbeit mit BITKOM herausfand. Vor allem in großen Unternehmen ab 500 Mitarbeitern gehört die Cloud mit einer Nutzungsrate von 70 Prozent zum Standard. Im Mittelstand mit 100 bis 499 Beschäftigten ist es jedes zweite Unternehmen (52 Prozent), bei kleineren Betrieben (20 bis 99 Mitarbeiter) findet sich immerhin bei 41 Prozent bereits Cloud Computing.

Der Marsch in die Cloud geschieht also unabhängig von der Größe der Unternehmen. Doch gerade kleine Betriebe verwetten sozusagen den eigenen Hof, wenn sie alles in die Cloud schieben. Anstatt eigene Rechenzentren zu entwickeln, investieren kleine Unternehmen lieber in Mitarbeiter und lagern die Technik aus. Sei es aus kalkulierten Gründen oder aus Dringlichkeit – die gekaufte Leistung muss stimmen, die Performance muss kommen, sonst sind kleine Unternehmen schnell gefährdet. Ihr Geschäftserfolg hängt an der Performance der Cloud-Anbieter.

Bei größeren Unternehmen bilden sich meist hybride Lösungen aus. Dies führt zu einer Verteilung der Daten – ein Teil wird in eigenen Rechenzentren gehalten, ein Teil wandert in die Cloud. Doch welche Daten sollten wo gelagert werden? Welche Anwendungen profitieren von einer Cloud und wann ist der beste Zeitpunkt, um umzuschichten? Eine Internet-Performance-Analyse kann hier wertvolle Einblicke geben.

Blindflug durch die Wolke

Mit dem Umzug in die Cloud geben Unternehmen Kontrolle ab. Das ist bereits bekannt, doch wird der Grund dafür gerne vergessen: die Sichtbarkeit geht verloren. Natürlich können Unternehmen in die Verträge blicken und dort die generellen Angaben zu Uptime und Problembehandlung nachlesen. Bei genauem Hinsehen ergibt sich schnell, dass auch Cloud-Anbieter nur jene Probleme zu lösen versprechen, die im Rahmen ihrer Kontrolle liegen. Ein Versprechen könnte etwa sein, sechs redundante Server als Failover-Sicherheit anzubieten. Doch meist berufen sich Anbieter bei Performance-Problemen darauf, dass diese nicht durch den Vertrag abgedeckt seien – auch wenn sie selbst Drittanbieter unter Vertrag nehmen, die sie nicht kontrollieren und damit deren Leistung nicht garantieren können.

Die wenigsten Unternehmen setzen auf mehr als einen Cloud-Partner in der Provisionierung. Dabei ist das Denken in Alternativen ein strategischer Schlüssel zum Erfolg. Der erste Schritt besteht darin, zu verstehen, wie verschiedene Cloud-Anbieter in verschiedenen Märkten Leistung erbringen und welche Wege sie wählen, um dorthin zu gelangen. Haben IT-Entscheider sich davon ein gutes Bild gemacht, so können sie leicht verschiedene Anbieter wählen, die auf unterschiedlichen Routen unterwegs sind und so selbst beim Ausfall einer gesamten Route noch immer schnell auf den Zielmarkt gelangen. Doch wie können Unternehmen eine solche Einsicht nehmen?

Der geographische Standort eines Cloud-Unternehmens ist nicht entscheidend. Wichtig ist vielmehr, wie der Anbieter die Zielmärkte, die das Unternehmen erreichen will, von seinem Standort beliefern kann. Ein Beispiel: Ein AWS-Kunde baut sein Unternehmen zunächst in Singapur auf, möchte jetzt aber eine zweite Konsumentengruppe in Südkorea erreichen. Das sind immerhin sechs Flugstunden; er ist besorgt, dass die Entfernung zu Performance-Einschränkungen führen könnte und wählt einen zweiten Standort in Tokyo – mit lediglich zwei Flugstunden deutlich näher am Zielmarkt.

Doch gibt der nähere Standort tatsächlich eine Performance-Steigerung? Nein, denn interessanterweise liefert die Verbindung von Singapur die bessere Leistung. Diese Information läuft der Intuition zwar zuwider, spart dem Unternehmen jedoch Kosten im fünfstelligen Bereich, abgesehen von den Sprachproblemen, die ein zweiter Standort verursacht hätte. Nähe ist nicht gleich Performance. Die Netzwerkverbindung ist der Schlüssel.

Neue cloudbasierte Internet-Performance-Dienste bieten Einblicke in genau diese Netzwerkverbindungen. In drei Schritten lassen sich daraus bessere Entscheidungen ableiten: Die Beobachtung des Internet-Grids ermöglicht Analysen der Verbindungsgeschwindigkeiten in verschiedenen Geographien. Die Analyse der Daten ermöglicht die Verortung von Verbindungsproblemen und einen Vergleich verschiedener Angebote. So lassen sich zuletzt der beste Cloud-Anbieter und der beste Standort eines Rechenzentrums ermitteln und planen, um für jeden Zielmarkt die beste Leistung zu sichern.

Klarheit schaffen, Alternativen sichern

Durch die Kombination von Lösungen zur Anwendungs-, Netzwerk- und Internet-Analyse können Unternehmen einen breiten Einblick gewinnen, wie ihre Dienste im Moment laufen, wo die Engstellen liegen und wie der Nutzer den Dienst erfährt. Gerade wenn mehr Dienste und Anwendungen in die Cloud wandern, ist es notwendig, sich Klarheit über die Datenwege zu verschaffen, die die eigenen Angebote außerhalb des Unternehmensnetzes nehmen.

Mit den gewonnenen Einblicken lassen sich die Angebote von Cloud-Anbietern leichter bewerten und SLAs später überprüfen. Welche Leistung bringt welcher Anbieter in welchem Markt? Diese Fragen sind unabhängig vom geographischen Standort, doch sehr wohl abhängig von der Internet-Performance der gewählten Route. Daher kann es zudem eine kluge Strategie sein, auf mehrere Anbieter zu setzen, um unabhängig von Angriffen wie Route Hijacking zu werden.

Quelle: www.cloudcomputing-insider.de