Artikel

Die digitale Welt während und nach Covid-19: Warum geringe Latenzzeiten in Zeiten der beschleunigten Digitalisierung essentiell sind 

Von Dr. Thomas King, CTO DE-CIX
Juni 2020

Die Welt hat in den vergangenen Monaten große Veränderungen erlebt. Der Ausbruch und die rasante Verbreitung von Covid-19 hat die Menschen spüren lassen, dass solche unvorhersehbaren Ereignisse unseren Alltag beeinflussen – ob privat oder beruflich. Aufgrund dieser Situation muss und wird der digitale Wandel stark vorangetrieben; unter normalen Umständen wäre das nicht so schnell erfolgt. Bei allen Herausforderungen und Einschränkungen ist es beruhigend, dass das Internet in seiner Struktur zuverlässig funktioniert und sowohl das private als auch das berufliche Leben in großen Teilen – wenn auch auf Distanz – unterstützt. Einerseits können die Menschen privat mit Freunden und Familie über Video-Calls und andere digitale Kommunikationsmittel in Verbindung bleiben. Gaming und das Streamen von Video-Content helfen, sich zu unterhalten. Andererseits spielt das Internet in der Arbeitswelt und Geschäftsprozessen eine essentielle Rolle, wie das Wasser aus der Leitung oder der Strom aus der Steckdose: Millionen Arbeitnehmer*innen und –geber*innen nutzten mittlerweile die Möglichkeit des Home-Office, unterstützt durch digitale Colaboration Tools. Auch hier sind beispielsweise Video-Calls über Skype, Zoom oder Teams unverzichtbar. Stabile VPN-Verbindungen garantieren den Zugriff auf die digitalen Arbeitsmaterialien, die auf den File-Servern im Firmennetz abgelegt sind. Internetknoten, wie der DE-CIX (Deutscher Commercial Internet Exchange) in Frankfurt, nehmen dabei die neutrale Rolle eines „Datenvermittlers“ ein; angeschlossene Netzwerke werden sicher und zuverlässig über eine Direktverbindung zusammengeschlossen – dieser Vorgang nennt sich Zusammenschaltung oder auch Interconnection.

In einer Umfrage[1] von DE-CIX in Frankfurt, dem weltgrößten Internetknoten, die unter den eigenen Kunden durchgeführt wurde, geben 81 Prozent der Teilnehmer an, dass Latenz das wichtigste Kriterium beim Abschluss neuer Interconnection-Verträge ist. Was sind die Treiber hinter dieser starken Nachfrage nach Latenz? Wir haben dabei drei Technologiebereiche exemplarisch dargestellt, für die niedrige Latenzen besonders wichtig sind:

1. Klassisch: Web Applikationen

Alle Inhalte, die im Webbrowser oder per App aufgerufen werden, sollen möglichst direkt und ohne Verzögerung erscheinen – das ist der gängige Anspruch heutzutage. Kommt es zu einer deutlichen Verzögerung zwischen Benutzerinteraktion und Darstellung der Inhalte, also ist die Latenz spürbar vorhanden, so äußert sich das in Unverständnis und die User Experience wird als schlecht wahrgenommen. Eine Studie von Akamai[2] zeigte bereits lange vor COVID-19, dass schon eine 2-sekündige Verzögerung in der Ladezeit einer Website ausreicht, um die Bounce-Rate (Absprungrate von Besuchern auf einer Website) um über 100 Prozent zu erhöhen, Tendenz steigend. Außerdem würde eine Verzögerung von 100 Millisekunden (0,1 Sekunden) bei der Ladezeit von Websites die Conversion-Rate (das Erreichen von vordefinierten Zielen auf einer Website, z.B. das Anklicken eines Videos nach dem Lesen des Teaser-Textes) um 7 Prozent beeinträchtigen. Das zeigt, dass die Latenz aus Sicht der User Experience eine entscheidende Rolle spielt. 

2. Cloud Gaming

Eine spezifische Anwendung von Web-Applikationen ist Cloud Gaming, die in diesem Kontext gesondert aufgeführt werden muss. Im letzten Herbst ging Google Stadia an den Start und läutete damit Cloud Gaming in größerem Umfang ein. Bisher herrschen bei Computerspielen immer noch Festplatteninstallationen vor. Vor dem Hintergrund des allgemeinen Trends zu Clouds und „As a Service“-Anwendungen kann man aber davon ausgehen, dass auch die Gaming-Sparte vor ähnlichen Umbrüchen steht. Bisher halten sich die Datenmengen, die beim Gaming übertragen werden, in Grenzen. Rechenoperationen, die nötig sind um die virtuellen Welten zu erschaffen, finden auf dem lokalen System statt. Bei Cloud Gaming wird das Computer-Spiel nun auf einem Server in einem Rechenzentrum ausgeführt und die Bildschirminhalte werden über das Internet auf den Monitor (z.B. Tablet oder auch Laptop) des Benutzers gestreamt. Dadurch steigen die Anforderungen an die Internetverbindung des Benutzers enorm. Neben der zusätzlichen Bandbreite erhöhen sich auch die Anforderungen an die Latenzen drastisch, um einen ruckelfreien Spielspaß zu garantieren.
 

3. Virtual Reality

Eine der kritischsten Anwendungen, wenn es um Latenzzeiten geht, ist Virtual Reality. Zwischen Aktionen des Nutzers und den Reaktionen der virtuellen Umgebung muss möglichst wenig Zeit liegen, um ein flüssiges Erlebnis zu bieten. Ansonsten wird die virtuelle Realität schnell als störend wahrgenommen. Die Latenzanforderungen in diesem Bereich liegen bei etwa 20 Millisekunden, ein Blinzeln dauert dagegen 150 Millisekunden. Dazu ein kleines Beispiel: Die Lichtgeschwindigkeit und maximale Geschwindigkeit, mit der Datenpakete über Glasfaserleitungen geleitet werden können, liegt bei etwa 300.000.000 Metern pro Sekunde. Multipliziert man diesen Wert mit den 20 Millisekunden oder 0,02 Sekunden, ergibt sich eine maximale Entfernung von 6.000.000 Metern oder 6.000 Kilometern. Die Entfernung von New York nach Frankfurt in Luftlinie liegt etwa bei 6.200 Kilometern. Das bedeutet, eine in New York gehostete Virtual-Reality-Anwendung ließe sich in der Mainmetropole nicht flüssig wiedergeben. Und das ist nur eine reduzierte, rein theoretische Berechnung. Zusätzlich spielen weitere Faktoren eine große Rolle, die eine Verzögerung der Übertragung verursachen, wie zum Beispiel die Verarbeitungszeit der Server im Rechenzentrum – diese dauert schnell mal 15 oder sogar 20ms. Dadurch können die Nutzer letztendlich nur wenige Kilometer (<100km) von der gehosteten Virtual-Reality-Anwendung entfernt sein, um innerhalb des Toleranzbereichs der Latenzanforderung zu sein. Die Lösung für diesen Umstand ist einerseits Edge Computing: die dezentrale Datenverarbeitung in unmittelbarerer Nähe des Nutzers, also am Rand (=Edge) des Netzwerks. Dies könnte in Form eines Mini-Rechenzentrums oder Knotenpunktes innerhalb des <100km-Latenzradius der Nutzer geschehen. Zusätzlich dazu ist Cloud-Computing unabdingbar: die Datenverarbeitung findet in der Cloud statt und die Daten sind direkt online verfügbar. Durch diese Ansätze wird die Latenz so gering wie möglich gehalten. 
 

Fazit: Latenzen und die Technologien der Zukunft

Neben den drei benannten Beispielen gibt es noch viele weitere Anwendungen und Technologiebereiche, bei denen die Latenz eine wichtige oder sogar entscheidende Rolle spielt. In Zukunft wird autonomes Fahren ein fester Bestandteil unseres Lebens sein. Autos werden teils lebenswichtige „Entscheidungen“ auf einer Datenbasis treffen, deshalb muss sichergestellt sein, dass diese Datenverarbeitung direkt und unmittelbar erfolgt. Die theoretische Latenzanforderung liegt dabei im Ernstfall bei 0ms. Auch Industrieroboter – Stichpunkt: Industrie 4.0 – müssen schnelle, datenbasierte Entscheidungen treffen. Die Latenzanforderungen liegen partiell bei Werten von 1ms bis 10ms. All diese Beispiele zeigen, wie wichtig und notwendig die Entwicklung von latenzsparenden Internet-Anwendungen ist. In diesem Bereich können wir in Zukunft spannende Ansätze erwarten. Es muss künftig gewährleistet werden, dass Daten möglichst nah am Kunden verarbeitet und sicher in der Cloud gehostet werden.

--

[1] A Survey on the Current Internet Interconnection Practices – für die Auswertung wurden zwischen Dezember 2017 und Januar 2018 insgesamt 106 ISPs, Enterprises, CDNs und Infrastructure Provider befragt.

[2] https://www.akamai.com/uk/en/about/news/press/2017-press/akamai-releases-spring-2017-state-of-online-retail-performance-report.jsp