Startseite topics Latenz Was ist Latenz?
Erkunden Sie die Latenzlösung von IBM Abonnieren Sie Updates rund ums Thema KI
Illustration mit Collage aus Piktogrammen von Ausrüstung, Roboterarm, Mobiltelefon

Veröffentlicht: 15. August 2023
Mitwirkender: Michael Goodwin

Was ist Latenz?

Latenz ist die Messung der Verzögerung in einem System. Die Netzwerklatenz ist die Zeit, die Daten benötigen, um in einem Netzwerk von einem Punkt zum anderen zu gelangen. Ein Netzwerk mit hoher Latenzzeit weist langsamere Reaktionszeiten auf, während ein Netzwerk mit geringer Latenz schnellere Reaktionszeiten aufweist.

Obwohl Daten das Internet im Prinzip fast mit Lichtgeschwindigkeit durchqueren sollten, bewegen sich die Datenpakete in der Praxis etwas langsamer durch das Web. Die Verzögerungen werden durch die Entfernung, die Internet-Infrastruktur und andere Variablen verursacht.1 Die Summe dieser zeitlichen Verzögerungen ergibt die Latenz eines Netzwerks.

Bessere künstliche Intelligenz für den IT-Betrieb (AIOps)

Erfahren Sie, wie APM und ARM schnellere Entscheidungen und den raschen Einsatz von Ressourcen unterstützen.

Ähnliche Inhalte

Lesen Sie einen Leitfaden zur intelligenten Automatisierung

Warum ist die Netzwerklatenz wichtig?

Geringe Latenz im Netzwerk sind wichtig, denn sie wirken sich direkt auf die Produktivität, die Zusammenarbeit, die Anwendungsleistung und die Benutzererfahrung aus. Je höher die Latenz (und demzufolge langsamer die Antwortzeiten), desto mehr leiden diese Bereiche. Besonders wichtig ist eine geringe Latenz, wenn Unternehmen ihre digitale Transformation vorantreiben möchten und zunehmend auf cloudbasierte Anwendungen und Services im Internet der Dinge angewiesen sind.

Beginnen wir mit einem offensichtlichen Beispiel: Wenn eine hohe Latenz in Ihrem Netzwerk zur Folge hat, dass Ihre Kunden unter einer unzureichenden Anwendungsleistung oder langsamen Ladezeiten leiden, werden sie sich wahrscheinlich nach alternativen Lösungen umsehen. Sowohl Privatnutzer als auch Unternehmensanwender erwarten heutzutage mehr denn je eine blitzschnelle Leistung. Wenn Ihr Unternehmen Unternehmensanwendungen einsetzt, die Echtzeitdaten aus verschiedenen Quellen abrufen, um Empfehlungen für die Ressourcennutzung zu erhalten, können hohe Latenzzeiten ineffiziente Prozesse zur Folge haben. Diese Ineffizienzen können sich negativ auf die Leistung und den Wert der Anwendung auswirken.

Alle Unternehmen wünschen sich natürlich geringe Latenzen. Doch besonders in Branchen und Anwendungsfällen, die von Sensordaten oder High-Performance-Computing abhängen, wie z. B. in der automatisierten Fertigung, bei videogestützten Operationen aus der Ferne (denken Sie beispielsweise an Kameras bei chirurgischen Eingriffen), beim Live-Streaming oder beim hochfrequentierten Trading, ist eine geringe Latenz für den Erfolg des Vorhabens unerlässlich.

Eine hohe Latenzzeit kann auch zu unnötigen Ausgaben führen. Angenommen, Sie möchten die Anwendungs- und Netzwerkleistung verbessern, indem Sie Ihr Budget für Rechen-, Speicher- und Netzwerkressourcen erhöhen oder umverteilen. Wenn Sie bestehende Latenzprobleme nicht beheben, kann es passieren, dass Ihre Rechnung am Ende höher ausfällt, obwohl Sie keine Verbesserung der Leistung, Produktivität oder Kundenzufriedenheit feststellen können.

Wie wird Latenz gemessen?

Netzwerklatenz wird in Millisekunden gemessen, indem das Zeitintervall zwischen der Einleitung eines Sendevorgangs von einem Quellsystem und dem Abschluss des entsprechenden Empfangsvorgangs durch das Zielsystem berechnet wird.2

Eine einfache Möglichkeit, die Latenz zu messen, ist die Ausführung eines „Ping“-Befehls. Hierbei handelt es sich um ein Tool zur Netzwerkdiagnose, mit dem Sie die Verbindung zwischen zwei Geräten oder Servern testen können. Bei diesen Geschwindigkeitstests wird die Latenz oft als Ping-Rate bezeichnet.

Im Rahmen eines solchen Tests wird ein ICMP-Echoanfragepaket (ICMP steht für „Internet Control Message Protocol“) an einen Zielserver gesendet und zurückgeschickt. Ein Ping-Befehl berechnet die Zeit, die das Paket benötigt, um von der Quelle zum Ziel und wieder zurück zu gelangen. Diese Gesamtübertragungszeit wird als Round-Trip-Time (RTT) bezeichnet und entspricht ungefähr dem Doppelten der Latenzzeit, da die Daten zunächst zum Server und dann wieder zurück geschickt werden müssen. Das Ping-Verfahren gilt weder als exakte Methode zur Messung der Latenz noch als idealer Test, um direktionale Netzwerklatenzprobleme zu erkennen. Diese Einschränkung ist darauf zurückzuführen, dass die Daten über verschiedene Netzwerkpfade übertragen werden und auf jeder dieser Routen unterschiedliche Szenarien auftreten können.

 

Latenz, Bandbreite und Durchsatz

Latenz, Bandbreite und Durchsatz sind miteinander verwandt und werden manchmal irrtümlich synonym verwendet, beziehen sich aber in Wirklichkeit auf unterschiedliche Netzwerkmerkmale. Wie wir bereits festgestellt haben, ist Latenz die Zeit, die ein Datenpaket für die Übertragung zwischen zwei Punkten über eine Netzwerkverbindung benötigt.

Bandbreite

Die Bandbreite ist ein Messwert für die Datenmenge, die zu einem bestimmten Zeitpunkt durch ein Netzwerk geleitet werden kann. Sie wird in Dateneinheiten pro Sekunde gemessen, z. B. Megabit pro Sekunde (Mbit/s) oder Gigabit pro Sekunde (GBit/s). Diese Angabe ist im Grunde das, was Ihr Internet- oder Telefonanbieter Ihnen bei der Entscheidung über die Optionen für die Internetverbindung in Ihrem Haus zur Auswahl stellt. Dies sorgt allerdings häufig für Verwirrung, denn die Bandbreite ist kein Maß für die Geschwindigkeit, sondern für die Kapazität. Eine hohe Bandbreite kann zwar eine hohe Internetgeschwindigkeit begünstigen, aber diese Fähigkeit hängt auch von anderen Faktoren wie Latenz und Durchsatz ab.

Durchsatz

Der Durchsatz ist ein Maß für die durchschnittliche Datenmenge, die in einem bestimmten Zeitfenster tatsächlich durch ein Netzwerk geleitet wird, wobei die Auswirkungen von Latenzen berücksichtigt werden. Der Durchsatz gibt an, wie viele Datenpakete erfolgreich ankommen und wie hoch der Verlust von Datenpaketen ist. Der Wert wird normalerweise in Bits pro Sekunde oder manchmal auch in Daten pro Sekunde gemessen.

Jitter

Ein weiterer vierter Faktor für die Netzwerkleistung ist Jitter. Jitter bezieht sich auf die Schwankungen der Latenzzeit von Paketübertragungen in einem Netzwerk. Eine konstante Latenzzeit ist besser als ein hoher Jitter, der zu Paketverlusten führen kann – also zu Datenpaketen, die während der Übertragung verloren gehen und nie an ihrem Ziel ankommen.

Es gibt eine einfache, aber hilfreiche Methode, sich die Beziehung zwischen Latenz, Bandbreite und Durchsatz zu merken: Die Bandbreite ist die Datenmenge, die über ein Netzwerk übertragen werden kann, der Durchsatz ist das Maß dafür, wie viel tatsächlich pro Sekunde übertragen wird, und die Latenz ist die Zeit, die dafür benötigt wird.

Was sind die Ursachen für Netzwerklatenz?

Um die verschiedenen Faktoren zu verstehen, die Latenzen verursachen können, ist es hilfreich, den Weg der Daten vom Client zum Server und zurück zu visualisieren. Häufige Ursachen für Netzwerklatenz sind:

Die zurückgelegte Entfernung der Daten

Einfach ausgedrückt: Je größer die Entfernung zwischen dem Client, der eine Anfrage stellt, und dem antwortenden Server, desto höher ist die Latenz. Der Unterschied zwischen einem Server in München und einem Server in Frankfurt, der auf eine Benutzeranfrage in Hamburg antwortet, beträgt vielleicht nur eine Handvoll Millisekunden. Aber in diesem Szenario ist das eine große Sache, und diese Millisekunden summieren sich.

Übertragungsmedium und Netzwerk-Hops

Betrachten Sie als Nächstes das Medium, über das Ihre Daten übertragen werden. Handelt es sich um ein Netzwerk aus Glasfaserkabeln (in der Regel geringere Latenzzeit), ein drahtloses Netzwerk (in der Regel höhere Latenzzeit) oder um ein komplexes Geflecht aus Netzwerken mit mehreren Medien, wie es häufig der Fall ist?

Das für die Datenübertragung verwendete Medium beeinflusst die Latenz. Dies gilt auch für die Anzahl der Netzwerkgeräte wie Router, die die Daten durchlaufen müssen, um von einem Netzwerksegment zum nächsten zu gelangen (Netzwerk-Hops), bevor sie ihr Ziel erreichen. Je größer die Anzahl der „Hops“, also Sprünge, ist, desto höher ist die Latenzzeit.

Datenpaketgröße und Netzwerküberlastung

Sowohl die Größe der Datenpakete als auch das gesamte Datenvolumen in einem Netzwerk wirken sich auf die Latenz aus. Größere Pakete brauchen länger für die Übertragung, und wenn das Datenvolumen die Rechenkapazität der Netzwerkinfrastruktur übersteigt, kommt es wahrscheinlich zu Engpässen und erhöhter Latenz.

Hardwareleistung

Veraltete oder unzureichend ausgerüstete Server, Router, Hubs, Switches und andere Netzwerkhardware können zu langsameren Antwortzeiten führen. Wenn die Server beispielsweise mehr Daten empfangen, als sie verarbeiten können, kommt es zu Verzögerungen bei den Paketen, was zu langsameren Seitenladezeiten, Download-Geschwindigkeiten und einer langsameren Anwendungsleistung führt.

Aufbau der Webseite

Seitenelemente wie Bilder und Videos mit großen Dateigrößen, Ressourcen, die das Rendern blockieren, und unnötige Zeichen im Quellcode können zu einer höheren Latenzzeit beitragen.

Faktoren auf Benutzerseite

Manchmal wird Latenz auch durch Faktoren auf Seiten des Benutzers verursacht, zum Beispiel durch unzureichende Bandbreite, eine schlechte Internetverbindung oder veraltete Geräte.

Wie lässt sich Latenz reduzieren?

Zur Reduzierung der Latenz in Ihrem Netzwerk empfiehlt es sich, zuerst mit den folgenden Fragen zur Netzwerkbewertung zu beginnen:

–       Werden unsere Daten auf dem kürzesten und effizientesten Weg übertragen?

–       Verfügen unsere Anwendungen über die notwendigen Ressourcen für eine optimale Leistung?

–       Ist unsere Netzwerkinfrastruktur auf dem neuesten Stand und für die Aufgabe geeignet?

Globale Datenverteilung

Beginnen wir mit dem Problem der Entfernung. Wo befinden sich Ihre Benutzer? Und wo stehen die Server, die auf die Anfragen der Benutzer reagieren? Wenn Sie Ihre Server und Datenbanken geographisch so verteilen, dass sie sich näher an Ihren Benutzern befinden, können Sie die physische Entfernung reduzieren, die Ihre Daten zurücklegen müssen. So verringern Sie ineffizientes Routing und Netzwerk-Hops.

Eine Möglichkeit für die globale Verteilung von Daten ist die Nutzung eines Content Delivery Network (auch als CDN bezeichnet). Mit einem Netzwerk aus verteilten Servern können Sie Ihre Inhalte näher an den Endbenutzern speichern. Dadurch reduziert sich die Entfernung, die Datenpakete zurücklegen müssen. Was aber, wenn Sie nicht nur zwischengespeicherte Inhalte bereitstellen möchten?

Edge Computing ist eine nützliche Strategie, mit der Unternehmen ihre Cloud-Umgebung vom zentralen Rechenzentrum auf physische Standorte ausweiten können, die sich näher an ihren Benutzern und Daten befinden. Durch Edge Computing können Unternehmen Anwendungen näher an den Endanwendern ausführen und die Latenzzeit verringern.

Einsatz von Subnetzen

Bei einem Subnetz handelt es sich im Prinzip um ein kleineres Netzwerk innerhalb Ihres Netzwerks. Subnetze fassen Endpunkte zusammen, die häufig miteinander kommunizieren, wodurch ineffizientes Routing vermieden und Latenzzeiten reduziert werden.

Verwendung einer Lösung für Application Performance Management

Herkömmliche Überwachungstools sind nicht schnell oder gründlich genug, um Leistungsprobleme in den komplexen Umgebungen von heute proaktiv zu erkennen und in den richtigen Kontext zu bringen. Um diesen Problemen vorzubeugen, können Sie eine Lösung wie die Instana Observability-Plattform nutzen, die eine durchgängige Observability in Echtzeit ermöglicht und Abhängigkeiten darstellt. Mit diesen Funktionen können Teams Probleme mit der Anwendungsleistung, die zur Netzwerklatenz beitragen, erkennen, kontextualisieren, beheben und verhindern.

Optimierte Ressourcenzuweisung und Workload-Platzierung

Wenn Workloads nicht über die entsprechenden Rechen-, Speicher- und Netzwerkressourcen verfügen, nimmt die Latenz zu und die Leistung verschlechtert sich. Wenn Sie versuchen, dieses Problem durch eine übermäßige Bereitstellung von Ressourcen zu lösen, ist das ineffizient und verschwenderisch. Weiterhin könnte man versuchen, die dynamische Nachfrage mit den Ressourcen in komplexen modernen Infrastrukturen manuell abzugleichen, aber dies ist in der Praxis eine unmöglich zu realisierende Aufgabe.

Eine Lösung für das Application Resource Management wie die IBM® Turbonomic-Plattform, die die Ressourcenauslastung und die Leistung von Anwendungen und Infrastrukturkomponenten kontinuierlich in Echtzeit analysiert, kann dabei helfen, Ressourcenprobleme zu lösen und Latenzen zu reduzieren.

Wenn die Plattform beispielsweise aufgrund von Ressourcenkonflikten auf einem Server eine Anwendung mit hoher Latenzzeit erkennt, kann sie die Latenz reduzieren. Die Plattform reduziert die Latenz, indem sie der Anwendung automatisch die erforderlichen Ressourcen zuweist oder sie auf einen weniger ausgelasteten Server verschiebt.

Überwachung der Netzwerkleistung

Tests wie Ping-Befehle sind eine einfache Methode, um die Netzwerklatenz zu messen, aber sie reichen nicht aus, um Probleme zu erkennen, geschweige denn, sie zu beheben. Sie können jedoch eine Lösung für das Netzwerk-Performance-Management wie IBM® SevOne NPM verwenden. Damit erhalten Sie eine einheitliche Plattform, die Ihre Teams dabei unterstützt, Probleme mit der Netzwerkleistung zu erkennen, zu beheben und zu vermeiden und so die Latenz zu reduzieren.

Aufrechterhaltung einer leistungsfähigen, stets aktualisierten Infrastruktur

Vergewissern Sie sich, dass Ihre Hardware-, Software- und Netzwerkkonfigurationen auf dem neuesten Stand sind und dass Ihre Infrastruktur den von Ihnen gestellten Anforderungen gewachsen ist. Durch regelmäßige Überprüfung und Wartung Ihres Netzwerks können Sie Leistungsprobleme und Latenzen reduzieren.

Optimierung von Seitenelementen und Code

Entwickler können Maßnahmen ergreifen, um sicherzustellen, dass der Aufbau einer Seite die Latenzen nicht erhöht, z. B. durch die Optimierung von Videos, Bildern und anderen Seiteninhalten für schnelleres Laden und durch die Minimierung von Code.

Weiterführende Lösungen
Beobachtbarkeit IBM Instana Observability

Die IBM® Instana Observability-Plattform ermöglicht eine verbesserte Überwachung der Anwendungsleistung mit automatisierter Full-Stack-Transparenz, 1-Sekunden-Granularität und 3 Sekunden bis zur Benachrichtigung.

Weitere Informationen zu Instana Observability Demo von Instana Observability anfordern

Optimierung der Hybrid-Cloud-Kosten IBM Turbonomic

Mit der Plattform für Optimierung der Cloud-Kosten, Turbonomic®, können Sie kritische Aktionen kontinuierlich in Echtzeit automatisieren, um Ihren Anwendungen auf jeder Ebene des Stacks proaktiv die effizienteste Nutzung von Rechen-, Speicher- und Netzwerkressourcen zu ermöglichen. 

Weitere Informationen über Turbonomic Interaktive Demo ansehen

Netzwerkleistungsmanagement IBM SevOne Network Performance Management

IBM SevOne Network Performance Management (NPM) wurde für moderne Netzwerke entwickelt. Es unterstützt Sie durch Observability für Hybrid-Netzwerke dabei, Leistungsprobleme im Netzwerk proaktiv zu erkennen, zu beheben und zu vermeiden. 

Weitere Informationen über SevOne NPM
Ressourcen Modernisieren Sie die Überwachung Ihrer Netzwerkleistung

Profitieren Sie von modernen NPM-Funktionen, die dynamisch, flexibel und skalierbar sind.

Bewältigen Sie die zunehmende Komplexität der Überwachung der Netzwerkleistung

Erfahren Sie mehr über die erweiterten Funktionen für Sichtbarkeit, Erkenntnisse und Maßnahmen im Zusammenhang mit Netzwerken und Anwendungen.

Fünf Schritte zur Optimierung Ihres Netzwerkleistungsmanagements

Erfahren Sie, mit welchen fünf Schritten Netzwerkbetreiber und -techniker ihre Kapazitäten zur Verwaltung der Netzwerkleistung schnell anhand der tatsächlichen Anforderungen in modernen IT-Umgebungen messen können.

Enento Konzern

Erfahren Sie, wie der führende Anbieter von Bonitätsinformationen in Skandinavien Instana Observability eingesetzt hat, um Fehler schnell zu identifizieren, bestehende Latenzen zu verringern und Echtzeiteinblicke in jede Service-Anfrage zu erhalten (ohne Stichproben).

Dealerware

Erfahren Sie, wie das DevOps-Team von Dealerware Instana Observability eingesetzt hat, um die Latenz bei der Auslieferung in einer Phase exponentiellen Wachstums um 98 % zu reduzieren.

Machen Sie den nächsten Schritt

IBM Instana bietet Echtzeit-Observability, die wirklich jeder nutzen kann. Es sorgt für eine kurze Time-to-Value und stellt gleichzeitig sicher, dass Ihre Observability-Strategie mit der dynamischen Komplexität aktueller und zukünftiger Umgebungen mithalten kann. Von Mobilgeräten bis hin zu Mainframes unterstützt Instana über 250 Technologien und es kommen laufend weitere hinzu. 

IBM Instana kennenlernen Buchen Sie eine Live-Demo
Fußnoten

1Internet at the Speed of Light“, (Link befindet sich außerhalb von ibm.com), Yale.edu, 3. Mai 2022

2Effect of the network on performance“, IBM.com, 3. März 2021