Qu’est-ce que la latence ?

Programmeurs informatiques travaillant dans un bureau moderne

Auteurs

Michael Goodwin

Staff Editor, Automation & ITOps

IBM Think

Qu’est-ce que la latence ?

La latence est la mesure du délai dans un système. La latence du réseau représente le temps nécessaire aux données pour se déplacer d’un point à un autre sur un réseau. Un réseau à latence élevée aura des temps de réponse plus lents, tandis qu’un réseau à faible latence aura des temps de réponse plus rapides.

En théorie, les données sont censées parcourir Internet à une vitesse proche de celle de la lumière, mais dans la pratique, les paquets de données se déplacent sur Internet à un débit légèrement plus lent en raison des délais liés à la distance, à l’infrastructure Internet, à la talle des paquets de données, à la congestion du réseau et à d’autres variables.1 La somme de ces délais constitue la latence d’un réseau.

Les entreprises peuvent réduire la latence et améliorer la productivité et l’expérience utilisateur de la manière suivante :

  • Utiliser les réseaux de diffusion de contenu, l’edge computing et la mise en sous-réseau pour distribuer les données et acheminer le trafic

  • Maintenir une infrastructure performante et à jour

  • Utiliser des solutions de gestion de la performance des applications, d’allocation des ressources et de placement des workloads
Vue aérienne d’autoroutes

Gardez la tête dans le cloud 


Recevez la newsletter hebdomadaire Think pour obtenir des conseils d’experts sur l’optimisation des paramètres multicloud à l’ère de l’IA.

Pourquoi la latence du réseau est-elle importante ?

Maintenir un réseau à faible latence est important, car la latence affecte directement la productivité, la collaboration, les performances des applications et l’expérience utilisateur. Plus la latence est élevée (et donc plus les temps de réponse sont lents), plus ces domaines rencontrent de difficultés. La faible latence est d’autant plus cruciale que les entreprises poursuivent leur transformation numérique et deviennent de plus en plus dépendantes des applications et des services basés sur le cloud au sein de l’Internet des objets.

Commençons par un exemple évident. Si une latence élevée du réseau entraîne des performances d’applications insuffisantes ou des temps de chargement lents pour les clients d’une organisation, ces derniers sont susceptibles de rechercher d’autres solutions. Aujourd’hui plus que jamais, les utilisateurs individuels et professionnels attendent des performances ultra-rapides. Si votre organisation utilise des applications d’entreprise qui s’appuient sur des données extraites en temps réel de différentes sources pour faire des recommandations en matière de ressources, une latence élevée peut engendrer des problèmes d’efficacité. Ces problèmes peuvent avoir un impact négatif sur les performances et la valeur des applications.

Toutes les entreprises préfèrent une faible latence. Cependant, dans les secteurs et les cas d’utilisation qui dépendent des données de capteurs ou du calcul haute performance, comme la fabrication automatisée, les opérations à distance grâce à la vidéo (pensez aux caméras utilisées pour la chirurgie), le streaming en direct ou le trading haute fréquence, une faible latence est essentielle au succès de l’entreprise.

Une latence élevée peut également entraîner des dépenses inutiles. Supposons qu’une entreprise souhaite améliorer la performance des applications et du réseau en augmentant ou en réaffectant les dépenses liées au calcul, au stockage et aux ressources réseau. Si elle ne parvient pas à résoudre les problèmes de latence existants, l’entreprise risque de se retrouver avec une facture plus élevée, sans même améliorer la performance, la productivité ou la satisfaction client.

NS1 Connect

IBM NS1 Connect

Renforcez la résilience de votre réseau avec IBM NS1 Connect. Dans cette vidéo, nous abordons la valeur d’IBM NS1 Connect en matière de résilience et de performances des applications.

Comment mesure-t-on la latence ?

La latence du réseau est mesurée en millisecondes en calculant l’intervalle de temps entre le lancement d’une opération d’envoi à partir d’un système source et l’achèvement de l’opération de réception correspondante par le système cible.2

Un moyen simple de mesurer la latence consiste à exécuter une commande « ping », qui est un outil de diagnostic réseau utilisé pour tester la connexion entre deux appareils ou serveurs. Au cours de ces tests de débit, la latence est souvent appelée ping.

Dans ce test, un paquet de requêtes Echo ICMP (Internet Control Message Protocol) est envoyé à un serveur cible et retourné. Une commande ping calcule le temps qu’il faut au paquet pour voyager de la source à la destination et inversement. Ce temps de trajet total est appelé temps aller-retour (RTT) et équivaut environ à la latence multipliée par deux, car les données doivent être acheminées vers le serveur, puis faire le trajet retour. Le ping n’est pas considéré comme une mesure exacte de la latence ni comme le test idéal pour détecter les problèmes de latence directionnelle du réseau. Cette limitation s’explique par le fait que les données peuvent transiter par différents chemins réseau et rencontrer des scénarios divers à chaque étape du trajet.

Latence, bande passante et débit

La latence, la bande passante et le débit sont liés. Ces termes sont parfois utilisés de façon interchangeable comme s’ils étaient synonymes, mais ils font en fait référence à des fonctionnalités réseau distinctes. Comme nous l’avons dit, la latence est le temps qu’il faut à un paquet de données pour voyager entre deux points à travers une connexion réseau.

Bande passante

La bande passante est une mesure du volume de données pouvant transiter par un réseau à tout moment. Ce volume est mesuré en unités de données par seconde, telles que les mégabits par seconde (Mbit/s) ou les gigabits par seconde (Gbit/s). C’est cette mesure que vous avez l’habitude d’entendre de la part de votre fournisseur Internet lorsque vous choisissez des options de connexion pour votre maison. Cette notion sème la confusion, car la bande passante n’est pas une mesure de vitesse, mais de capacité. Bien qu’une bande passante élevée puisse faciliter une vitesse Internet élevée, ces capacités dépendent également de facteurs tels que la latence et le débit.

Débit

Le débit est une mesure de la quantité moyenne de données qui transitent réellement par un réseau dans un laps de temps donné, en tenant compte de l’impact de la latence. Il reflète le nombre de paquets de données qui arrivent bel et bien et le nombre de paquets de données perdus.  Il est généralement mesuré en bits par seconde, ou parfois, en données par seconde.

Gigue

Parmi les facteurs de performance du réseau, on retrouve également la gigue. La gigue fait référence à la variation de la latence des flux de paquets sur un réseau. Une latence constante est préférable à une gigue élevée, qui peut contribuer à la perte de paquets, c’est-à-dire des paquets de données abandonnés pendant la transmission, n’arrivant jamais à destination.

Voici une explication simplifiée pour vous souvenir de la relation entre latence, bande passante et débit : la bande passante est la quantité de données pouvant transiter sur un réseau, le débit est la mesure de la quantité de transferts réels par seconde et la latence est le temps qu’il faut pour réaliser ces transferts.

Quelles sont les causes à l’origine de la latence du réseau ?

Visualiser le parcours des données entre le client et le serveur, et inversement, permet de comprendre la latence et les différents facteurs qui y contribuent. Les causes courantes de latence réseau sont les suivantes :

La distance que les données doivent parcourir

Pour faire simple, plus la distance entre le client initiant une requête et le serveur y répondant est grande, plus la latence est élevée. La différence entre un serveur à Chicago et un serveur à New York répondant à une requête d’un utilisateur à Los Angeles peut n’être que de quelques millisecondes. Mais dans ce contexte, ce n’est pas rien, et ces millisecondes s’ajoutent les unes aux autres.

Supports de transmission et nombre de sauts de réseau

Pensez ensuite au support sur lequel transitent vos données. S’agit-il d’un réseau de câbles de fibre optique (généralement à plus faible latence) ou d’un réseau sans fil (généralement à latence plus élevée), ou d’un ensemble complexe de réseaux à supports multiples, comme c’est souvent le cas ?

Le support utilisé pour le déplacement des données a une incidence sur la latence, tout comme le nombre de fois où les données doivent passer par des périphériques réseau, tels que des routeurs, pour passer d’un segment de réseau à l’autre (sauts de réseau) avant d’atteindre leur destination. Plus le nombre de sauts est grand, plus la latence est élevée.

Taille des paquets de données et congestion du réseau

La taille des paquets de données et le volume global de données sur un réseau ont tous deux une incidence sur la latence. Les paquets plus volumineux prennent plus de temps à être transmis, et si le volume de données dépasse la capacité de calcul de l’infrastructure réseau, des goulots d’étranglement et une latence accrue sont susceptibles de se produire.

Performances matérielles

Des serveurs, des routeurs, des concentrateurs, des commutateurs et d’autres équipements matériels réseau obsolètes ou ne disposant pas des ressources nécessaires peuvent entraîner des temps de réponse plus lents. Par exemple, si les serveurs reçoivent plus de données qu’ils ne peuvent en gérer, les paquets seront retardés, ce qui ralentira le chargement des pages, les vitesses de téléchargement et les performances des applications.

Construction d’une page Web

Les images et les vidéos dont le fichier est volumineux, les ressources bloquant le rendu et les caractères inutiles dans le code source peuvent tous contribuer à la latence élevée.

Facteurs côté utilisateur

Parfois, la latence est causée par des facteurs du côté de l’utilisateur, comme une bande passante insuffisante, une mauvaise connexion Internet ou un équipement obsolète.

Comment réduire la latence ?

Pour réduire la latence, l’entreprise peut commencer par évaluer le réseau :

- Nos données empruntent-elles l’itinéraire le plus court et le plus efficace ?

Nos applications disposent-elles des ressources nécessaires pour offrir une performance optimale ?

Notre infrastructure réseau est-elle à jour et adaptée à la tâche ?

Distribuer les données à l’échelle mondiale

Commençons par la question de la distance. Où se trouvent les utilisateurs ? Et où sont les serveurs qui répondent à leurs requêtes ? En répartissant ses serveurs et ses bases de données plus près des utilisateurs, une entreprise peut réduire la distance physique que les données doivent parcourir et réduire les problèmes de routage et les sauts de réseau.

L’une des façons de distribuer les données à l’échelle mondiale consiste à utiliser un réseau de distribution de contenu ou CDN. L’utilisation d’un réseau de serveurs distribués vous permet à une entreprise de stocker du contenu plus près des utilisateurs finaux, réduisant ainsi la distance que les paquets de données doivent parcourir. Mais que se passe-t-il si vous souhaitez aller au-delà de la diffusion de contenu mis en cache ?

L’edge computing est une stratégie utile, car elle permet aux organisations d’étendre leur environnement cloud du centre de données principal à des emplacements physiques plus proches de leurs utilisateurs et de leurs données. Grâce à l’edge computing, les organisations peuvent exécuter les applications au plus près des utilisateurs finaux et ainsi réduire la latence.

Utiliser un sous-réseau

Un sous-réseau est essentiellement un réseau plus petit à l’intérieur de votre réseau. Les sous-réseaux regroupent les terminaux qui communiquent fréquemment entre eux, ce qui peut réduire les problèmes de routage et la latence.

Utiliser une solution de gestion de la performance des applications

Les outils de surveillance traditionnels ne sont pas assez rapides ni minutieux pour repérer et contextualiser de manière proactive les problèmes de performance dans les environnements complexes d’aujourd’hui. Pour garder une longueur d’avance sur les problèmes, les organisations peuvent utiliser des solutions avancées qui fournissent une observabilité de bout en bout et un mappage des dépendances en temps réel. Ces capacités permettent aux équipes d’identifier, de contextualiser, de gérer et de prévenir les problèmes de performance des applications qui contribuent à la latence du réseau.

Optimiser l’allocation des ressources et le placement des workloads

Si les workloads ne disposent pas des ressources appropriées de calcul, de stockage et de réseau, la latence augmente et les performances en pâtissent. Essayer de résoudre ce problème en les surdimensionnant s’avère inefficace et inutile, et tenter de faire correspondre manuellement la demande dynamique aux ressources dans les infrastructures modernes complexes est mission impossible.

Une solution de gestion des ressources applicatives (ARM) qui analyse l’utilisation des ressources et la performance des applications et des composants d’infrastructure en permanence et en temps réel, permet de résoudre les problèmes liés aux ressources et de réduire la latence.

Par exemple, si la plateforme ARM détecte une application avec une latence élevée en raison d’un conflit de ressources sur un serveur, elle peut automatiquement allouer les ressources nécessaires à l’application, ou la déplacer vers un serveur moins encombré. Ces actions automatisées contribuent à réduire la latence et à améliorer la performance.

Surveiller les performances réseau

Des tests tels que la commande ping peuvent fournir une mesure simple de la latence du réseau. Cependant, ils sont insuffisants pour identifier les problèmes, et encore plus pour les résoudre. Les organisations peuvent utiliser une solution de gestion de la performance réseau qui fournit une plateforme unifiée pour aider les équipes à repérer, à gérer et à prévenir les problèmes de performance réseau et à réduire la latence.

Maintenir une infrastructure performante et à jour

Les équipes informatiques peuvent s’assurer qu’elles utilisent des configurations matérielles, logicielles et réseau à jour et que l’infrastructure de l’entreprise est en mesure de répondre aux demandes en temps réel. Effectuer régulièrement des vérifications et la maintenance du réseau peut également contribuer à réduire les problèmes de performance et la latence.

Optimiser les actifs et le codage de la page

Les développeurs peuvent prendre des mesures pour s’assurer que la construction de la page ne contribue pas à la latence, notamment en optimisant les vidéos, les images et d’autres actifs de la page accélérer le chargement, et en minimisant le code.

Solutions connexes
IBM Cloud Pak for Network Automation 

IBM Cloud Pak for Network Automation est un Cloud Pak qui automatise et orchestre les opérations d’infrastructure réseau.

Découvrir l’automatisation Cloud Pak
Solutions de mise en réseau

Les solutions de mise en réseau cloud d’IBM assurent une connectivité haute performance pour alimenter vos applications et vos activités.

Découvrir les solutions de mise en réseau cloud
Services de support réseau

Consolidez le support du centre de données avec IBM Technology Lifecycle Services pour la mise en réseau cloud et plus encore.

Services de mise en réseau cloud
Passez à l’étape suivante

Renforcez votre entreprise grâce à des solutions de pointe en matière de gestion DNS et de mise en réseau cloud. Améliorez la fiabilité de vos applications et optimisez les performances de votre réseau grâce aux services de pointe d’IBM.

Découvrir les solutions de mise en réseau cloud Découvrir les services DNS gérés
Notes de bas de page

1« Internet at the Speed of Light », Yale.edu, 3 mai 2022.

2« Effect of the network on performance », IBM.com, 3 mars 2021.