Publication : 15 août 2023
Contributeur : Michael Goodwin
La latence est la mesure du délai dans un système. La latence du réseau représente le temps nécessaire aux données pour se déplacer d’un point à un autre sur un réseau. Un réseau à latence élevée aura des temps de réponse plus lents, tandis qu’un réseau à faible latence aura des temps de réponse plus rapides.
En théorie, les données sont censées parcourir Internet à une vitesse proche de celle de la lumière, mais dans la pratique, les paquets de données se déplacent sur Internet à un débit légèrement plus lent en raison des délais liés à la distance, à l’infrastructure Internet et à d’autres variables.1 La somme de ces délais constitue la latence d’un réseau.
Découvrez comment l’APM et l’ARM peuvent permettre de prendre des décisions et d’allouer des ressources aux applications plus rapidement.
Lire le guide sur l’automatisation intelligente
Maintenir un réseau à faible latence est important, car la latence affecte directement la productivité, la collaboration, les performances des applications et l’expérience utilisateur. Plus la latence est élevée (et donc plus les temps de réponse sont lents), plus ces domaines rencontrent de difficultés. La faible latence est d’autant plus cruciale que les entreprises poursuivent leur transformation numérique et deviennent de plus en plus dépendantes des applications et des services basés sur le cloud au sein de l’Internet des objets.
Commençons par un exemple évident. Si une latence élevée du réseau entraîne des performances d’applications insuffisantes ou des temps de chargement lents pour vos clients, ces derniers sont susceptibles de rechercher d’autres solutions. Aujourd’hui plus que jamais, les utilisateurs individuels et professionnels attendent des performances ultra-rapides. Si votre organisation utilise des applications d’entreprise qui s’appuient sur des données extraites en temps réel de différentes sources pour faire des recommandations en matière de ressources, une latence élevée peut engendrer des problèmes d’efficacité. Ces problèmes peuvent avoir un impact négatif sur les performances et la valeur des applications.
Toutes les entreprises préfèrent une faible latence. Cependant, dans les secteurs et les cas d’utilisation qui dépendent des données de capteurs ou du calcul haute performance, comme la fabrication automatisée, les opérations à distance grâce à la vidéo (pensez aux caméras utilisées pour la chirurgie), le streaming en direct ou le trading haute fréquence, une faible latence est essentielle au succès de l’entreprise.
Une latence élevée peut également entraîner des dépenses inutiles. Supposons que vous souhaitiez améliorer les performances des applications et du réseau en augmentant ou en réaffectant vos dépenses liées au calcul, au stockage et aux ressources réseau. Si vous n’arrivez pas à résoudre les problèmes de latence existants, vous risquez de vous retrouver avec une facture plus élevée, sans parvenir à améliorer les performances, la productivité ou la satisfaction client.
La latence du réseau est mesurée en millisecondes en calculant l’intervalle de temps entre le lancement d’une opération d’envoi à partir d’un système source et l’achèvement de l’opération de réception correspondante par le système cible.2
Un moyen simple de mesurer la latence consiste à exécuter une commande « ping », qui est un outil de diagnostic réseau utilisé pour tester la connexion entre deux appareils ou serveurs. Au cours de ces tests de débit, la latence est souvent appelée ping.
Dans ce test, un paquet de requêtes Echo ICMP (Internet Control Message Protocol) est envoyé à un serveur cible et retourné. Une commande ping calcule le temps qu’il faut au paquet pour voyager de la source à la destination et inversement. Ce temps de trajet total est appelé temps aller-retour (RTT) et équivaut environ à la latence multipliée par deux, car les données doivent être acheminées vers le serveur, puis faire le trajet retour. Le ping n’est pas considéré comme une mesure exacte de la latence ni comme le test idéal pour détecter les problèmes de latence directionnelle du réseau. Cette limitation s’explique par le fait que les données peuvent transiter par différents chemins réseau et rencontrer des scénarios divers à chaque étape du trajet.
La latence, la bande passante et le débit sont liés. Ces termes sont parfois utilisés de façon interchangeable comme s’ils étaient synonymes, mais ils font en fait référence à des fonctionnalités réseau distinctes. Comme nous l’avons dit, la latence est le temps qu’il faut à un paquet de données pour voyager entre deux points à travers une connexion réseau.
La bande passante est une mesure du volume de données pouvant transiter par un réseau à tout moment. Ce volume est mesuré en unités de données par seconde, telles que les mégabits par seconde (Mbit/s) ou les gigabits par seconde (Gbit/s). C’est cette mesure que vous avez l’habitude d’entendre de la part de votre fournisseur Internet lorsque vous choisissez des options de connexion pour votre maison. Cette notion sème la confusion, car la bande passante n’est pas une mesure de vitesse, mais de capacité. Bien qu’une bande passante élevée puisse faciliter une vitesse Internet élevée, ces capacités dépendent également de facteurs tels que la latence et le débit.
Le débit est une mesure de la quantité moyenne de données qui transitent réellement par un réseau dans un laps de temps donné, en tenant compte de l’impact de la latence. Il reflète le nombre de paquets de données qui arrivent bel et bien et le nombre de paquets de données perdus. Il est généralement mesuré en bits par seconde, ou parfois, en données par seconde.
Parmi les facteurs de performance du réseau, on retrouve également la gigue. La gigue fait référence à la variation de la latence des flux de paquets sur un réseau. Une latence constante est préférable à une gigue élevée, qui peut contribuer à la perte de paquets, c’est-à-dire des paquets de données abandonnés pendant la transmission, n’arrivant jamais à destination.
Voici une explication simplifiée pour vous souvenir de la relation entre latence, bande passante et débit : la bande passante est la quantité de données pouvant transiter sur un réseau, le débit est la mesure de la quantité de transferts réels par seconde et la latence est le temps qu’il faut pour réaliser ces transferts.
Visualiser le parcours des données entre le client et le serveur et inversement permet de comprendre la latence et les différents facteurs qui y contribuent. Les causes courantes de latence du réseau sont les suivantes :
Pour faire simple, plus la distance entre le client initiant une requête et le serveur y répondant est grande, plus la latence est élevée. La différence entre un serveur à Chicago et un serveur à New York répondant à une requête d’un utilisateur à Los Angeles peut n’être que de quelques millisecondes. Mais dans ce contexte, ce n’est pas rien, et ces millisecondes s’ajoutent les unes aux autres.
Pensez ensuite au support sur lequel transitent vos données. S’agit-il d’un réseau de câbles de fibre optique (généralement à plus faible latence) ou d’un réseau sans fil (généralement à latence plus élevée), ou d’un ensemble complexe de réseaux à supports multiples, comme c’est souvent le cas ?
Le support utilisé pour le déplacement des données a une incidence sur la latence, tout comme le nombre de fois où les données doivent passer par des périphériques réseau, tels que des routeurs, pour passer d’un segment de réseau à l’autre (sauts de réseau) avant d’atteindre leur destination. Plus le nombre de sauts est grand, plus la latence est élevée.
La taille des paquets de données et le volume global de données sur un réseau ont tous deux une incidence sur la latence. Les paquets plus volumineux prennent plus de temps à être transmis, et si le volume de données dépasse la capacité de calcul de l’infrastructure réseau, vous risquez de rencontrer des goulots d’étranglement et une latence accrue.
Des serveurs, des routeurs, des concentrateurs, des commutateurs et d’autres équipements matériels réseau obsolètes ou ne disposant pas des ressources nécessaires peuvent entraîner des temps de réponse plus lents. Par exemple, si les serveurs reçoivent plus de données qu’ils ne peuvent en gérer, les paquets seront retardés, ce qui ralentira le chargement des pages, les vitesses de téléchargement et les performances des applications.
Les images et les vidéos dont le fichier est volumineux, les ressources bloquant le rendu et les caractères inutiles dans le code source peuvent tous contribuer à la latence élevée.
Parfois, la latence est causée par des facteurs du côté de l’utilisateur, comme une bande passante insuffisante, une mauvaise connexion Internet ou un équipement obsolète.
Pour réduire la latence sur votre réseau, vous pouvez commencer par évaluer le réseau :
- Nos données empruntent-elles l’itinéraire le plus court et le plus efficace ?
- Nos applications disposent-elles des ressources nécessaires pour offrir des performances optimales ?
- Notre infrastructure réseau est-elle à jour et adaptée à la tâche ?
Commençons par la question de la distance. Où se trouvent vos utilisateurs ? Et où sont les serveurs qui répondent à leurs requêtes ? En répartissant vos serveurs et vos bases de données plus près de vos utilisateurs, vous pouvez réduire la distance physique que les données doivent parcourir et réduire les problèmes de routage et les sauts de réseau.
L’une des façons de distribuer les données à l’échelle mondiale consiste à utiliser un réseau de distribution de contenuou CDN. L’utilisation d’un réseau de serveurs distribués vous permet de stocker du contenu plus près de vos utilisateurs finaux, réduisant ainsi la distance que les paquets de données doivent parcourir. Mais que se passe-t-il si vous souhaitez aller au-delà de la diffusion de contenu mis en cache ?
L’edge computing est une stratégie utile, car elle permet aux organisations d’étendre leur environnement cloud du centre de données principal à des emplacements physiques plus proches de leurs utilisateurs et de leurs données. Grâce à l’edge computing, les organisations peuvent exécuter les applications au plus près des utilisateurs finaux et ainsi réduire la latence.
Un sous-réseau est essentiellement un réseau plus petit à l’intérieur de votre réseau. Les sous-réseaux regroupent les terminaux qui communiquent fréquemment entre eux, ce qui peut réduire les problèmes de routage et la latence.
Les outils de surveillance traditionnels ne sont pas assez rapides ni minutieux pour repérer et contextualiser de manière proactive les problèmes de performance dans les environnements complexes d’aujourd’hui. Pour garder une longueur d’avance sur les problèmes, vous pouvez utiliser une solution telle que la plateforme Instana Observability, qui fournit une cartographie en temps réel de l’observabilité de bout en bout et des dépendances. Ces capacités permettent aux équipes d’identifier, de contextualiser, de gérer et de prévenir les problèmes de performance des applications qui contribuent à la latence du réseau.
Si les workloads ne disposent pas des ressources appropriées de calcul, de stockage et de réseau, la latence augmente et les performances en pâtissent. Essayer de résoudre ce problème en les surdimensionnant s’avère inefficace et inutile, et tenter de faire correspondre manuellement la demande dynamique aux ressources dans les infrastructures modernes complexes est mission impossible.
Une solution de gestion des ressources applicatives, comme la plateforme IBM Turbonomic, qui analyse de façon continue l’utilisation des ressources et les performances des composants d’application et d’infrastructure en temps réel, peut aider à résoudre les problèmes liés aux ressources et à réduire la latence.
Par exemple, si la plateforme détecte une application dont la latence est élevée en raison d’un conflit de ressources sur un serveur, elle peut réduire la latence. Pour ce faire, elle alloue automatiquement les ressources nécessaires à l’application, ou bien elle déplace l’application vers un serveur moins encombré.
Des tests tels que la commande ping peuvent fournir une mesure simple de la latence du réseau. Cependant, ils sont insuffisants pour identifier les problèmes, et encore plus pour les résoudre. Vous pouvez utiliser une solution de gestion de la performance réseau comme IBM SevOne NPM qui fournit une plateforme unifiée pour aider vos équipes à repérer, à gérer et à prévenir les problèmes de performance réseau et à réduire la latence.
Assurez-vous d’utiliser des configurations matérielles, logicielles et réseau à jour et veillez à ce que votre infrastructure soit capable de gérer ce que vous attendez d’elle. Effectuer régulièrement des vérifications et la maintenance de votre réseau contribuera également à réduire les problèmes aux performances et la latence.
Les développeurs peuvent prendre des mesures pour s’assurer que la construction de la page ne contribue pas à la latence, notamment en optimisant les vidéos, les images et d’autres actifs de la page accélérer le chargement, et en minimisant le code.
La plateforme IBM Instana Observability offre une surveillance améliorée des performances des applications avec une visibilité automatisée sur l’ensemble de la pile, une granularité à la seconde près et des notifications dans un délai de trois secondes.
Conçue pour optimiser les coûts liés au cloud hybride, la plateforme Turbonomic vous permet d’automatiser en continu et en temps réel les actions critiques qui garantissent que vos applications utilisent efficacement vos ressources de calcul, de stockage et de mise en réseau, et ce à chaque couche de la pile.
Conçu pour les réseaux modernes, IBM SevOne Network Performance Management (NPM) vous aide à détecter, à résoudre et à éviter de façon proactive les problèmes de performance du réseau grâce à l’observabilité de réseau hybride.
Profitez de fonctions NPM modernes, dynamiques, flexibles et évolutives.
Découvrez les capacités avancées dédiées à la visibilité, aux informations et aux actions en matière de réseau et d’applications.
Découvrez les cinq étapes qui aideront rapidement les opérateurs et les ingénieurs réseau à mesurer leurs capacités de gestion des performances réseau par rapport à celles nécessaires dans les environnements informatiques modernes.
Découvrez comment le principal fournisseur d’informations sur les crédits dans les pays nordiques a utilisé Instana Observability pour accélérer l’identification des bogues, réduire la latence existante et obtenir une visibilité en temps réel sur chaque demande de service (sans échantillonnage).
Découvrez comment l’équipe DevOps de Dealerware a utilisé Instana Observability pour réduire la latence de livraison de 98 % pendant une période de croissance exponentielle.
1“Internet at the Speed of Light”, (lien externe à ibm.com), Yale.edu, 3 mai 2022
2“Effect of the network on performance,” IBM.com, 3 mars 2021