Accueil les sujets Latence Qu’est-ce que la latence ?
Découvrir la solution IBM dédiée à la latence S’abonner aux actualités concernant l’IA
Illustration par un collage de pictogrammes représentant une roue dentée, un bras robotisé, un téléphone mobile

Publication : 15 août 2023
Contributeur : Michael Goodwin

Qu’est-ce que la latence ?

La latence est la mesure du délai dans un système. La latence du réseau représente le temps nécessaire aux données pour se déplacer d’un point à un autre sur un réseau. Un réseau à latence élevée aura des temps de réponse plus lents, tandis qu’un réseau à faible latence aura des temps de réponse plus rapides.

En théorie, les données sont censées parcourir Internet à une vitesse proche de celle de la lumière, mais dans la pratique, les paquets de données se déplacent sur Internet à un débit légèrement plus lent en raison des délais liés à la distance, à l’infrastructure Internet et à d’autres variables.1 La somme de ces délais constitue la latence d’un réseau.

Une intelligence artificielle plus performante pour les opérations informatiques (AIOps)

Découvrez comment l’APM et l’ARM peuvent permettre de prendre des décisions et d’allouer des ressources aux applications plus rapidement.

Contenu connexe

Lire le guide sur l’automatisation intelligente

Pourquoi la latence du réseau est-elle importante ?

Maintenir un réseau à faible latence est important, car la latence affecte directement la productivité, la collaboration, les performances des applications et l’expérience utilisateur. Plus la latence est élevée (et donc plus les temps de réponse sont lents), plus ces domaines rencontrent de difficultés. La faible latence est d’autant plus cruciale que les entreprises poursuivent leur transformation numérique et deviennent de plus en plus dépendantes des applications et des services basés sur le cloud au sein de l’Internet des objets.

Commençons par un exemple évident. Si une latence élevée du réseau entraîne des performances d’applications insuffisantes ou des temps de chargement lents pour vos clients, ces derniers sont susceptibles de rechercher d’autres solutions. Aujourd’hui plus que jamais, les utilisateurs individuels et professionnels attendent des performances ultra-rapides. Si votre organisation utilise des applications d’entreprise qui s’appuient sur des données extraites en temps réel de différentes sources pour faire des recommandations en matière de ressources, une latence élevée peut engendrer des problèmes d’efficacité. Ces problèmes peuvent avoir un impact négatif sur les performances et la valeur des applications.

Toutes les entreprises préfèrent une faible latence. Cependant, dans les secteurs et les cas d’utilisation qui dépendent des données de capteurs ou du calcul haute performance, comme la fabrication automatisée, les opérations à distance grâce à la vidéo (pensez aux caméras utilisées pour la chirurgie), le streaming en direct ou le trading haute fréquence, une faible latence est essentielle au succès de l’entreprise.

Une latence élevée peut également entraîner des dépenses inutiles. Supposons que vous souhaitiez améliorer les performances des applications et du réseau en augmentant ou en réaffectant vos dépenses liées au calcul, au stockage et aux ressources réseau. Si vous n’arrivez pas à résoudre les problèmes de latence existants, vous risquez de vous retrouver avec une facture plus élevée, sans parvenir à améliorer les performances, la productivité ou la satisfaction client.

Comment mesure-t-on la latence ?

La latence du réseau est mesurée en millisecondes en calculant l’intervalle de temps entre le lancement d’une opération d’envoi à partir d’un système source et l’achèvement de l’opération de réception correspondante par le système cible.2

Un moyen simple de mesurer la latence consiste à exécuter une commande « ping », qui est un outil de diagnostic réseau utilisé pour tester la connexion entre deux appareils ou serveurs. Au cours de ces tests de débit, la latence est souvent appelée ping.

Dans ce test, un paquet de requêtes Echo ICMP (Internet Control Message Protocol) est envoyé à un serveur cible et retourné. Une commande ping calcule le temps qu’il faut au paquet pour voyager de la source à la destination et inversement. Ce temps de trajet total est appelé temps aller-retour (RTT) et équivaut environ à la latence multipliée par deux, car les données doivent être acheminées vers le serveur, puis faire le trajet retour. Le ping n’est pas considéré comme une mesure exacte de la latence ni comme le test idéal pour détecter les problèmes de latence directionnelle du réseau. Cette limitation s’explique par le fait que les données peuvent transiter par différents chemins réseau et rencontrer des scénarios divers à chaque étape du trajet.

 

Latence, bande passante et débit

La latence, la bande passante et le débit sont liés. Ces termes sont parfois utilisés de façon interchangeable comme s’ils étaient synonymes, mais ils font en fait référence à des fonctionnalités réseau distinctes. Comme nous l’avons dit, la latence est le temps qu’il faut à un paquet de données pour voyager entre deux points à travers une connexion réseau.

Bande passante

La bande passante est une mesure du volume de données pouvant transiter par un réseau à tout moment. Ce volume est mesuré en unités de données par seconde, telles que les mégabits par seconde (Mbit/s) ou les gigabits par seconde (Gbit/s). C’est cette mesure que vous avez l’habitude d’entendre de la part de votre fournisseur Internet lorsque vous choisissez des options de connexion pour votre maison. Cette notion sème la confusion, car la bande passante n’est pas une mesure de vitesse, mais de capacité. Bien qu’une bande passante élevée puisse faciliter une vitesse Internet élevée, ces capacités dépendent également de facteurs tels que la latence et le débit.

Débit

Le débit est une mesure de la quantité moyenne de données qui transitent réellement par un réseau dans un laps de temps donné, en tenant compte de l’impact de la latence. Il reflète le nombre de paquets de données qui arrivent bel et bien et le nombre de paquets de données perdus.  Il est généralement mesuré en bits par seconde, ou parfois, en données par seconde.

Gigue

Parmi les facteurs de performance du réseau, on retrouve également la gigue. La gigue fait référence à la variation de la latence des flux de paquets sur un réseau. Une latence constante est préférable à une gigue élevée, qui peut contribuer à la perte de paquets, c’est-à-dire des paquets de données abandonnés pendant la transmission, n’arrivant jamais à destination.

Voici une explication simplifiée pour vous souvenir de la relation entre latence, bande passante et débit : la bande passante est la quantité de données pouvant transiter sur un réseau, le débit est la mesure de la quantité de transferts réels par seconde et la latence est le temps qu’il faut pour réaliser ces transferts.

Quelles sont les causes à l’origine de la latence du réseau ?

Visualiser le parcours des données entre le client et le serveur et inversement permet de comprendre la latence et les différents facteurs qui y contribuent. Les causes courantes de latence du réseau sont les suivantes :

La distance que les données doivent parcourir

Pour faire simple, plus la distance entre le client initiant une requête et le serveur y répondant est grande, plus la latence est élevée. La différence entre un serveur à Chicago et un serveur à New York répondant à une requête d’un utilisateur à Los Angeles peut n’être que de quelques millisecondes. Mais dans ce contexte, ce n’est pas rien, et ces millisecondes s’ajoutent les unes aux autres.

Supports de transmission et nombre de sauts de réseau

Pensez ensuite au support sur lequel transitent vos données. S’agit-il d’un réseau de câbles de fibre optique (généralement à plus faible latence) ou d’un réseau sans fil (généralement à latence plus élevée), ou d’un ensemble complexe de réseaux à supports multiples, comme c’est souvent le cas ?

Le support utilisé pour le déplacement des données a une incidence sur la latence, tout comme le nombre de fois où les données doivent passer par des périphériques réseau, tels que des routeurs, pour passer d’un segment de réseau à l’autre (sauts de réseau) avant d’atteindre leur destination. Plus le nombre de sauts est grand, plus la latence est élevée.

Taille des paquets de données et congestion du réseau

La taille des paquets de données et le volume global de données sur un réseau ont tous deux une incidence sur la latence. Les paquets plus volumineux prennent plus de temps à être transmis, et si le volume de données dépasse la capacité de calcul de l’infrastructure réseau, vous risquez de rencontrer des goulots d’étranglement et une latence accrue.

Performances matérielles

Des serveurs, des routeurs, des concentrateurs, des commutateurs et d’autres équipements matériels réseau obsolètes ou ne disposant pas des ressources nécessaires peuvent entraîner des temps de réponse plus lents. Par exemple, si les serveurs reçoivent plus de données qu’ils ne peuvent en gérer, les paquets seront retardés, ce qui ralentira le chargement des pages, les vitesses de téléchargement et les performances des applications.

Construction d’une page Web

Les images et les vidéos dont le fichier est volumineux, les ressources bloquant le rendu et les caractères inutiles dans le code source peuvent tous contribuer à la latence élevée.

Facteurs côté utilisateur

Parfois, la latence est causée par des facteurs du côté de l’utilisateur, comme une bande passante insuffisante, une mauvaise connexion Internet ou un équipement obsolète.

Comment réduire la latence ?

Pour réduire la latence sur votre réseau, vous pouvez commencer par évaluer le réseau :

-       Nos données empruntent-elles l’itinéraire le plus court et le plus efficace ?

-       Nos applications disposent-elles des ressources nécessaires pour offrir des performances optimales ?

-       Notre infrastructure réseau est-elle à jour et adaptée à la tâche ?

Distribuer les données à l’échelle mondiale

Commençons par la question de la distance. Où se trouvent vos utilisateurs ? Et où sont les serveurs qui répondent à leurs requêtes ? En répartissant vos serveurs et vos bases de données plus près de vos utilisateurs, vous pouvez réduire la distance physique que les données doivent parcourir et réduire les problèmes de routage et les sauts de réseau.

L’une des façons de distribuer les données à l’échelle mondiale consiste à utiliser un réseau de distribution de contenuou CDN. L’utilisation d’un réseau de serveurs distribués vous permet de stocker du contenu plus près de vos utilisateurs finaux, réduisant ainsi la distance que les paquets de données doivent parcourir. Mais que se passe-t-il si vous souhaitez aller au-delà de la diffusion de contenu mis en cache ?

L’edge computing est une stratégie utile, car elle permet aux organisations d’étendre leur environnement cloud du centre de données principal à des emplacements physiques plus proches de leurs utilisateurs et de leurs données. Grâce à l’edge computing, les organisations peuvent exécuter les applications au plus près des utilisateurs finaux et ainsi réduire la latence.

Utiliser un sous-réseau

Un sous-réseau est essentiellement un réseau plus petit à l’intérieur de votre réseau. Les sous-réseaux regroupent les terminaux qui communiquent fréquemment entre eux, ce qui peut réduire les problèmes de routage et la latence.

Utiliser une solution de gestion de la performance des applications

Les outils de surveillance traditionnels ne sont pas assez rapides ni minutieux pour repérer et contextualiser de manière proactive les problèmes de performance dans les environnements complexes d’aujourd’hui. Pour garder une longueur d’avance sur les problèmes, vous pouvez utiliser une solution telle que la plateforme Instana Observability, qui fournit une cartographie en temps réel de l’observabilité de bout en bout et des dépendances. Ces capacités permettent aux équipes d’identifier, de contextualiser, de gérer et de prévenir les problèmes de performance des applications qui contribuent à la latence du réseau.

Optimiser l’allocation des ressources et le placement des workloads

Si les workloads ne disposent pas des ressources appropriées de calcul, de stockage et de réseau, la latence augmente et les performances en pâtissent. Essayer de résoudre ce problème en les surdimensionnant s’avère inefficace et inutile, et tenter de faire correspondre manuellement la demande dynamique aux ressources dans les infrastructures modernes complexes est mission impossible.

Une solution de gestion des ressources applicatives, comme la plateforme IBM Turbonomic, qui analyse de façon continue l’utilisation des ressources et les performances des composants d’application et d’infrastructure en temps réel, peut aider à résoudre les problèmes liés aux ressources et à réduire la latence.

Par exemple, si la plateforme détecte une application dont la latence est élevée en raison d’un conflit de ressources sur un serveur, elle peut réduire la latence. Pour ce faire, elle alloue automatiquement les ressources nécessaires à l’application, ou bien elle déplace l’application vers un serveur moins encombré.

Surveiller les performances réseau

Des tests tels que la commande ping peuvent fournir une mesure simple de la latence du réseau. Cependant, ils sont insuffisants pour identifier les problèmes, et encore plus pour les résoudre. Vous pouvez utiliser une solution de gestion de la performance réseau comme IBM SevOne NPM qui fournit une plateforme unifiée pour aider vos équipes à repérer, à gérer et à prévenir les problèmes de performance réseau et à réduire la latence.

Maintenir une infrastructure performante et à jour

Assurez-vous d’utiliser des configurations matérielles, logicielles et réseau à jour et veillez à ce que votre infrastructure soit capable de gérer ce que vous attendez d’elle. Effectuer régulièrement des vérifications et la maintenance de votre réseau contribuera également à réduire les problèmes aux performances et la latence.

Optimiser les actifs et le codage de la page

Les développeurs peuvent prendre des mesures pour s’assurer que la construction de la page ne contribue pas à la latence, notamment en optimisant les vidéos, les images et d’autres actifs de la page accélérer le chargement, et en minimisant le code.

Solutions connexes
Observabilité IBM Instana Observability

La plateforme IBM Instana Observability offre une surveillance améliorée des performances des applications avec une visibilité automatisée sur l’ensemble de la pile, une granularité à la seconde près et des notifications dans un délai de trois secondes.

En savoir plus sur Instana Observability Demander une démonstration d’Instana Observability

Optimisation des coûts du cloud hybride IBM Turbonomic

Conçue pour optimiser les coûts liés au cloud hybride, la plateforme Turbonomic vous permet d’automatiser en continu et en temps réel les actions critiques qui garantissent que vos applications utilisent efficacement vos ressources de calcul, de stockage et de mise en réseau, et ce à chaque couche de la pile. 

En savoir plus sur Turbonomic Voir la démo interactive

Gestion des performances du réseau IBM SevOne Network Performance Management

Conçu pour les réseaux modernes, IBM SevOne Network Performance Management (NPM) vous aide à détecter, à résoudre et à éviter de façon proactive les problèmes de performance du réseau grâce à l’observabilité de réseau hybride. 

En savoir plus sur SevOne NPM
Ressources Modernisez la surveillance de votre performance réseau

Profitez de fonctions NPM modernes, dynamiques, flexibles et évolutives.

Répondre à la complexité croissante liée à la surveillance des performances réseau

Découvrez les capacités avancées dédiées à la visibilité, aux informations et aux actions en matière de réseau et d’applications.

Cinq étapes pour mieux gérer la performance de votre réseau

Découvrez les cinq étapes qui aideront rapidement les opérateurs et les ingénieurs réseau à mesurer leurs capacités de gestion des performances réseau par rapport à celles nécessaires dans les environnements informatiques modernes.

Groupe Enento

Découvrez comment le principal fournisseur d’informations sur les crédits dans les pays nordiques a utilisé Instana Observability pour accélérer l’identification des bogues, réduire la latence existante et obtenir une visibilité en temps réel sur chaque demande de service (sans échantillonnage).

Dealerware

Découvrez comment l’équipe DevOps de Dealerware a utilisé Instana Observability pour réduire la latence de livraison de 98 % pendant une période de croissance exponentielle.

Passez à l’étape suivante

IBM Instana fournit une observabilité en temps réel que tout le monde peut utiliser. La solution accélère la création de valeur tout en vérifiant que votre stratégie d’observabilité peut s’adapter à la complexité dynamique des environnements actuels et futurs. Du mobile au mainframe, Instana prend en charge plus de 250 technologies, et poursuit son expansion. 

Découvrir IBM Instana Réserver une démo en direct
Notes de bas de page

1Internet at the Speed of Light”, (lien externe à ibm.com), Yale.edu, 3 mai 2022

2Effect of the network on performance,” IBM.com, 3 mars 2021