Définition
La latence est le délai entre l’action d’un utilisateur et la réponse d’une application Web à cette action, souvent appelée en termes de réseau comme le temps total aller-retour qu’un paquet de données prend pour voyager.
Vue d’ensemble
La latence est généralement mesurée en millisecondes (ms) et est inévitable en raison de la façon dont les réseaux communiquent entre eux. Elle dépend de plusieurs aspects d’un réseau et peut varier si l’un d’eux est modifié.
Quatre composantes principales influent sur la latence du réseau, notamment :
- Support de transmission : Le chemin physique entre le point de départ et le point final. Le type de milieu peut avoir un impact sur la latence. Par exemple, les vieux réseaux câblés en cuivre ont une latence plus élevée que les fibres optiques modernes.
- Propagation : Plus les deux nœuds sont éloignés, plus il y a de latence, car la latence dépend de la distance entre les deux nœuds communicants. Théoriquement, la latence d’un paquet allant sur un voyage à travers le monde est de 133ms. En réalité, un tel aller-retour prend plus de temps, bien que la latence soit réduite lorsque des connexions directes via les réseaux de base sont réalisées.
- Routeurs : L’efficacité avec laquelle les routeurs traitent les données entrantes a un impact direct sur la latence. Les sauts de routeur peuvent augmenter la latence.
- Retards de stockage : l’accès aux données stockées peut augmenter la latence, car le réseau de stockage peut prendre du temps à traiter et à renvoyer des informations.
Comment réduire la latence
La latence peut être réduite en traitant les composants susmentionnés et en s’assurant qu’ils fonctionnent correctement. Il peut également être réduit en utilisant des réseaux dédiés qui rationalisent le chemin du réseau et fournissent une communication directe entre les nœuds.
Les fournisseurs de réseaux de diffusion de contenu (RNC) comme un fournisseur qui fournissent aux clients des réseaux privés qui leur permettent de contourner l’Internet public. Ces réseaux privés réduisent la latence en fournissant des chemins plus efficaces pour les paquets de données à parcourir.
Fonctionnement de la latence
Examinons comment la latence fonctionne réellement et comment, en tant qu’utilisateur, vous êtes habituellement touché par elle. Considérez que vous achetez un produit par l’intermédiaire d’une boutique en ligne et que vous appuyez sur le bouton « Ajouter au panier » pour un produit que vous aimez.
La chaîne d’événements qui se produisent lorsque vous appuyez sur ce bouton sont :
- Vous appuyez sur le bouton « Ajouter au panier ».
- Le navigateur identifie cet événement et lance une requête aux serveurs du site. L’horloge de la latence commence maintenant.
- La demande se déplace vers le serveur du site avec toutes les informations pertinentes.
- Le serveur du site accuse réception de la demande et la première moitié de la latence est terminée.
- La demande est acceptée ou rejetée et traitée.
- Le serveur du site répond à la demande avec les informations pertinentes.
- La demande atteint votre navigateur et le produit est ajouté à votre panier. Avec cela, le cycle de latence est terminé.
Le temps qu’il faille pour que tous ces événements se terminent est connu sous le nom de latence.
Latence vs bande passante vs débit
Les performances de votre réseau et de votre application dépendent de la latence, de la bande passante et du débit, mais il est important de ne pas confondre l’un avec l’autre.
La bande passante est la quantité de données qui peut passer à travers un réseau à un moment donné. Considérez la bande passante comme étant la largeur ou l’étroitesse d’un tuyau. Un tuyau plus large permet de faire passer plus de données. Le débit, cependant, est la quantité de données qui peuvent être transférées sur une période donnée.
Une connexion réseau efficace est composée de faible latence et de bande passante élevée. Cela permet un débit maximal. La bande passante ne peut être augmentée que d’une quantité finie car la latence finira par créer un goulot d’étranglement et limiter la quantité de données qui peuvent être transférées au fil du temps.
Exemples de latence
Une latence élevée peut affecter les performances de votre réseau et réduire considérablement la rapidité avec laquelle votre application communique avec les utilisateurs. Un réseau de diffusion de contenu permet aux clients d’atteindre leurs utilisateurs de la manière la plus efficace possible. Ces canaux de diffusion réduisent considérablement le décalage du réseau entre l’utilisateur et l’application.
Vous pouvez vérifier la latence réseau de votre connexion internet avec n’importe quel site web en passant son adresse web ou IP dans l’invite de commande sur un Windows ou Mac. Voici un exemple de l’invite de commande sur Windows :
C:\Users\user>ping www.google.com Envoi d’une requête 'ping' sur www.google.com [142.250.201.36] avec 32 octets de données : Réponse de 142.250.201.36 : octets=32 temps=36 ms TTL=113 Réponse de 142.250.201.36 : octets=32 temps=35 ms TTL=113 Réponse de 142.250.201.36 : octets=32 temps=35 ms TTL=113 Réponse de 142.250.201.36 : octets=32 temps=34 ms TTL=113 Statistiques Ping pour 142.250.201.36: Paquets : envoyés = 4, reçus = 4, perdus = 0 (perte 0%), Durée approximative des boucles en millisecondes : Minimum = 34ms, Maximum = 36ms, Moyenne = 35ms
Ici vous pouvez voir le résultat du ping www.google.com. Les statistiques montrent que le temps moyen qu’il faut pour un aller-retour entre le PC donné et le réseau de Google est de 35ms.
Principaux points à retenir
- La latence est le temps qu’il faut à un paquet de données pour se rendre de l’expéditeur au destinataire et revenir à l’expéditeur.
- Une latence élevée peut engorger un réseau et réduire ses performances.
- Vous pouvez rendre vos applications Web moins latentes en utilisant un réseau CDN et un réseau privé pour transférer des données.