Quelle est la différence entre «Latence» et «Temps de trajet aller-retour»?

14

La communauté Golang fournit un site Web de démonstration HTTP / 2 pour comparer les performances entre HTTP 1.1 et HTTP / 2.

Nous pouvons choisir différents latency, par exemple latence 0 s, latence 30 ms, latence 200 ms.

  1. Est latencyune terminologie de l'informatique?
  2. Qu'est-ce que ça veut dire?
  3. Quelle est la différence entre latencyet Round Trip Time?

entrez la description de l'image ici

Ryan Lv
la source
Cette question et cette réponse peuvent vous aider à comprendre.
Ron Maupin
Une réponse vous a-t-elle aidé? si c'est le cas, vous devez accepter la réponse afin que la question ne continue pas d'apparaître indéfiniment, à la recherche d'une réponse.
Ron Maupin

Réponses:

20

La latence du réseau est le temps qu'il faut à un élément envoyé depuis un hôte source pour atteindre un hôte de destination. La latence comporte de nombreux composants, et la latence peut en fait être différente de A à B et de B à A.

Le temps d'aller-retour correspond au temps nécessaire à une demande envoyée d'une source à une destination et à la réponse pour revenir à la source d'origine. Fondamentalement, la latence dans chaque direction, plus le temps de traitement.

Ron Maupin
la source
10

La «latence» peut signifier différentes choses. Généralement, il s'agit d'un retard quelconque - la latence de l'application est le temps de réaction d'une application (de l'entrée à la sortie), la latence du réseau le délai pour obtenir un paquet du point A au point B et ainsi de suite.

Le "temps d'aller-retour" est plus ou moins bien défini comme le retard du réseau du point A au point B et vice-versa. Il s'agit de la somme de tous les retards d'encodage, de mise en file d'attente, de traitement, de décodage et de propagation dans les deux sens. Essentiellement, c'est le délai lorsque A peut attendre une réponse de B pour une demande qui nécessite très peu de traitement.

Très souvent, le temps d'aller-retour est comparé au temps de ping entre A et B. Le temps de ping peut fournir une bonne valeur pour le RTT efficace mais il peut également être autre chose, en raison des différences potentielles de routage et de traitement entre les paquets ICMP utilisés par ping et ceux des paquets de protocole réellement utilisés.

Dans votre cas, "latence" signifie un retard artificiel au sein du serveur HTTP qui s'ajoute aux retards déjà présents. Donc, si vous avez un temps d'aller-retour effectif de 50 ms vers le serveur et sélectionnez "200 ms de latence", vous pouvez vous attendre à une réponse à une demande dans les 250 ms (plus les frais généraux de traitement sur le serveur).

Zac67
la source
4

Pour ajouter un peu de contexte aux autres réponses, il faut se rappeler que la latence du réseau peut varier considérablement et avoir un impact sur l'expérience d'un utilisateur.

L'une des sources les plus évidentes de latence du réseau est la distance: les signaux qui transportent vos données voyagent plus ou moins à la vitesse de la lumière, donc plus la distance parcourue du client au serveur est longue, plus la latence est élevée. La communication entre deux ordinateurs reliés par un câble Ethernet prendra quelques millisecondes. La communication avec un serveur à travers un océan prendra des dizaines ou des centaines de millisecondes. La communication qui passe par un satellite géostationnaire prendra des centaines de millisecondes.

Ceci est clairement visible lors d'un ping, qui mesure le temps d'aller-retour, qui dans ce cas est très proche de la somme de la latence dans les deux directions.

Quelques autres choses qui ont une influence sur la latence:

  • le nombre de liens / sauts: dans la plupart des cas, un paquet doit être entièrement reçu avant de pouvoir être envoyé sur le lien suivant. Cela ajoute un peu de latence à chaque saut;
  • le débit de ces liens: plus le lien est lent, plus il faut du temps pour que le paquet complet passe, et donc soit transmis sur le lien suivant;
  • la charge de ces liens: si un lien est plein, le paquet peut devoir être mis en file d'attente jusqu'à ce qu'il puisse être envoyé;
  • pour les liaisons avec retransmission locale, le taux d'erreur sur la liaison: plus le taux d'erreur est élevé, plus les chances que le paquet ait besoin d'être renvoyé sont élevées.

La latence peut avoir un effet important sur l'expérience utilisateur (ou non):

  • le cas le plus connu est la latence affectant les joueurs de MMORPG et d'autres jeux en ligne.
  • tout élément interactif où l'interaction est contrôlée de l'autre côté est affecté par la latence. Telnet / ssh, bureau à distance, sont tous affectés par la latence.
  • la communication vocale est affectée par la latence, et avec une latence élevée, vous vous retrouvez tout le temps à vous interrompre.
  • les anciens protocoles de transfert de fichiers souffraient également de latence car ils n'implémentaient pas de fenêtres coulissantes, et l'expéditeur devait attendre que le paquet arrive à destination et que l'accusé de réception revienne avant d'envoyer le suivant.

Même avec des cas non interactifs, la latence peut avoir un effet (ce qui est illustré dans l'exemple de l'OP): lorsqu'il y a beaucoup de petits fichiers à télécharger, la latence peut entraîner un temps de chargement total plus élevé si le protocole doit attendre un fichier à télécharger complètement avant de commencer le téléchargement de la suivante, par rapport à un protocole qui permettrait d'envoyer plusieurs requêtes à la fois, et d'envoyer les réponses sans interruption entre les fichiers successifs.

jcaron
la source
4

Le temps d'aller-retour (RTT) est le temps qu'il faut à un paquet pour passer du point d'extrémité émetteur au point d'extrémité récepteur et vice-versa. De nombreux facteurs affectent le RTT, notamment le délai de propagation, le délai de traitement, le délai de mise en file d'attente et le délai de codage. Ces facteurs sont généralement constants pour une paire donnée de points d'extrémité communicants. De plus, l'encombrement du réseau peut ajouter un composant dynamique à RTT.

RTT et ping sont-ils les mêmes?

Le temps d'aller-retour et le temps de ping sont souvent considérés comme synonymes. Bien que le temps de ping puisse fournir une bonne estimation RTT, il diffère en ce que la plupart des tests de ping sont exécutés dans le protocole de transport à l'aide de paquets ICMP. En revanche, le RTT est mesuré au niveau de la couche application et inclut le retard de traitement supplémentaire produit par les protocoles et applications de niveau supérieur (par exemple HTTPS).

Qu'en est-il du RTT et de la latence du réseau?

La latence du réseau est étroitement liée, mais différente de RTT. La latence est le temps nécessaire à un paquet pour passer du point d'extrémité émetteur au point d'extrémité récepteur. De nombreux facteurs peuvent affecter la latence d'un service. La latence n'est pas explicitement égale à la moitié de RTT, car le retard peut être asymétrique entre deux points d'extrémité donnés. RTT inclut le retard de traitement au point d'extrémité en écho.

Jetez un œil à cet article de blog sur RTT pour plus d'informations.

allieatcsio
la source