Pour le moment, nous essayons de décider si nous allons déplacer notre centre de données de la côte ouest à la côte est.
Cependant, je vois des chiffres de latence inquiétants de ma côte ouest à la côte est. Voici un exemple de résultat: récupérer un petit fichier de logo .png dans Google Chrome et utiliser les outils de développement pour voir la durée de la demande:
- Côte ouest à côte est: temps de
latence de 215 ms, temps de transfert de 46 ms, total de 261 ms - Côte ouest à côte ouest:
latence de 114 ms, temps de transfert de 41 ms, total de 155 ms
Il est logique que Corvallis, OR se trouve géographiquement plus proche de mon emplacement à Berkeley, en Californie, donc je m'attends à ce que la connexion soit un peu plus rapide. serveur. Cela me semble excessif. Surtout que le temps passé à transférer les données réelles n'a augmenté que de 10%, mais que le temps de latence a augmenté de 100%!
Cela me semble… mal… pour moi.
J'ai trouvé quelques liens utiles (via Google, pas moins!) ...
- La distance de routage affecte-t-elle les performances de manière significative?
- Comment la géographie affecte-t-elle la latence du réseau?
- Latence dans les connexions Internet de l'Europe aux États-Unis
... mais rien d'autorité.
Alors, est-ce normal? Cela ne semble pas normal. Quelle est la latence "typique" à laquelle je devrais m'attendre lors du déplacement de paquets réseau de la côte est <-> côte ouest des États-Unis?
la source
Réponses:
Vitesse de la lumière:
vous n'allez pas battre la vitesse de la lumière en tant que point académique intéressant. Ce lien fonctionne de Stanford à Boston à environ 40ms du meilleur temps possible. Lorsque cette personne a effectué le calcul, il a décidé qu'Internet fonctionnait environ "dans un facteur de deux de la vitesse de la lumière", ce qui donne un temps de transfert d'environ 85 ms.
Taille de la fenêtre TCP:
Si vous rencontrez des problèmes de vitesse de transfert, vous devrez peut-être augmenter la taille du TCP de la fenêtre de réception. Vous devrez peut-être également activer la mise à l'échelle des fenêtres s'il s'agit d'une connexion à bande passante élevée avec une latence élevée (appelée "tuyau long et épais"). Donc, si vous transférez un fichier volumineux, vous devez disposer d’une fenêtre de réception suffisamment grande pour remplir le tuyau sans attendre les mises à jour de la fenêtre. J'ai expliqué comment calculer cela dans ma réponse, Réglage d'un éléphant .
Géographie et latence:
Un des points faibles de certains CDN (réseaux de distribution de contenu) est qu’ils associent latence et géographie. Google a effectué de nombreuses recherches sur son réseau et a découvert des failles dans ce domaine. Il a publié les résultats dans le livre blanc « Aller au-delà des informations de chemin de bout en bout pour optimiser les performances CDN» :
Peerings BGP:
si vous commencez à étudier le protocole BGP (protocole de routage Internet principal) et la manière dont les fournisseurs de services Internet choisissent les peerings, vous constaterez qu'il s'agit souvent davantage d'une question de finances et de politique, de sorte que vous ne pouvez pas toujours obtenir le "meilleur" itinéraire vers certains sur votre FAI. Vous pouvez voir comment votre adresse IP est connectée à d'autres FAI (systèmes autonomes) à l'aide d'un routeur en verre . Vous pouvez également utiliser un service whois spécial :
Il est également amusant d’explorer ces liens en tant que peerings avec un outil graphique comme linkrank , qui vous donne une image de l’Internet autour de vous.
la source
Ce site suggère une latence d'environ 70 à 80 ms entre la côte est / ouest des États-Unis (San Francisco à New York par exemple).
Voici mes horaires (je suis à Londres, en Angleterre, donc mes temps sur la côte Ouest sont plus élevés que ceux de l'Est). J'obtiens une différence de latence de 74 ms, ce qui semble corroborer la valeur de ce site.
Celles-ci ont été mesurées à l'aide des outils de développement de Google Chrome.
la source
71 ms
à ce niveau, vous avez donc raison: nous ne pouvons pas espérer faire mieux que cela.Mesurez d'abord avec ICMP, si possible. Les tests ICMP utilisent généralement une très petite charge utile par défaut, n'utilisent pas de négociation à trois voies et ne doivent pas interagir avec une autre application en amont de la pile, contrairement à HTTP. Quoi qu'il en soit, il est de la plus haute importance que les résultats HTTP ne soient pas mélangés aux résultats ICMP. Ce sont des pommes et des oranges.
En se référant à la réponse de Rich Adams et en utilisant le site qu’il a recommandé, vous pouvez voir que sur le réseau principal d’AT & T, il faut 72 ms pour que le trafic ICMP se déplace entre leurs points finaux SF et NY. C'est un chiffre raisonnable, mais vous devez garder à l'esprit qu'il s'agit d'un réseau entièrement contrôlé par AT & T. Il ne tient pas compte de la transition vers votre réseau domestique ou professionnel.
Si vous faites un ping contre careers.stackoverflow.com depuis votre réseau source, vous devriez voir quelque chose qui n’est pas trop éloigné de 72 ms (peut-être +/- 20 ms). Si tel est le cas, vous pouvez probablement supposer que le chemin d'accès réseau entre vous deux est correct et qu'il fonctionne dans des limites normales. Sinon, ne paniquez pas et mesurez à partir de quelques autres endroits. Ce pourrait être votre fournisseur de services Internet.
En supposant que cela soit fait, votre prochaine étape consiste à aborder la couche d'application et à déterminer si la surcharge supplémentaire que vous constatez avec vos requêtes HTTP présente un problème. Cela peut varier d’une application à l’autre en raison du matériel, du système d’exploitation et de la pile d’applications. Toutefois, comme vous disposez d’un équipement à peu près identique sur les côtes est et ouest, vous pouvez amener les utilisateurs de la côte est à se rendre sur les serveurs de la côte ouest et ceux de la côte ouest à l’est. côte. Si les deux sites sont correctement configurés, je m'attendrais à ce que tous les chiffres soient moins égaux et démontrent par conséquent que ce que vous voyez est à peu près équivalent à ce qui est grossier.
Si les temps HTTP varient beaucoup, je ne serais pas surpris qu'il y ait un problème de configuration sur le site dont la performance est la plus lente.
Maintenant, une fois que vous en êtes à ce stade, vous pouvez essayer de faire une optimisation plus agressive du côté de l'application afin de voir si ces nombres peuvent être réduits du tout. Par exemple, si vous utilisez IIS 7, tirez-vous parti de ses fonctionnalités de mise en cache, etc.? Peut-être que vous pourriez gagner quelque chose là-bas, peut-être pas. Lorsqu'il s'agit de modifier des éléments de bas niveau tels que les fenêtres TCP, je suis très sceptique sur le fait que cela aurait un impact considérable sur quelque chose comme Stack Overflow. Mais hé - vous ne saurez pas avant d'essayer et de mesurer.
la source
Plusieurs des réponses ici utilisent ping et traceroute pour leurs explications. Ces outils ont leur place, mais ils ne sont pas fiables pour mesurer les performances du réseau.
En particulier, certains routeurs Juniper (au moins certains) envoient le traitement des événements ICMP au plan de commande du routeur. C’est BEAUCOUP plus lent que le plan de transfert, en particulier dans un routeur de réseau fédérateur.
Dans d'autres circonstances, la réponse ICMP peut être beaucoup plus lente que les performances de transfert réelles d'un routeur. Par exemple, imaginons un routeur entièrement logiciel (sans matériel de transfert spécialisé) représentant 99% de la capacité de la CPU, mais le trafic est néanmoins maintenu dans de bonnes conditions. Voulez-vous qu'il passe de nombreux cycles à traiter les réponses de traceroute ou à transférer le trafic? Le traitement de la réponse est donc une priorité super faible.
En conséquence, les commandes ping / traceroute vous donnent une limite supérieure raisonnable - les choses vont au moins aussi vite - mais elles ne vous disent pas vraiment à quelle vitesse le trafic réel va.
En tout cas -
Voici un exemple de traceroute de l’Université du Michigan (centre des États-Unis) à Stanford (côte ouest des États-Unis). (Il se trouve que vous passez par Washington, DC (côte est des États-Unis), qui se trouve à 500 milles dans la "mauvaise" direction.)
Notez en particulier la différence de temps entre les résultats de traceroute du routeur de lavage et du routeur Atla (sauts 7 et 8). le chemin du réseau va d'abord laver puis atla. le lavage prend 50-100 ms pour répondre, atla prend environ 28 ms. Clairement, atla est plus loin, mais ses résultats en matière de traçage suggèrent qu’il est plus proche.
Voir http://www.internet2.edu/performance/ pour de nombreuses informations sur la mesure du réseau. (disclaimer, je travaillais pour internet2). Voir aussi: https://fasterdata.es.net/
Pour ajouter une pertinence particulière à la question initiale ... Comme vous pouvez le constater, j’avais un temps de transfert aller-retour de 83 ms pour stanford. Nous savons donc que le réseau peut au moins aller aussi vite.
Notez que le chemin de réseau de recherche et d’éducation que j’ai emprunté sur ce traceroute sera probablement plus rapide qu’un chemin d’internet de base. En règle générale, les réseaux de R & E surapprovisionnent leurs connexions, ce qui rend peu probable la mise en mémoire tampon de chaque routeur. Notez également le long chemin physique, plus long que les côtes, bien qu'il soit clairement représentatif du trafic réel.
michigan-> washington, dc-> atlanta-> houston-> los angeles-> stanford
la source
Je vois des différences constantes et je suis assis en Norvège:
Cela a été mesuré avec la méthode scientifique précise et éprouvée d'utilisation de la vue ressources de Google Chrome et d'actualisation répétée de chaque lien.
Traceroute to serverfault
Traceroute aux carrières
Malheureusement, il commence maintenant à entrer dans une boucle ou quoi, et continue à donner des étoiles et un timeout jusqu'à 30 sauts, puis se termine.
Notez que les traceroutes proviennent d'un hôte différent de celui du début. J'ai dû utiliser RDP sur mon serveur hébergé pour les exécuter.
la source
Je vois une latence d’environ 80 à 90 ms sur des liaisons bien gérées et bien mesurées entre les côtes est et ouest.
Il serait intéressant de voir où vous gagnez du temps de latence - essayez un outil comme le calque quatre traceroute (lft). Il y a de fortes chances que cela soit gagné sur le "dernier kilomètre" (c'est-à-dire chez votre fournisseur de haut débit local).
Il faut s’attendre à ce que le temps de transfert n’ait que très peu été impacté - la perte de paquets et la gigue sont des mesures plus utiles à prendre en compte lors de l’étude des différences de temps de transfert entre deux sites.
la source
Juste pour le plaisir, quand j'ai joué au jeu en ligne Lineage 2 NA en Europe:
La différence semble confirmer qu’il est raisonnable de considérer jusqu’à 100 ms, compte tenu de la nature imprévisible de l’Internet.
À l’aide du célèbre test d’actualisation de Google Chrome, le temps de chargement des documents est d’environ 130 ms.
la source
tout le monde ici a un très bon point. et sont corrects dans leur propre POV.
Et tout se résume à dire qu’il n’ya pas de réponse exacte ici, car il ya tellement de variables que toute réponse donnée peut toujours être fausse simplement en modifiant l’une des cent variables.
Tout comme la latence de 72 ms entre NY et SF, la latence entre PoP et PoP d’une porteuse d’un paquet. Cela ne prend en compte aucun des autres grands points signalés par certains sur l'encombrement, la perte de paquets, la qualité de service, les paquets en désordre, la taille des paquets ou le réacheminement du réseau entre le monde parfait du PoP à PoP. .
Et ensuite, lorsque vous ajoutez le dernier kilomètre (généralement plusieurs kilomètres) du point de présence à votre emplacement actuel dans les deux villes où toutes ces variables deviennent beaucoup plus fluides, la situation commence à augmenter de façon exponentielle en raison d'une capacité de devinette raisonnable!
À titre d’exemple, j’ai effectué un test entre les villes de New York et de SF pendant un jour ouvrable. Je l'ai fait un jour s'il n'y avait pas d '"incidents" majeurs dans le monde qui pourraient causer une pointe du trafic. Alors peut-être que ce n'était pas moyen dans le monde d'aujourd'hui! Mais néanmoins c'était mon test. En fait, j'ai mesuré d'un lieu d'affaires à un autre au cours de cette période et pendant les heures normales de bureau de chaque côte.
Dans le même temps, j'ai surveillé les numéros des fournisseurs de circuits sur le Web.
Les résultats ont été des nombres de latence entre 88 et 100 ms de porte à porte des emplacements commerciaux. Cela n'incluait aucun numéro de latence du réseau inter-bureaux.
La latence des réseaux du fournisseur de services variait entre 70 et 80 ms. Cela signifie que la latence du dernier kilomètre aurait pu être comprise entre 18 et 30 ms. Je n'ai pas corrélé les pics et les creux exacts entre les deux environnements.
la source
Horaires de New York:
Utilisation de Chrome sur une connexion résidentielle.
Utiliser lft depuis un VPS dans un centre de données à Newark, New Jersey:
la source