J'ai la possibilité d'héberger notre base de données / serveur Web dans une société d'hébergement géré sur la côte Est (États-Unis) ou sur la côte Ouest (États-Unis). Notre entreprise est basée à New York et les deux hébergeurs proposent à notre box une ligne T1 dédiée.
Quelle part de performance (en supposant que tous les autres facteurs sont égaux) pourrais-je prendre en termes de latence du réseau si je choisissais celui de la côte ouest par opposition à celui de la côte est? Je ne sais pas trop comment la géographie affecte les vitesses d'Internet lorsque les nombres et les distances deviennent vraiment grands (T1 et au-dessus, et des milliers de miles).
Merci!
networking
hosting
internet
latency
neezer
la source
la source
Réponses:
Il y a un retard de distance et toutes choses étant égales par ailleurs (efficacité de routage, frais généraux de traitement, congestion, etc.), un site de la côte ouest auquel un hôte de la côte est accède va prendre plus de temps que si ce site est à l'est côte, mais nous parlons de millisecondes ici.
la source
Toutes choses égales par ailleurs, vous aurez 44 millisecondes de latence supplémentaires uniquement en raison de la vitesse de la lumière. Donnez ou prenez 1/20 de seconde pour chaque paquet aller-retour. Pas grand-chose pour une utilisation Web typique. Passable pour les sessions ssh. Importante si vous accédez directement à votre base de données avec de nombreuses petites transactions consécutives.
J'ai ignoré une latence supplémentaire causée par des routeurs / répéteurs supplémentaires, qui pourraient être beaucoup, beaucoup plus élevés. J'ai supposé la distance 4400 km et la vitesse de la lumière en fibre 200000 km / s.
la source
Nous avions un client avec qui nous avons passé pas mal de temps à faire le tour de ce sujet. Ils étaient à l'origine hébergés à New York, et leur personnel est principalement situé dans la région de Boston. Ils déplaçaient leurs serveurs vers nos installations situées à Denver, à environ les deux tiers du chemin à travers le pays.
Une fois qu'ils ont déménagé, ils ont commencé à signaler des problèmes de performances à partir de leurs liens Comcast dans les bureaux à domicile. Auparavant, leur latence était inférieure à 10 ms, et elle atteignait 80 ms. Ils ont remarqué un ralentissement des performances atteignant leurs sites, mais ont déclaré: "Peut-être que nous allons juste devoir supporter de passer d'une vitesse fulgurante à de simples vitesses mortelles". Ils semblaient se rendre compte qu'il y avait des limites en raison de la géographie et que leurs utilisateurs sur la côte ouest auraient potentiellement de meilleures performances.
Nous avons fait plusieurs allers-retours. Après environ 6 mois, nous sommes passés à un autre FAI en amont principal, pour des raisons sans rapport avec ce client (meilleure tarification, plus de bande passante, mécontents du nombre de fenêtres de maintenance sur l'autre fournisseur), et avec le nouveau fournisseur, nous obtenions environ 45 ms latence moyenne pour ce client. À ce stade, leurs problèmes de performance semblent avoir disparu.
Juste pour vous donner une expérience sur un cas où ce type de problème a été constaté et les chiffres qui y sont liés.
Essayez d'utiliser "mtr" pour afficher des informations sur la latence et la perte de paquets aux différents terminaux distants. À moins que vous ne compreniez parfaitement le routage "à chemin lent", ignorez tout sauf le dernier saut répertorié sur cette sortie. Van Jacobson dit que les humains remarquent une latence à partir de 400 ms, mais se rendent compte que de nombreuses connexions nécessitent plusieurs échanges aller-retour, de sorte qu'une latence de 100 ms peut rapidement atteindre une seconde ...
D'après mon expérience, une latence de 250 ms commence à ressembler à une connexion sensiblement lente. 10 ms ou mieux se sent comme une connexion flamboyante. Cela dépend vraiment de ce que vous faites.
Sean
la source
Eh bien, les paquets descendent le long du fil suffisamment près de la vitesse de la lumière pour que le temps de transmission brut soit négligeable par rapport à d'autres facteurs. Ce qui importe, c'est l'efficacité du routage et la rapidité avec laquelle les périphériques de routage peuvent effectuer le routage. Cela ne peut malheureusement pas être déterminé uniquement sur la base de la distance géographique. Il existe une forte corrélation entre la distance et la latence, mais je ne connais pas de règle stricte et rapide.
la source
Le nombre de sauts entre le point A et le point B introduira une latence. Comptez le nombre de sauts car c'est votre meilleur indicateur.
Quelques mots de prudence. Les méthodes d'évaluation du chemin réseau ne sont pas cohérentes avec la façon dont le paquet réel circulera. ICMP peut être routé et recevoir une QoS différente. De plus, traceroute regarde généralement dans une direction, c'est-à-dire de la source à la destination. Voici quelques astuces pratiques.
Pour
traceroute
, essayez d' utiliser-I
,-U
ou-T
de voir comment le chemin varie. Regardez aussi-t 16
ou-t 8
. traceroutePing est en fait assez utile.
ping -R
vous montrera le chemin qu'il faut pour revenir! S'il diffère du chemin sortant, voyez où il va. pingla source
Je pense que la géographie aura beaucoup à voir avec le temps de transmission des paquets car plus vous allez loin, plus vous ajouterez de sauts affectant probablement la latence globale. Si vos clients vont être basés principalement sur la côte ouest, alors j'irais pour l'hébergement sur la côte ouest ... Même chose sur la côte est. Si vos clients viennent de partout aux États-Unis ou du monde ... alors vous n'aurez qu'à prendre la décision difficile de savoir de quel côté la latence est la plus faible.
Dans notre cas, nous sommes sur notre propre réseau (un grand intranet) et sommes en mesure de laisser nos routeurs prendre des décisions basées sur OSPF dans tout l'État :) Malheureusement, tout ce qui se trouve sur notre réseau dépend principalement de la disposition de nos FAI.
la source