Je discute avec un collègue d'une configuration potentielle. Nous mettons en œuvre une nouvelle solution lame dotée d'un commutateur 10 Gb intégré et de deux serveurs lames, chacun disposant de 4 cartes réseau 10 Gb.
Cependant, le reste de notre environnement est toujours de 1 Go.
Le commutateur lame a quatre ports externes 10GBASE-T qui détecteront automatiquement jusqu'à 1 Go. Nous prévoyons de les LAG.
Essentiellement, nous aurons 80 Gb de bande passante NIC sur un commutateur 10 Gb connecté avec une liaison inter-commutateur 4 Gb.
Je pense que nous devrions définir manuellement les ports internes à 1 Go, mais il ne pense pas qu'il y aura de problèmes de performances notables de la conception ci-dessus.
Veuillez me faire savoir si vous avez eu une expérience avec une configuration similaire, ou si vous connaissez des problèmes que nous pouvons anticiper.
Réponses:
Fondamentalement, vos faisceaux de liaisons 40 Gb seront uniquement destinés à la tolérance de panne, sauf si vous avez des transferts de lame à lame sur le commutateur de lame; même une seule connexion au serveur de 10 Go est supérieure à votre bande passante de liaison montante totale.
Il existe de nombreux réseaux et commutateurs à vitesse de port mixte. Cisco a une ligne directrice basée sur des recherches approfondies. Le rapport de la bande passante entre le port d'accès (vos connexions serveur) et le port de distribution (vos connexions externes) ne doit pas être supérieur à 20: 1. Cela signifie que pour chaque 20 Go de vitesse de port d'accès, vous avez besoin d'une vitesse de port de liaison montante de 1 Go. Ce que vous décrivez (80 Go à 4 Go) est de 20: 1. Le rapport distribution / cœur recommandé est beaucoup plus faible à 4: 1.
la source
Vous devez appliquer la QoS entre les commutateurs lame et le reste de votre environnement, pour éviter que les flux géants affament d'autres flux.
La façon dont cela peut être accompli dépend des spécifications matérielles, mais chacun de vos ports 10 GbE face à des commutateurs 1 GbE, dispose de 8 files d'attente matérielles (0-7, une file d'attente par valeur CoS), où les paquets attendent leur tour pour partir.
Vous avez la possibilité de configurer des algorithmes de planification utilisés par chaque file d'attente (priorité stricte ou une sorte de planification). La file d'attente où les trames Ethernet attendent de quitter les commutateurs lame peut être choisie lorsque les trames entrent dans le commutateur.
Le système d'exploitation du serveur, les hyperviseurs, doivent marquer les trames Ethernet, tandis que les commutateurs lame doivent respecter les valeurs CoS, en faisant confiance à leur homologue.
Une fois marquées, les images se termineront dans la file d'attente souhaitée, vous gardant le contrôle.
En savoir plus sur la prise en charge et la configuration du Data Center Bridging ( DCB ) entre les serveurs lames et les commutateurs.
Vérifiez la prise en charge DCB dans les commutateurs 1 GbE: si les commutateurs 1 Gb sont conformes DCB, les trames de pause dirigées vers les commutateurs lame agiront sur des files d'attente spécifiques en cas de congestion (Ethernet Priority Flow Control), tandis que les files d'attente de priorité supérieure continueront de déplacer les trames Ethernet.
la source
Il n'y a pas de différence. Parce que vous avez le même port sur le commutateur avec une bande passante de 1 Go et 10 Go. Ce commutateur a probablement un tampon de paquets partagé qui ne cause pas de problème de chute de microrafales. Mais si vous obtenez un commutateur de bundle qui a des tampons séparés sur différents ports, vous risquez de ne pas avoir d'espace libre dans la file d'attente de sortie à des moments de charge élevée.
la source