Comme beaucoup de gens ici, je suppose que notre salle de serveurs a évolué au fil du temps.
Au début, nous n'avions qu'un seul serveur exécutant Microsoft Small Business Server 2000 et il était assis dans le coin, branché et a heureusement fait tous nos e-mails et pare-feu.
Au fil du temps, nous avons déployé quelques serveurs supplémentaires et ils se sont tous assis sur une étagère jusqu'à ce que nous prenions le saut d'utiliser quelques serveurs montés en rack (pourquoi en avons-nous besoin alors qu'ils sont si chers, ont demandé les compteurs de haricots!) En un petit mini armoire insonorisée.
Avance rapide de quelques années et maintenant nous avons 2 racks, avec beaucoup de stockage, commutateurs, serveurs, etc. et sommes sur le point de les déplacer tous vers un tout nouveau rack dans la salle et je me demandais s'il y avait des mots de sagesse, par exemple faire nous devons mettre à la terre le rack? L'opinion ici est divisée car certains pensent que le simple fait de visser les PDU sur le rack est donc mis à la terre.
Je sais que les salles de serveurs complètes et complètes auront toutes sortes de trucs fantaisistes comme la surveillance de l'environnement, les PDU avec des affichages de consommation électrique, etc. l'étendue de la défaillance du serveur.
Cependant, je soupçonne qu'il y a un certain nombre d'administrateurs système dont les salles de serveurs ont évolué et je serais donc intéressé d'entendre les principaux points douloureux que les gens ont connus et les fonctionnalités et équipements "grande victoire" et "incontournable".
Mes personnels sont
- obtenez des armoires de 800 mm de large plutôt que de 600 mm afin d'avoir de l'espace sur le côté pour les câbles
- utiliser des bras de gestion des câbles pour éviter le câblage de spaghetti
- les câbles réseau à code couleur peuvent être agréables à voir en un coup d'œil
- obtenir un plateau moniteur / clavier / souris
EDIT: J'ai supprimé "se débarrasser des panneaux latéraux et des portes avant / arrière sauf si vous avez vraiment besoin de la sécurité" de la liste ci-dessus après la réponse ci-dessous en disant qu'ils sont nécessaires pour une bonne circulation de l'air.
la source
Réponses:
Cette question est principalement basée sur l'opinion, l'OMI. Il existe sans aucun doute quelques bonnes pratiques et des lignes directrices standard pour certaines choses, mais une grande partie de cela se résume à "qu'est-ce que vous aimez?". Cela dit, je vais garder ma réponse brève. Quant à vos points:
obtenez des armoires de 800 mm de large plutôt que de 600 mm afin d'avoir de l'espace sur le côté pour les câbles
Plus d'espace pour les câbles est toujours bon.
utiliser des bras de gestion des câbles pour éviter le câblage de spaghetti
Je n'ai jamais été fan des bras de gestion des câbles. Je pense qu'ils gênent plus qu'ils n'aident. Vous pouvez obtenir une disposition des câbles propre et organisée sans les utiliser. Il faut de la planification et du travail, mais cela peut être fait.
les câbles réseau à code couleur peuvent être agréables à voir en un coup d'œil
Ça semble être une bonne idée. On fait ça. Il permet de savoir facilement en un coup d'œil si une interface est branchée sur un commutateur arrière, un commutateur frontal, un équilibreur de charge, une connexion commutateur à commutateur, etc. Ne devenez pas fou. Avoir 15 couleurs différentes pour les câbles annulera rapidement l'avantage. Respectez le moins de couleurs possible pour transmettre les informations dont vous avez besoin.
se débarrasser des panneaux latéraux et des portes avant / arrière, sauf si vous avez vraiment besoin de la sécurité
Je ne suis pas d'accord. Le flux d'air à travers le matériel monté en rack est conçu pour les armoires qui ont des côtés. Enlever les côtés endommagera probablement le flux d'air de votre allée froide / chaude. Sauf si vous avez une raison impérieuse / besoin de prendre les côtés, mon conseil est de les laisser.
obtenir un plateau moniteur / clavier / souris
Si vos serveurs ont intégré des solutions de gestion hors bande (iLO, iDRAC, etc.), vous pourrez peut-être vous en sortir sans KVM. Si vous avez besoin d'un KVM, mon conseil est d'obtenir un KVM basé sur IP qui vous donnera accès au KVM via le réseau.
Encore une chose; si vous pouvez vous le permettre, envisagez d'utiliser des PDU gérés. Ils sont inestimables pour éteindre et rallumer un équipement suspendu sur le réseau, ce qui peut vous faire économiser un voyage dans la salle des serveurs à 3 heures du matin (ou à chaque fois).
la source
Il existe différents points de vue sur chaque puce.
Utilisez un plateau moniteur / clavier / souris, si vous avez vraiment besoin d'un accès à la console physique et n'utilisez que très peu de racks. Certains commutateurs monitoires / clavier / souris ont tendance à se coincer, à interférer avec certaines dispositions de clavier ou à nécessiter un câblage spécial très coûteux, donc je veux les éviter après tout. Une autre option pour l'accès à la console physique consiste à monter un petit moniteur LCD avec un petit clavier USB sur un petit chariot ou un bureau mobile. De nombreux serveurs récents offrent à la fois un connecteur VGA avant et arrière, vous n'avez donc qu'à déplacer votre chariot ou bureau sur ce rack, à connecter le cordon d'alimentation à une prise ouverte ou à un câble précâblé, vous avez terminé. Bien sûr, vous pouvez également installer un plateau moniteur / clavier et faire passer le câble vers l'avant, vous pouvez donc les attacher à n'importe quelle boîte sans vous souvenir des combinaisons de clavier étranges.
Je recommande de mettre en place des interfaces de gestion à distance (IPMI, HP iLO, Dell DRAC, IBM ASM, consoles série, ...). Même si vous les utilisez en remplacement d'un accès de type "console série" et non par exemple, de la "licence avancée HP" (redirection VGA), c'est quelque chose qui, à long terme, vous évitera " aller au bureau "pendant les week-ends pour surveiller une séquence de redémarrage ou faire du vélo électrique sur une boîte coincée.
la source