Il semble y avoir beaucoup de désaccord dans les mentalités concernant l’installation de serveurs montés en rack. Il y a eu des discussions sur les bras de câbles et autres accessoires pour montage en rack, mais je suis curieux de savoir:
Laissez-vous une unité de rack vide entre vos serveurs lorsque vous les installez? Pourquoi ou pourquoi pas? Avez-vous des preuves empiriques pour soutenir vos idées? Est-ce que quelqu'un est au courant d'une étude qui prouve de manière concluante que l'on est meilleur ou non?
la source
Je n'ai jamais ignoré des unités de rack entre des périphériques montés en rack dans une armoire. Si un fabricant me demandait de ne pas utiliser de U entre deux appareils, je le ferais, mais je n'ai jamais vu une telle recommandation.
Je m'attendrais à ce que tout appareil conçu pour un montage en rack évacue sa chaleur par les panneaux avant ou arrière. Une partie de la chaleur sera acheminée par les rails et par le haut et le bas du châssis, mais je pense que ce sera très faible comparé au rayonnement de l'avant et de l'arrière.
la source
Dans notre centre de données, nous ne laissons pas de lacunes. Il y a de l'air frais qui monte du sol et des trous causent des problèmes de circulation d'air. Si nous avons un vide pour une raison quelconque, nous le recouvrons d’une plaque vierge. L'ajout de plaques vierges a immédiatement rendu les sommets de nos allées froides plus froids et de nos allées chaudes plus chaudes.
Je ne pense plus avoir les données ni les graphiques, mais la différence était très nette dès que nous avons commencé à apporter des modifications. Les serveurs situés en haut des baies ont cessé de surchauffer. Nous avons arrêté de faire la cuisine (ce que nous faisions à un rythme d’environ 1 / semaine). Je sais que les changements ont commencé après le retour de notre responsable de centre de données après une expo de centre de données vert Sun, où il a assisté à des séminaires sur le refroidissement, etc. Auparavant, nous utilisions des espaces vides, des racks partiellement remplis et des dalles perforées au sol à l'avant et à l'arrière des racks.
Même avec les bras de gestion en place, l'élimination des lacunes a mieux fonctionné. Toutes les températures internes de nos serveurs, partout dans la pièce, sont maintenant conformes aux spécifications. Ce n'était pas le cas avant que nous ayons normalisé notre gestion des câbles, éliminé les lacunes et corrigé le placement de nos carreaux de sol. Nous aimerions faire plus pour diriger l'air chaud vers les unités du CRAC, mais nous ne pouvons pas obtenir de financement pour le moment.
la source
Je ne nous saute pas. Nous louons et nous coûtons de l'argent.
Aucune raison de chauffer ces jours-ci. Tout l'air frais entre à l'avant et à l'arrière. Il n'y a plus de trous d'aération dans les sommets.
la source
Google ne laisse pas U entre les serveurs et je suppose qu'ils sont concernés par la gestion de la chaleur. Toujours intéressant de voir comment les gros joueurs font le travail. Voici une vidéo de l'un de leurs centres de données: http://www.youtube.com/watch?v=zRwPSFpLX8I&feature=player_embedded
Allez directement à 4:21 pour voir leurs serveurs.
la source
Ne laissez pas d’espace si vous avez de l’air frais venant du sol et utilisez des espaces vierges dans l’espace non utilisé. Si vous ne disposez que d'un système de refroidissement à la fine pointe de la technologie utilisant une unité de climatisation standard, il est préférable de laisser des espaces pour minimiser les points chauds lorsque les serveurs chauds sont encombrés.
la source
Nous avons 3 1/2 bâtis de nœuds de cluster et leur stockage dans une installation de colocation. Les seuls endroits où nous avons omis de choisir les unités sont l'endroit où nous devons acheminer le câblage réseau vers le rack central où se trouve le commutateur de cluster principal. Nous pouvons nous permettre de faire autant en termes d'espace, car les racks sont déjà saturés en puissance, il ne serait donc pas possible de leur envoyer plus de nœuds :)
Ces machines fonctionnent 24 heures sur 24, 7 jours sur 7, à 100% de leur CPU, et certaines d'entre elles ont jusqu'à 16 cœurs dans un boîtier 1U (Xeons 4x quad core) et je n'ai encore vu aucun effet négatif de ne pas laisser d'espaces entre la plupart d'entre eux.
Tant que votre équipement dispose d'un circuit d'air bien conçu, je ne vois pas en quoi il importerait.
la source
J'ai de grands écarts au-dessus de mon UPS (pour l'installation future d'une deuxième batterie) et au-dessus de ma bandothèque (si j'en ai besoin d'une autre). En dehors de cela, je n'ai pas de lacunes et j'utilise des panneaux pour remplir les espaces vides afin de préserver le flux d'air.
la source
Chaque tiers, mais cela est dû aux bras de direction et à la nécessité de les contourner plutôt que de chauffer. Le fait que chacun de ces serveurs dispose de 6 câbles Cat5 leur étant utiles n’aide en rien. Nous utilisons beaucoup de panneaux d'obturation et de barrages d'air au-dessus des bâtis pour empêcher la recirculation à partir de l'allée chaude.
De plus, l’espace est une chose qui ne manque pas dans notre centre de données. Il a été conçu pour une extension lorsque les serveurs 7-10U étaient standard. Maintenant que nous avons opté pour des grappes ESX denses en rack, il s’agit d’une ville fantôme.
la source
Je ne laisserais pas d'espaces entre les serveurs, mais je le ferai pour des choses comme les commutateurs de réseau local - cela me permet de placer des barres de gestion de câble 1U au-dessus et en dessous ... mais ce n'est définitivement pas fait pour le refroidissement.
la source
Pas de lacunes, sauf lorsque nous avons sorti un serveur ou quelque chose d'autre et que nous n'avons pas pris la peine de le réorganiser. Je pense que nous sommes un peu plus petits que la plupart des gens ici, avec deux racks ne disposant que d’une quinzaine de serveurs plus quelques lecteurs de bande, commutateurs et onduleurs.
la source
Aucune lacune autre que lors de la planification de l'expansion des systèmes san ou de choses du genre. Nous préférons mettre de nouvelles armoires à proximité des contrôleurs actuels.
Si le refroidissement est correct, il ne sera pas utile de laisser des espaces, sauf si le serveur est mal construit.
la source
J'ai l'impression (peut-être à tort) qu'il s'agit d'une pratique plus répandue dans certains environnements de télécommunication où les allées chaudes / froides sont moins utilisées.
Cependant, il n'est pas adapté à un centre de données à haute densité et bien géré.
la source
Je laisse généralement une unité vide après environ 5 UG de serveurs (c'est-à-dire 5x1ru ou 1x2ru + 1x3ru) et cela dépend de la configuration du refroidissement dans le centre de données dans lequel vous vous trouvez. Si vous effectuez un refroidissement devant le rack (c.-à-d. Une grille dans l’idée est que l’air froid est poussé du sol et que vos serveurs aspirent l’air froid à travers eux. dans cette situation, vous obtiendrez généralement un meilleur refroidissement en ne laissant pas de logements vierges (c’est-à-dire que vous utiliserez un cache d’Ur vierge. Toutefois, si vous effectuez un refroidissement par le panneau de plancher de votre rack, vous obtiendrez un refroidissement plus efficace en dissociant les serveurs. superposés pour tout le rack
la source
Dans une situation où nous avions notre propre centre de données et où l'espace n'était pas un problème, je sautais un U (avec un espaceur pour bloquer le flux d'air) entre les zones logiques: les serveurs Web ont une section, base de données, contrôleur de domaine, courrier électronique, etc. et le serveur de fichiers en avait un autre, et les pare-feu et les routeurs en avaient un autre. Les commutateurs et les panneaux de brassage pour les ordinateurs de bureau périphériques se trouvaient dans leur propre rack.
Je peux me souvenir d'une occasion où j'ai sauté un U pour des raisons de refroidissement. Il s'agissait d'une solution de boucle de télévision par câble A / V dans une école secondaire, dans laquelle trois unités étaient chargées de desservir le système de télévision par câble dans une partie de l'immeuble. Après que l’unité supérieure ait dû être remplacée pour la troisième fois en deux ans en raison d’une surchauffe, j’ai effectué une "intervention chirurgicale" sur le rack afin de percer des trous de montage afin de pouvoir laisser 1 / 2U d’espace entre chacune des trois unités (par exemple total de 1 U espace total).
Cela a résolu le problème. Inutile de dire que cela était parfaitement documenté et, pour plus de précision, j'ai collé une feuille en haut de la feuille pour indiquer pourquoi les choses étaient comme elles étaient.
Il y a deux leçons ici:
la source
Je les ai empilés dans le seul rack que j'ai. Je n'ai jamais eu de problèmes avec ça, donc je n'ai jamais eu de raison de les espacer. J'imagine que la principale raison pour laquelle les gens les espacent est la chaleur.
la source
Laisser des espaces entre les serveurs peut affecter le refroidissement. De nombreux centres de données exploitent des suites sur une "allée chaude".
Si vous laissez des espaces entre les serveurs, vous pouvez affecter l'efficacité du flux d'air et du refroidissement.
Cet article peut être d'intérêt:
la source
J'ai déjà laissé un tiers d'unité entre deux commutateurs, principalement parce qu'ils avaient chacun une hauteur d'un tiers.
Si je les avais mis ensemble, la vitesse supérieure aurait été décalée de 1/3 de U.
En dehors de cela, je n'ai jamais laissé d'espace uniquement pour le refroidissement, mais uniquement pour la croissance future.
la source