Aux fins de cette question, je suis intéressé par le matériel lié au serveur / centre de données.
Avez-vous eu un retour sur investissement mesurable en remplaçant le matériel existant par du matériel plus «vert» ou économe en énergie?
Par exemple, VMWare dit que vous pouvez réduire la consommation d'énergie jusqu'à 80% en utilisant la virtualisation. J'ai également entendu parler d'une solution de refroidissement de HP qui est censée réduire une petite quantité d'utilisation d'engery (<25% je pense). Google a également fait quelque chose en intégrant un onduleur dans ses blocs d'alimentation pour réduire la consommation d'énergie.
Toute expérience dans le monde réel serait formidable, mais si vous avez des détails sur le coût initial, les économies et le temps de remboursement sur les changements qui ont été apportés, ce serait fantastique. Je ne m'intéresse pas seulement à la virtualisation, je m'intéresse à tout.
Réponses:
C'est une question assez énorme. Il existe de nombreuses façons d'économiser l'énergie, puis d'économiser $$ en verdissant leurs centres de données.
Je pense que vous posez des questions sur le retour sur investissement de ces efforts.
La virtualisation est certainement un excellent exemple - achetez de gros serveurs physiques (2 ou 4 sockets) avec une tonne de mémoire (32 - 128 Go), puis convertissez les serveurs physiques en serveurs virtuels (P2V) et éteignez les serveurs physiques.
VMware dispose d'un caculateur ROI
http://vmware.com/go/calculator
Mais cela dépend vraiment - si vous mettez 3 hôtes VMware ESX capables de gérer 40 charges de travail de serveur et que vous migrez seulement 10 ou 20 - alors vous ne verrez pas le retour sur investissement.
Mais si vous avez compté les 40 blocs d'alimentation (2 par serveur ou 900 watts par boîtier) et que vous réalisez ensuite que vous les remplacez par 3 hôtes ESX (2 par serveur ou 1 200 watts par boîtier), vous vous retrouvez alors à tirer 36 000 watts (40 x 900) et le remplacer par 3600 watts de puissance (près de 10: 1 de consolidation du point de vue Watts). Une économie nette d'environ 32 000 watts.
Et réalisez - c'est environ 1 tonne de refroidissement par 3,5 kW de puissance - donc si vous sortez 32 000 watts, vous pouvez économiser environ 30 tonnes de refroidissement (vous calculez donc le coût de l'énergie à 30 tonnes de refroidissement) et c'est une économie vous pouvez mesurer.
Mes calculs sont éteints - je jouais dehors toute la journée (exposition au soleil).
Autres domaines importants à améliorer - Gestion de l'alimentation distribuée - désactivez ou condensez les charges de travail la nuit, réduisez les disques dans un SAN si cela n'est pas nécessaire, etc.
Remplacez les batteries des systèmes UPS par des volants d'inertie ( http://www.pentadyne.com/ ).
Si possible, utilisez un refroidissement ambiant.
Mettez vos centres de données quelque part avec un coût par kW / heure moins cher.
Utilisez Deep Lake Water Cooling (criez aux gens de Toronto).
la source
Comme tout le monde a commenté VMware, je vais parler de quelque chose de différent.
Une autre façon de réduire la consommation d'énergie est de ne pas utiliser de vieux matériel. Les serveurs que nous avons achetés il y a plus de 5 ans consomment plus du double de la puissance et produisent aujourd'hui près du double de la chaleur des serveurs basse consommation.
Conseils:
Recherchez les cotes BTU des serveurs avant d'acheter, essayez d'utiliser des blocs d'alimentation efficaces et des processeurs à faible puissance thermique.
Désaffectez complètement les serveurs une fois qu'ils ne sont plus nécessaires (c.-à-d. Supprimez-les complètement du centre de données)
/ Richy
la source
Microsoft a un livre blanc vraiment exceptionnel sur la gestion de l'alimentation des serveurs:
Power In, Dollars Out: Comment endiguer le flux dans le centre de données
J'ai beaucoup appris en le lisant et j'ai été particulièrement surpris par ces graphiques de consommation des serveurs d'alimentation inactifs .
Le serveur A est du millésime 2005 :
Le serveur B est du millésime 2008 :
Maintenant, ce sont des serveurs assez costauds, avec respectivement 64 Go et 128 Go de mémoire. Pourtant, cela n'augure rien de bon pour l'avenir, car la mémoire est la chose n ° 1 dont la plupart des serveurs ont besoin d'une tonne et en reçoivent de plus en plus chaque année. des tonnes de puissance 100% du temps!
Une autre statistique intéressante:
la source
Comme tout le monde l'a noté, il y a beaucoup de paramètres à considérer.
Le plus fondamental est le pouvoir. Vérifiez auprès de votre centre de données la différence de taux pour ceux qui fournissent une alimentation de 220 V par rapport à 110 V - vous pourriez être surpris. Offrent-ils une option 18V DC? (cela est le plus souvent disponible dans les centres de données qui s'adressent davantage aux équipements de télécommunications, car c'est la norme depuis des décennies) Des alimentations existent pour permettre aux équipements x86 de fonctionner de tout ce qui précède. IIRc, les alimentations CC sont les plus efficaces, suivies du 220V puis du 100V. Le courant continu est le plus efficace car c'est juste une chute de tension via une résistance, pas un convertisseur AC / DC comme dans les alimentations AC (les sorties d'une alimentation PC sont +/- 12V et +/- 5V, non?). Parfois, il est même plus rentable de mettre un convertisseur CA / CC par rack, puis de faire fonctionner le CA vers le convertisseur dans le rack, puis de court-circuiter l'alimentation CC jusqu'aux machines.
En plus du type d'alimentation, il y a une consommation d'énergie ancienne: la rotation des baies de disques inutilisées, la configuration des machines inutilisées pour dormir en mode basse consommation ou pour se connecter en cas de besoin (via la télécommande ou le réveil sur réseau local), mais dans le cas contraire se fermer, virtualisation pour consolider les charges de travail dans moins de machines physiques tout en maintenant la séparation logique.
Les effets de la consommation d'énergie se répercutent tout au long de l'équation: moins d'énergie signifie moins de chaleur perdue signifie moins de refroidissement nécessaire. C'est la pierre angulaire du passage au vert ... mais c'est aussi compliqué et peut être difficile à mesurer.
Ma façon préférée de devenir verte ces jours-ci est en fait de jouer avec le «nuage». Amazon et Google et Rackspace et Linode sont meilleurs dans ce domaine que moi, et probablement mieux que vous aussi. Découvrez comment appliquer le cloud à votre problème, rendant ainsi tout le problème de provisionnement du centre de données ... quelqu'un d'autre.
la source
VMware peut vous faire réaliser de très belles économies d'énergie. À titre d'exemple, j'avais un site avec 8 serveurs qui n'étaient utilisés que pendant la journée, ceux-ci se trouvaient sur 8 boîtes 1RU exécutant une seule application liée au processeur. Je les ai déplacés vers 2x Quad Core Machines 1RU et activé DPM.
La nuit et pendant certaines périodes, toutes les machines ont été migrées vers 1 serveur et le deuxième serveur a été arrêté. Donc de 8 serveurs à 1 (plus SAN) pour un temps significatif.
Si l'économie d'énergie seule paiera un jour les licences VMware, c'est une autre question.
DPM dans mon esprit sera le bel économiseur de coûts visible. Selon votre environnement, bien sûr, certaines heures nécessitent beaucoup moins de temps processeur que d'autres et la possibilité d'économiser de l'énergie et peut-être de l'usure pendant cette période vous fera économiser de l'argent.
la source
Voici un bon article sur la virtualisation et le passage au vert , et l'utilisation des zones Solaris par rapport à VMWare (avertissement: je travaille pour le gars qui l'a écrit).
la source
Nous avons un Nexsan SATABeast comme stockage principal pour notre SAN - il peut automatiquement garer les têtes (~ 20% d'économies d'énergie), ralentir les disques SATA à 4000 tr / min (40% d'économies d'énergie) et finalement fermer les disques (oui, 100%) des économies). La fonction est appelée AutoMAID.
Je dois admettre que je n'utilise pas cette fonctionnalité sur les baies qui hébergent les volumes Vmware OS-VMFS, car je ne veux pas qu'ils traînent. Il est possible de sélectionner simplement le stationnement de tête et le spindown, et de toujours laisser les disques fonctionner.
Une autre chose que nous avons faite est de faire fonctionner un onduleur (au lieu de la climatisation) dans la salle des serveurs. C'est comme la climatisation, sauf que c'est un flux d'air bidirectionnel. Il maintient la salle des serveurs autour de 20 ° C et pousse l'air chaud vers notre sous-sol (où il chauffe le sous-sol et maintient nos planchers au 1er étage un peu plus chaud).
la source
Voici une victoire rapide que nous avons mise en œuvre: l'impression recto verso activée. La plupart des imprimantes modernes peuvent facilement gérer cela et économiser de l'énergie, de l'encre et du papier.
la source
VMWare n'est pas le seul moyen d'économiser de l'énergie et de l'argent dans un centre de données. Vous devez considérer vos ressources de calcul comme un système unique et modifier / refactoriser pour améliorer les performances et l'efficacité des systèmes. C'est la différence entre l'ingénierie et la gaffe avec les ordinateurs.
Quelques exemples:
Il n'y a pas de chiffre magique qui fait un plan particulier pour économiser de l'énergie ou d'autres ressources pour vous. Cela dépend de toutes sortes de choses différentes. Si vous êtes à New York, par exemple, les taux d'énergie feront que le retour sur investissement pour chaque watt économisé sera 3 fois supérieur à celui de la Caroline du Sud. L'automatisation d'un processus manuel peut vous faire économiser de l'argent, sauf si certains employés sont syndiqués avec une clause de non-licenciement de 3 ans.
La taille de votre entreprise et la façon dont vous gérez la comptabilité sont également importantes. Si vous achetez et dépréciez des serveurs, l'achat de moins de serveurs + de licences VMWare entraînera des économies d'impôt et des coûts d'investissement réduits. Mais si vous louez des serveurs, ces économies peuvent être moindres. Si vous êtes une agence gouvernementale qui reçoit un financement fédéral, VMWare vous fera économiser une fortune car vous n'aurez pas besoin de gérer plusieurs serveurs dédiés à des programmes ou subventions fédéraux particuliers. (Les fédéraux n'aiment pas cela lorsque vous mélangez des services sur du matériel qu'ils financent et que vous attendez un remboursement)
la source
EDIT: Je viens de réaliser à quel point ces calculs ont l'air stupides :) - Je vais juste les laisser, je ne pense pas que vous ne pouvez pas le faire vous-même, j'ai juste oublié en rédigeant le message que j'y mettais aussi quelques brainfarts mineurs :)
Personne ici ne pourra / ne pourra vous donner une description complète du calcul de votre épargne. Vous auriez besoin de nous dire votre plan quelles mesures vous trouvez acceptables dans "passer au vert" (je déteste cette phrase btw).
Habituellement, vous devriez aller chercher les spécifications de vos serveurs, à des fins de calcul, vous utilisez la puissance maximale, de sorte que la partie énergie est extrêmement simple.
Ensuite, il y a un coût matériel simple. Cela ne coûte probablement que parce que vous devez généralement obtenir du fer assez gros pour exécuter quelques instances. Vous voulez probablement aussi un stockage central si vous n'en avez pas encore. Si vous voulez vraiment économiser de vos anciens serveurs, vous pouvez utiliser un programme de retour de votre fournisseur ou les vendre sur ebay ou les donner à une école (ce qui rend le calcul vraiment complexe). Restons simples:
Ensuite, j'aime personnellement considérer les contrats de service pour HW comme quelque chose en soi, car selon la façon dont votre plan de recyclage est, vous voudrez peut-être obtenir 3 contrats de service pour un an si votre combinaison d'options le rend moins cher, comme:
D'un autre côté: avec la virtualisation en place, vous voulez généralement des contrats de support plus rapides car moins de matériel a besoin de tomber en panne pour vous. Donc, cela va probablement être plus cher par serveur qu'auparavant, selon le nombre de serveurs que vous enregistrez, ce sera moins cher ou plus bas à la fin.
Dépend de ce dont vous avez besoin. Une autre raison de ne pas avoir cela dans le coût du matériel est que vous êtes prêt à l'avance pour obtenir encore un an ou 2 de support et savoir combien cela coûte au lieu de remplacer le matériel si cela est nécessaire pour une raison quelconque.
considérez les licences logicielles et dites 3 mois d'un administrateur à temps plein pour pouvoir travailler à la même vitesse qu'auparavant. Ce n'est pas 3 mois pour chaque administrateur car les connaissances se propagent généralement assez rapidement.
Autres éléments dont vous devez tenir compte:
C'est ce que je ferais pour l'essentiel en termes de réussite ou d'échec financier "mesurable".
L'autre côté serait le succès technique. Il y a quelques mesures dont vous avez besoin à l'avance:
En tenir compte:
Ne tenez pas compte de ceci:
Considérez maintenant combien de temps cela vous prendrait dans le pire des cas , avec la virtualisation, vous êtes à peu près au même niveau que sans virtualisation. Le pire est le cas où j'ai besoin d'obtenir un nouveau grand serveur brillant pour $ large_amount_of_euros juste pour faire fonctionner une seule instance. Étant donné que vous devez probablement prendre les mêmes décisions qu'auparavant, le délai de livraison, etc., prend le même temps.
Le cas moyen sera que vous serez probablement opérationnel en un rien de temps car tout ce que vous avez à faire est de lancer une nouvelle instance. Vous devez toujours attendre que le projet vous dise ce dont il a besoin pour pouvoir déterminer les exigences matérielles. Configurez simplement votre outil de déploiement pour configurer le système d'exploitation de la manière requise pour le démarrage et le reste sera pris en charge par le cadre de déploiement et de configuration.
la source
Je pense que le virage vert devrait être mis en œuvre de manière globale. Activez l'audit et la comptabilité des imprimantes et voyez qui sont les grands dépensiers. Utilisez plutôt XPS ou PDF dans les e-mails. J'ai vu de grosses économies simplement en examinant les processus métier et en les réorganisant pour impliquer moins d'impression, moins de serveurs, etc. J'ai pu consolider ou éliminer 30% d'un environnement existant sans dépenser un centime. (vous pouvez ensuite examiner les coûts de licence, etc. pour déterminer s'il est judicieux de séparer les services dans un environnement virtuel). De plus, passer au vert signifie permettre aux gens de télétravailler. Cela peut ne pas faire économiser de l'argent à l'entreprise en soi, mais c'est écologique et rend généralement les employés heureux. Le virage vert peut également coûter du capital maintenant mais économiser plus tard. Dans le cas où les gens imprimaient beaucoup, c'était parce qu'ils avaient tous des écrans de merde,
Il en va de même pour les serveurs. Exécuter un tas de serveurs CPU merdiques 1 u peut être bon marché par serveur mais coûte plus cher que de consolider ces services sur 1 serveur CPU cher. Par exemple, certaines anciennes dells 1u (procs p4) ont des alimentations de 500w. Une toute nouvelle ligne de fond ML150 est livrée avec une alimentation 650w, mais avec environ le triple de la capacité de calcul. Une autre façon d'économiser de l'énergie pour que les systèmes démarrent du san. Il y a beaucoup de disques qui tournent juste pour démarrer un système qui a les 90% restants sur le san. Le démarrage à partir de san a enregistré 1 châssis entier plein de disques dans le centre de données.
En fin de compte, toutes ces analyses ont permis d'économiser environ 40% d'une année sur l'autre, le CapEx étant remboursé en 20 mois environ
la source
La solution VM est assez simple à démontrer.
Considérez la consommation d'énergie d'un serveur 1U typique, 2 sockets CPU, beaucoup de RAM, 3 ou 4 disques au maximum, deux blocs d'alimentation redondants.
Maintenant, regardez sa consommation pendant qu'elle est principalement inactive, puis son utilisation à 100%. Alors qu'à 100% la consommation d'énergie est plus élevée, la consommation de base de la marche au ralenti est un pourcentage étonnamment élevé de cela.
Envisagez maintenant de consolider 4 de ces serveurs en une seule instance VMWare / XEN / HyperV sur un boîtier double 4 cœurs, avec 2 processeurs alloués à chaque machine virtuelle. En moyenne, la consommation au ralenti sera plus élevée, car elle sera généralement plus occupée, mais le surcoût d'être juste allumé représente 1/4 de la quantité de 4 boîtes physiques distinctes.
Tout le reste est une sauce en termes d'économies après ça!
la source
Plus le centre de données est grand, plus il est probable que les économies d'énergie par système ou par rack ne soient pas une quantité mesurable, et aussi qu'il n'y ait pas d'entité de gestion qui s'en soucie. Mes efforts pour utiliser des configurations et une virtualisation de moindre puissance n'ont été financés par aucune initiative verte ni mandatés par la haute direction.
la source
La virtualisation réduira la taille de l'empreinte physique de votre serveur, vous obtiendrez ainsi des économies d'énergie et de maintenance. Nous avons constaté une réduction de 62% des serveurs physiques. De toute évidence, vous n'obtiendrez pas nécessairement des économies administratives réduites, car vous ne faites que déplacer les images du serveur, pas les réduire.
Mais je pense que les économies d'énergie du simple remplacement d'anciens équipements physiques par de nouveaux sont très surestimées, à moins que vous ne soyez un magasin super dense. Par exemple, IBM affirme que sa nouvelle boîte de classe x3650 M2 économise 100 $ / an en électricité. Bâillement. Je ne peux pas m'exciter de dépenser plus de 3 000 $ pour économiser 100 $ / mois. Je suppose que vous pourriez dire que cela se rentabilise en 3 ans, mais ne sous-estimez pas les faibles coûts liés à la migration vers un nouveau matériel. Et, le nouveau matériel a tendance à devenir toujours plus économe en énergie sans que nous le demandions, donc ma stratégie consiste à acheter de nouveaux équipements et à virtualiser quand cela a du sens en fonction de la valeur commerciale, pas seulement pour être écologique.
la source
Si vous faites tout type de batterie de serveurs où vous pouvez mettre des serveurs individuels en ligne et hors ligne, vous pouvez profiter de Wake On Lan (WoL) . Lorsque la charge sur le pool existant est suffisamment élevée, vous réveillez plus de serveurs. Lorsque la charge est suffisamment faible, vous commencez à arrêter les serveurs. Notez que cela peut être fait en plus de la plupart des autres idées «vertes». Aucun serveur n'utilise moins d'énergie qu'un serveur éteint.
la source
Je ne suis pas un administrateur système, mais un consultant en énergie et un développeur de logiciels, mais il y a une histoire d'un centre de données, que j'aime raconter, car elle montre jusqu'où vous pouvez aller si vous êtes déterminé.
J'ai assisté à une conférence sur les technologies de l'information vertes, et il y avait un gars d'une société de conseil à Brême, en Allemagne, qui dirigeait son propre centre de données en interne pour lui-même et ses clients. Pas énorme, mais pour le type d'entreprise, elle était assez grande, peut-être une cinquantaine de machines. De plus, il ne cesse de croître.
Un jour, le PDG, qui donnait la conférence, a perdu patience avec le sysadmin demandant des équipements de refroidissement et de ventilation de plus en plus puissants alors que leur salle de serveurs grandissait et grandissait. Ces appareils ont commencé à tirer autant sur le budget que les serveurs eux-mêmes. La prochaine fois que l'administrateur voulait une unité de refroidissement, il a fait asseoir le gars et lui a expliqué tout ce qu'il savait sur la raison pour laquelle la salle des serveurs devait être à 20 ° C. Il s'est avéré que personne ne savait vraiment, alors ils ont commencé une recherche approfondie.
La première chose qu'ils ont réalisée est que la température des composants matériels est importante, pas la température ambiante. Ils ont donc compilé une liste de tous les composants qu'ils utilisaient et ont obtenu des données détaillées sur la tolérance à la chaleur des fabricants.
Ensuite, ils se sont assurés d'avoir des lectures de température constantes en temps réel directement sur les composants, au moins pour un échantillon suffisamment grand.
Maintenant, ils ont lentement commencé à permettre à la température ambiante d'augmenter, en gardant un œil sur la température des composants. Cela seul a permis de monter jusqu'à 25-30 ° C. Lorsqu'ils approchaient lentement de la température critique sur les composants, ceux-ci étaient encore beaucoup plus chauds que la pièce, ils ont donc essayé d'améliorer la circulation de l'air et de monter les unités de ventilation. L'idée principale était d'aller aussi loin que possible sur la ventilation seule, car c'est beaucoup moins cher que le refroidissement.
Ce processus a traversé quelques itérations et ils ont raffiné et amélioré à plusieurs reprises leur système de ventilation, tout en augmentant la température moyenne de la pièce. Lorsqu'ils ont atteint 45 ° C, ils ont commencé à sentir que leur marge de sécurité devenait trop petite et ils ne pouvaient pas améliorer davantage la ventilation. Ils ont fait un pas en arrière à 40 ° C et c'est maintenant la température de fonctionnement permanente du centre de données.
Ils aspirent l'air pour la ventilation de l'extérieur, ce qui aide beaucoup pendant les hivers froids allemands. Le refroidissement doit uniquement être activé les jours d'été particulièrement chauds. En hiver, ils réutilisent la chaleur extraite du datacenter pour compléter le système de chauffage. De cette façon, la facture énergétique combinée pour l'électricité et le chauffage de l'ensemble de l'entreprise a baissé de 80%.
La salle des serveurs est maintenant très chaude et très bruyante, en raison de la forte ventilation. Ils ont dû mettre une isolation phonique supplémentaire sur les murs, pour ne pas déranger les bureaux d'à côté. Les administrateurs n'entrent presque jamais dans la pièce, car ce n'est pas vraiment un excellent environnement de travail. Pour l'entretien prévu, ils commencent à refroidir la pièce deux jours avant. En cas d'urgence, les administrateurs mettent des protections auditives et se changent en maillot de bain (sans blague), avant d'entrer.
la source