J'essaie de voir la quantité d'électricité nécessaire pour alimenter le nombre «x» d'ordinateurs. Je sais que c'est une chose vague parce que certains ordinateurs tirent plus que d'autres (par exemple les chipsets diff, les disques durs, les cartes vidéo, les blocs d'alimentation, etc.)
Donc, supposons simplement qu'il s'agit d'un ordinateur Dell maman et papa avec une certaine moyenne de choses d'usine. Rien d'extraordinaire. LCD 20 ".
c'est pour aider à calculer la puissance du générateur nécessaire pour garder autour des ordinateurs «x» fonctionnant dans un réseau local. Le vrai chiffre est dans les centaines .. mais je suppose que je peux juste calculer le coût de base pour une machine et ensuite le multiplier par le nombre de sièges.
Je comprends que cela n'inclut pas
- Commutateurs
- Les serveurs
- refroidissement (ventilateurs), etc ...
la source
Même si je n'ai pas de chiffres exacts, j'ai organisé des soirées LAN avec autant de personnes dans une salle de conférence.
Nous avions une carte d'alimentation, qui avait son propre disjoncteur. Nous avions au total environ 18 A de disjoncteurs, pour 6480 W, ce qui équivaut à 324 watts par machine. Pas vraiment beaucoup pour les jeux (nous avons fait sauter un briseur une fois, mais je ne pense pas que nous avions 20 personnes, plus 17 ou 18).
Donc, si ce ne sont que des ordinateurs de type bureau, 6000 à 6500 watts devraient être bons.
la source
Il y a deux parties à cela:
Le moniteur est fondamentalement constant. Travaillez heures par jour x jours par semaine x puissance nominale et vous avez un chiffre (en kilowattheures) par semaine.
Le PC est un peu plus difficile car il utilise un certain niveau de puissance lorsqu'il est inactif et un niveau de puissance plus élevé lorsqu'il fait quelque chose. Certains périphériques comme les lecteurs optiques n'utilisent essentiellement aucune alimentation lorsqu'ils ne sont pas utilisés et, disons, 10 W environ lorsqu'ils le sont (le chiffre est à titre indicatif).
Cependant, de manière générale, un PC (à l'exception du moniteur) ne devrait pas consommer plus de 150 W sous charge, utilisez-le comme chiffre de référence. Les cartes graphiques dédiées et d'autres facteurs peuvent porter cela à 600 W ou plus.
Supposons généralement qu'il est sous charge au moins 80% du temps où il sera utilisé. Tenez également compte des personnes qui ne mettent pas leur machine hors tension.
la source
Bien que je n'ai pas eu d'expérience réelle pour déterminer la puissance nécessaire pour faire fonctionner plusieurs machines, une chose à garder à l'esprit est d' avoir suffisamment de puissance pour une charge maximale .
Si le déclenchement du disjoncteur ou la surcharge du générateur est inacceptable, je pense que ce serait une bonne idée de calculer une estimation prudente de la consommation d'énergie - découvrez la consommation d'énergie maximale de chaque composant et arrondissez les valeurs.
Une estimation approximative que je proposerais pour un ordinateur "moyen" serait de 300 W pour la machine et de 100 W pour l'écran LCD, et votre kilométrage peut certainement varier.
la source
Quelque chose qui n'est pas évident mais qui peut causer beaucoup de problèmes est le "disjoncteur de fuite à la terre" ( http://en.wikipedia.org/wiki/Ground_fault_circuit_interrupter ). Je ne sais pas à quel point ces choses sont courantes aux États-Unis, mais ici en Suède, la plupart des maisons "plus récentes" en ont.
Chaque ordinateur fuit du courant à la terre, je ne sais pas exactement combien, mais c'est quelques mA. Si vous avez un GFCI qui se déclenchera à 30mA (ce qui est le plus courant ici en Suède), vous pourriez rencontrer des problèmes avant de surcharger le fusible.
la source
J'ai également organisé quelques soirées LAN. Nous avons ici des disjoncteurs 16A, et j'ai mis 10 PC sur chaque disjoncteur sans aucun problème. Nous avons 200V ici aux Pays-Bas, donc c'est environ 3500W pour 10 PC
la source
Il y a déjà d'excellentes réponses qui vous montrent la charge moyenne lors de certaines tâches courantes, mais si vous faites un budget de puissance, vous devez vraiment vous assurer que vous en avez assez pour la charge maximale.
Ce que vous devez savoir, c'est la tension alternative de fonctionnement et la consommation maximale en ampères. Celles-ci peuvent être trouvées dans les spécifications techniques et peuvent être imprimées sur l'alimentation elle-même. Vous obtenez la puissance en multipliant simplement ces deux nombres.
W = V (AC) * A
L'inverse est également vrai: si vous avez une alimentation 400W, elle consomme ~ 3,6A (400W / 110V)
Par exemple, sur la brique d'alimentation de mon Dell mini, je vois 110V (1A), donc je regarde 110W de puissance. C'est la charge maximale théorique. Je vais probablement utiliser moins que cela, mais pas plus selon la plupart des codes électriques.
Prenons un autre exemple, un moniteur à écran plat Dell 1905FP de 19 pouces. Un peu de recherche sur Google vous amènera à la page Documentation technique . Le défilement vers le bas jusqu'à la section électrique montre ce qui suit:
Tension / fréquence / courant d'entrée CA 100 à 240 VCA / 50 ou 60 Hz + 3 Hz / 1,5 A (max.)
Aux États-Unis, la tension CA standard est de 110 V, vous recherchez donc 165 W max (110 V * 1,5 A). Cette page montre également que la consommation électrique normale se situe entre 32W et 65W.
Pour déterminer votre budget énergétique réel, spécifiez un système moyen et déterminez la charge électrique maximale pour cela, puis multipliez par le nombre de systèmes que vous prévoyez d'avoir. C'est votre budget d'énergie.
Maintenant, vous pouvez soit obtenir un générateur qui alimentera tous vos appareils à la charge maximale si la disponibilité est une priorité, soit en obtenir un qui gérera une charge maximale de 50 à 75% si le prix est un problème. Comme vous pouvez le voir sur ce moniteur Dell, la plupart des appareils fonctionneront à 30-50% de la charge maximale dans des conditions normales.
la source