Mes exigences sont très simples. J'ai besoin de représenter graphiquement l'utilisation du processeur sur un serveur Linux distant. Je ne cherche rien de compliqué, j'ai juste besoin de pouvoir tracer l'utilisation du CPU sur un serveur Linux sur une semaine.
J'ai commencé sur la route des cactus - ce n'est pas simple, ce n'est pas simple et ça a vraiment l'air d'être exagéré.
Existe-t-il une option plus simple, plus rapide et plus directe?
linux
performance-monitoring
Bart B
la source
la source
Pour une sorte de chose unique, j'obtiendrais les données en utilisant sar (paquet sysstat) et ensuite les représenter graphiquement avec l' outil rrd . Voici un script qui aide à créer des graphiques à partir de la sortie sar.
la source
Vous pouvez essayer sar grapher sur http://www.fsprings.com/neat/sargrapher.html , vous téléchargez sar -p -Une sortie sur elle fournit une page avec des graphiques. Si vous le souhaitez, vous pouvez sélectionner les options sar que vous souhaitez, elles ne seront représentées que graphiquement.
la source
Je préfère ORCA - www.orcaware.com pour représenter graphiquement les statistiques du serveur.
La configuration de nos jours n'est pas trop difficile (utilisez l' instantané r535 ), et elle peut s'afficher dans des plages horaires, quotidiennes, hebdomadaires, mensuelles, trimestrielles et annuelles.
Il est basé sur un collecteur de données (procallator) qui interroge à des intervalles de 5 minutes. Le moteur graphique est une ancienne version de RRDTool, mais est rapide pour cette application.
Pour le serveur distant, vous pouvez lui demander de représenter graphiquement ses propres statistiques, ou vous pouvez extraire les fichiers procallator via ssh / rsync / scp à intervalles réguliers pour représenter graphiquement un serveur local. Cela fonctionne bien de toute façon.
la source
Quelques questions: - voulez-vous générer des tracés en temps réel? - à quelle fréquence souhaitez-vous échantillonner?
Un commentaire précédent mentionnait des échantillons de 5 minutes et je dois dire que si vous voulez vraiment savoir ce que fait votre CPU en toute confiance, vous devriez vraiment être dans la plage de 10 secondes. Faire la moyenne des choses à 5 minutes vous fera juste manquer des pointes qui pourraient durer quelques minutes! Certes, des échantillons de 10 secondes pourraient manquer des pics de 5 secondes, mais vous devez comprendre ce que vous essayez de voir dans les données.
Personnellement j'utilise collectl, probablement parce que je l'ai écrit! ;-)
Mais il fonctionne très efficacement à de faibles taux d'échantillonnage (même en sous-seconde) et peut même signaler sa sortie dans un format adapté au traçage. En fait, si vous installez collectl-utils et écrivez dans un répertoire partagé, vous pouvez utiliser colplot pour voir les données en temps réel.
Un dernier commentaire sur RRDTool. C'est un excellent package et dessine de très belles parcelles, mais vous devez savoir si vous enregistrez beaucoup d'échantillons pour une seule journée, les parcelles résultantes ne sont pas précises. En effet, RRDTool normalise plusieurs échantillons en points de données uniques pour rendre les graphiques plus simples, ce que colplot ne fait jamais. Il utilise gnuplot pour s'assurer que chaque point de données capturé est fidèlement tracé.
-marque
la source
Lorsque je travaillais avec des boîtes Linux, j'utilisais Splunk et je l' ai trouvé très utile.
J'ai aimé Splunk car cela me permettait non seulement de surveiller les performances mais aussi de configurer des alertes non seulement pour mon Linux mais aussi pour mes Windows box.
la source
Si vous n'en avez vraiment qu'un, ignorez cela, mais si vous en avez un tas, ou que vous allez grandir, alors Ganglia pourrait valoir le coup d'œil.
Échantillonnage de 5 secondes, et un tas de mesures au-delà du processeur, bien gérées à plusieurs niveaux, par serveur / cluster / batterie, etc.
la source