Comment puis-je profiler du code C ++ fonctionnant sous Linux?
1816
J'ai une application C ++, fonctionnant sous Linux, que je suis en train d'optimiser. Comment identifier les zones de mon code qui s'exécutent lentement?
Si vous fournissez plus de données sur votre pile de développement, vous obtiendrez peut-être de meilleures réponses. Il existe des profileurs d'Intel et de Sun, mais vous devez utiliser leurs compilateurs. Est-ce une option?
La plupart des réponses sont des codeprofileurs. Cependant, l'inversion de priorité, l'alias de cache, la contention de ressources, etc. peuvent tous être des facteurs d'optimisation et de performances. Je pense que les gens lisent des informations dans mon code lent . Les FAQ font référence à ce fil.
J'avais l'habitude d'utiliser pstack au hasard, la plupart du temps imprimera la pile la plus typique où le programme est la plupart du temps, pointant ainsi le goulot d'étranglement.
Jose Manuel Gomez Alvarez
Réponses:
1407
Si votre objectif est d'utiliser un profileur, utilisez l'un des suggestions.
Cependant, si vous êtes pressé et que vous pouvez interrompre manuellement votre programme sous le débogueur pendant qu'il est subjectivement lent, il existe un moyen simple de trouver des problèmes de performances.
Arrêtez-le plusieurs fois et regardez à chaque fois la pile des appels. S'il y a du code qui fait perdre un certain pourcentage du temps, 20% ou 50% ou autre, c'est la probabilité que vous l'attrapiez dans la loi sur chaque échantillon. Donc, c'est à peu près le pourcentage d'échantillons sur lesquels vous le verrez. Aucune conjecture éclairée n'est requise. Si vous avez une idée du problème, cela le prouvera ou le réfutera.
Vous pouvez rencontrer plusieurs problèmes de performances de tailles différentes. Si vous nettoyez l'un d'eux, les autres prendront un pourcentage plus élevé et seront plus faciles à repérer lors des passes suivantes. Cet effet d'agrandissement , lorsqu'il est aggravé par plusieurs problèmes, peut conduire à des facteurs d'accélération vraiment massifs.
Mise en garde : les programmeurs ont tendance à être sceptiques à l'égard de cette technique, sauf s'ils l'ont utilisée eux-mêmes. Ils diront que les profileurs vous donnent ces informations, mais cela n'est vrai que s'ils échantillonnent la pile d'appels entière, puis vous permettent d'examiner un ensemble aléatoire d'échantillons. (Les résumés sont là où les informations sont perdues.) Les graphiques d'appel ne vous donnent pas les mêmes informations, car
Ils ne résument pas au niveau de l'instruction, et
Ils donnent des résumés déroutants en présence de récursivité.
Ils diront également que cela ne fonctionne que sur les programmes de jouets, alors qu'en réalité cela fonctionne sur n'importe quel programme, et cela semble mieux fonctionner sur des programmes plus importants, car ils ont tendance à avoir plus de problèmes à trouver. Ils diront qu'il trouve parfois des choses qui ne sont pas des problèmes, mais cela n'est vrai que si vous voyez quelque chose une fois . Si vous voyez un problème sur plus d'un échantillon, c'est réel.
PS Cela peut également être fait sur des programmes multi-threads s'il existe un moyen de collecter des échantillons de pile d'appels du pool de threads à un moment donné, comme c'est le cas en Java.
PPS En règle générale, plus vous avez de couches d'abstraction dans votre logiciel, plus vous avez de chances de trouver que c'est la cause de problèmes de performances (et la possibilité d'obtenir une accélération).
Ajouté : Ce n'est peut-être pas évident, mais la technique d'échantillonnage de pile fonctionne aussi bien en présence de récursivité. La raison en est que le temps qui serait économisé par la suppression d'une instruction est approximé par la fraction d'échantillons qui la contient, quel que soit le nombre de fois où cela peut se produire dans un échantillon.
Une autre objection que j'entends souvent est: " Cela arrêtera quelque part au hasard, et le vrai problème manquera ". Cela vient d'avoir un concept préalable de ce qu'est le vrai problème. Une propriété clé des problèmes de performances est qu'ils défient les attentes. L'échantillonnage vous indique que quelque chose est un problème, et votre première réaction est l'incrédulité. C'est naturel, mais vous pouvez être sûr que s'il trouve un problème, c'est réel, et vice-versa.
Ajouté : Permettez-moi de faire une explication bayésienne de la façon dont cela fonctionne. Supposons qu'il y ait une instruction I(appel ou autre) qui se trouve sur la pile d'appels une fraction fdu temps (et coûte donc beaucoup). Par souci de simplicité, supposons que nous ne sachions pas ce que fc'est, mais supposons que ce soit 0,1, 0,2, 0,3, ... 0,9, 1,0, et la probabilité antérieure de chacune de ces possibilités est de 0,1, donc tous ces coûts sont également probables a priori.
Supposons ensuite que nous prenons seulement 2 échantillons de pile et que nous voyons des instructions Isur les deux échantillons, une observation désignée o=2/2. Cela nous donne de nouvelles estimations de la fréquence fde I, selon ceci:
Prior
P(f=x) x P(o=2/2|f=x) P(o=2/2&&f=x) P(o=2/2&&f >= x) P(f >= x | o=2/2)0.1110.10.10.259740260.10.90.810.0810.1810.470129870.10.80.640.0640.2450.6363636360.10.70.490.0490.2940.7636363640.10.60.360.0360.330.8571428570.10.50.250.0250.3550.9220779220.10.40.160.0160.3710.9636363640.10.30.090.0090.380.9870129870.10.20.040.0040.3840.9974025970.10.10.010.0010.3851
P(o=2/2)0.385
La dernière colonne indique que, par exemple, la probabilité que f> = 0,5 soit de 92%, en hausse par rapport à l'hypothèse précédente de 60%.
Supposons que les hypothèses antérieures soient différentes. Supposons que nous P(f=0.1)supposions est .991 (presque certain), et toutes les autres possibilités sont presque impossibles (0.001). En d'autres termes, notre certitude préalable est que Ic'est bon marché. On obtient alors:
Prior
P(f=x) x P(o=2/2|f=x) P(o=2/2&& f=x) P(o=2/2&&f >= x) P(f >= x | o=2/2)0.001110.0010.0010.0727272730.0010.90.810.000810.001810.1316363640.0010.80.640.000640.002450.1781818180.0010.70.490.000490.002940.2138181820.0010.60.360.000360.00330.240.0010.50.250.000250.003550.2581818180.0010.40.160.000160.003710.2698181820.0010.30.090.000090.00380.2763636360.0010.20.040.000040.003840.2792727270.9910.10.010.009910.013751
P(o=2/2)0.01375
Maintenant, il P(f >= 0.5)est de 26%, en hausse par rapport à l'hypothèse précédente de 0,6%. Bayes nous permet donc de mettre à jour notre estimation du coût probable de I. Si la quantité de données est petite, elle ne nous dit pas exactement quel est le coût, mais seulement qu'elle est suffisamment grande pour être corrigée.
Une autre façon de voir les choses s'appelle la règle de succession . Si vous lancez une pièce 2 fois et qu'elle revient en tête les deux fois, qu'est-ce que cela vous dit sur la pondération probable de la pièce? La façon respectée de répondre est de dire que c'est une distribution Beta, avec une valeur moyenne (number of hits + 1) / (number of tries + 2) = (2+1)/(2+2) = 75%.
(La clé est que nous voyons Iplus d'une fois. Si nous ne le voyons qu'une seule fois, cela ne nous dit pas grand-chose sauf que f> 0.)
Ainsi, même un très petit nombre d'échantillons peut nous en dire beaucoup sur le coût des instructions qu'il voit. (Et il les voir avec une fréquence Si, en moyenne, proportionnelle à leur coût. nÉchantillons sont prélevés, et fest le coût, puis Iapparaîtra sur des nf+/-sqrt(nf(1-f))échantillons. Exemple, n=10, f=0.3, c'est - 3+/-1.4échantillons.)
Ajouté : Pour donner une idée intuitive de la différence entre la mesure et l'échantillonnage aléatoire de la pile:
il existe maintenant des profileurs qui échantillonnent la pile, même à l'heure de l'horloge murale, mais ce qui en ressort est les mesures (ou chemin chaud, ou point chaud, à partir desquelles un "goulot d'étranglement" peut facilement se cacher). Ce qu'ils ne vous montrent pas (et ils pourraient facilement), ce sont les échantillons eux-mêmes. Et si votre objectif est de trouver le goulot d'étranglement, le nombre d'entre eux que vous devez voir est, en moyenne , 2 divisé par la fraction de temps qu'il faut. Donc, si cela prend 30% du temps, 2 / .3 = 6,7 échantillons, en moyenne, le montreront, et la probabilité que 20 échantillons le montrent est de 99,2%.
Voici une illustration immédiate de la différence entre l'examen des mesures et l'examen des échantillons de pile. Le goulot d'étranglement pourrait être un gros blob comme celui-ci, ou de nombreux petits, cela ne fait aucune différence.
La mesure est horizontale; il vous indique combien de temps les routines spécifiques prennent. L'échantillonnage est vertical. S'il existe un moyen d'éviter ce que fait l'ensemble du programme à ce moment, et si vous le voyez sur un deuxième échantillon , vous avez trouvé le goulot d'étranglement. C'est ce qui fait la différence - voir toute la raison du temps passé, pas seulement combien.
Il s'agit essentiellement du profileur d'échantillonnage d'un pauvre, ce qui est génial, mais vous courez le risque d'une taille d'échantillon trop petite qui vous donnera peut-être des résultats entièrement faux.
Crashworks
100
@Crash: Je ne discuterai pas de la partie "pauvre" :-) Il est vrai que la précision des mesures statistiques nécessite de nombreux échantillons, mais il y a deux objectifs contradictoires - la mesure et la localisation du problème. Je me concentre sur ce dernier, pour lequel vous avez besoin de précision de localisation, pas de précision de mesure. Ainsi, par exemple, il peut y avoir, au milieu de la pile, un seul appel de fonction A (); cela représente 50% du temps, mais il peut être dans une autre grande fonction B, ainsi que de nombreux autres appels à A () qui ne sont pas coûteux. Des résumés précis des temps de fonction peuvent être un indice, mais tous les autres échantillons de pile identifieront le problème.
Mike Dunlavey
41
... le monde semble penser qu'un graphique des appels, annoté avec le nombre d'appels et / ou la durée moyenne, est assez bon. Ce n'est pas. Et le plus triste est que, pour ceux qui échantillonnent la pile d'appels, les informations les plus utiles se trouvent juste devant eux, mais ils les jettent, dans l'intérêt des "statistiques".
Mike Dunlavey
30
Je ne veux pas être en désaccord avec votre technique. De toute évidence, je me fie beaucoup aux profileurs d'échantillonnage à empilement. Je souligne simplement qu'il existe maintenant des outils qui le font de manière automatisée, ce qui est important lorsque vous avez dépassé le point d'obtenir une fonction de 25% à 15% et que vous devez la faire passer de 1,2% à 0,6%.
Crashworks
13
-1: Bonne idée, mais si vous êtes payé pour travailler même dans un environnement modérément axé sur les performances, c'est une perte de temps pour tout le monde. Utilisez un vrai profileur afin que nous n'ayons pas à vous suivre et à résoudre les problèmes réels.
Sam Harwell
583
Vous pouvez utiliser Valgrind avec les options suivantes
valgrind --tool=callgrind ./(Your binary)
Il générera un fichier appelé callgrind.out.x. Vous pouvez ensuite utiliser l' kcachegrindoutil pour lire ce fichier. Il vous donnera une analyse graphique des choses avec des résultats comme quelles lignes coûtent combien.
valgrind est génial, mais sachez que cela ralentira votre programme
neves
30
Consultez également Gprof2Dot pour une alternative étonnante pour visualiser la sortie. ./gprof2dot.py -f callgrind callgrind.out.x | dot -Tsvg -o output.svg
Sebastian
2
@neves Oui Valgrind n'est tout simplement pas très utile en termes de vitesse pour le profilage des applications "gstreamer" et "opencv" en temps réel.
Je suis d'accord que gprof est la norme actuelle. Juste une note, cependant, Valgrind est utilisé pour profiler les fuites de mémoire et d'autres aspects liés à la mémoire de vos programmes, pas pour l'optimisation de la vitesse.
Bill the Lizard
68
Bill, Dans la suite vaglrind, vous pouvez trouver le callgrind et le massif. Les deux sont assez utiles pour profiler les applications
gprof -pg n'est qu'une approximation du profilage de pile d'appels. Il insère des appels mcount pour suivre quelles fonctions appellent quelles autres fonctions. Il utilise un échantillonnage basé sur le temps standard pour, euh, le temps. Il répartit ensuite les temps échantillonnés dans une fonction foo () vers les appelants de foo (), en proportion du nombre d'appels. Il ne fait donc pas de distinction entre les appels de coûts différents.
Krazy Glew
1
Avec clang / clang ++, on pourrait envisager d'utiliser le profileur CPU de gperftools . Mise en garde: Je ne l'ai pas fait moi-même.
einpoklum
257
Les noyaux plus récents (par exemple les derniers noyaux Ubuntu) sont livrés avec les nouveaux outils 'perf' ( apt-get install linux-tools) AKA perf_events .
Ceux-ci sont livrés avec des profileurs d'échantillonnage classiques ( page de manuel ) ainsi que le chronogramme impressionnant !
L'important est que ces outils peuvent être le profilage du système et pas seulement le profilage des processus - ils peuvent montrer l'interaction entre les threads, les processus et le noyau et vous permettent de comprendre la planification et les dépendances d'E / S entre les processus.
Excellent outil! Existe-t-il de toute façon une vue "papillon" typique qui commence par le style "main-> func1-> fun2"? Je n'arrive pas à comprendre cela ... perf reportsemble me donner les noms des fonctions avec les parents d'appel ... (donc c'est une sorte de vue papillon inversée)
kizzx2
Will, peut montrer le chronogramme de l'activité des fils; avec des informations sur le numéro de CPU ajoutées? Je veux voir quand et quel thread était exécuté sur chaque CPU.
Une autre belle introduction perfexiste sur archive.li/9r927#selection-767.126-767.271 (Pourquoi les dieux SO ont décidé de supprimer cette page de la base de connaissances SO me dépasse ....)
ragerdl
75
J'utiliserais Valgrind et Callgrind comme base pour ma suite d'outils de profilage. Ce qui est important à savoir, c'est que Valgrind est fondamentalement une machine virtuelle:
(wikipedia) Valgrind est essentiellement une machine virtuelle utilisant des techniques de compilation juste à temps (JIT), y compris la recompilation dynamique. Rien du programme d'origine n'est jamais exécuté directement sur le processeur hôte. Au lieu de cela, Valgrind traduit d'abord le programme sous une forme temporaire et plus simple appelée représentation intermédiaire (IR), qui est une forme SSA indépendante du processeur. Après la conversion, un outil (voir ci-dessous) est libre de faire toutes les transformations qu'il souhaite sur l'IR, avant que Valgrind ne convertisse l'IR en code machine et laisse le processeur hôte l'exécuter.
Callgrind est un profileur basé sur cela. Le principal avantage est que vous n'avez pas à exécuter votre application pendant des heures pour obtenir un résultat fiable. Même une seconde course est suffisante pour obtenir des résultats solides et fiables, car Callgrind est un profileur sans sondage .
Un autre outil construit sur Valgrind est Massif. Je l'utilise pour profiler l'utilisation de la mémoire de tas. Cela fonctionne très bien. Ce qu'il fait, c'est qu'il vous donne des instantanés de l'utilisation de la mémoire - des informations détaillées CE QUI contient QUEL pourcentage de mémoire, et QUI l'avait mis là. Ces informations sont disponibles à différents moments de l'exécution de l'application.
La réponse à exécuter valgrind --tool=callgrindn'est pas tout à fait complète sans certaines options. Nous ne voulons généralement pas profiler 10 minutes de temps de démarrage lent sous Valgrind et nous voulons profiler notre programme lorsqu'il effectue une tâche.
Voilà donc ce que je recommande. Exécutez d'abord le programme:
Maintenant, quand cela fonctionne et que nous voulons commencer le profilage, nous devons exécuter dans une autre fenêtre:
callgrind_control -i on
Cela active le profilage. Pour le désactiver et arrêter toute la tâche, nous pouvons utiliser:
callgrind_control -k
Nous avons maintenant quelques fichiers nommés callgrind.out. * Dans le répertoire courant. Pour voir les résultats de profilage, utilisez:
kcachegrind callgrind.out.*
Je recommande dans la fenêtre suivante de cliquer sur l'en-tête de colonne "Self", sinon cela montre que "main ()" est la tâche la plus longue. "Self" montre combien chaque fonction elle-même a pris du temps, pas avec les personnes à charge.
Maintenant, pour une raison quelconque, les fichiers callgrind.out. * Étaient toujours vides. L'exécution de callgrind_control -d était utile pour forcer le vidage des données sur le disque.
Tõnu Samuel
3
Je ne peux pas. Mes contextes habituels sont quelque chose comme MySQL ou PHP entier ou quelque chose de similaire. Souvent même je ne sais pas ce que je veux séparer au début.
Tõnu Samuel
2
Ou dans mon cas, mon programme charge en fait un tas de données dans un cache LRU, et je ne veux pas profiler cela. J'ai donc forcé le chargement d'un sous-ensemble du cache au démarrage et profilé le code en utilisant uniquement ces données (en laissant l'OS + CPU gérer l'utilisation de la mémoire dans mon cache). Cela fonctionne, mais le chargement de ce cache est lent et gourmand en CPU dans le code que j'essaie de profiler dans un contexte différent, donc callgrind produit des résultats très pollués.
J'utilise Gprof ces deux derniers jours et j'ai déjà trouvé trois limitations importantes, dont une que je n'ai jamais vue (encore) documentée ailleurs:
Il ne fonctionne pas correctement sur du code multithread, sauf si vous utilisez une solution de contournement
Le graphe d'appel est confus par les pointeurs de fonction. Exemple: J'ai une fonction appelée multithread()qui me permet de multi-threader une fonction spécifiée sur un tableau spécifié (tous deux passés comme arguments). Gprof considère cependant tous les appels multithread()comme équivalents aux fins du calcul du temps passé chez les enfants. Étant donné que certaines fonctions que je passe multithread()prennent beaucoup plus de temps que d'autres, mes graphiques d'appel sont pour la plupart inutiles. (Pour ceux qui se demandent si le thread est le problème ici: non, multithread()peut éventuellement, et l'a fait dans ce cas, exécuter tout séquentiellement sur le thread appelant uniquement).
Il est dit ici que "... les chiffres du nombre d'appels sont calculés par comptage et non par échantillonnage. Ils sont complètement précis ...". Pourtant, je trouve que mon graphique d'appel me donne 5345859132 + 784984078 comme statistiques d'appels vers ma fonction la plus appelée, où le premier numéro est censé être des appels directs et le deuxième appels récursifs (qui sont tous de lui-même). Comme cela impliquait que j'avais un bug, j'ai mis de longs compteurs (64 bits) dans le code et j'ai recommencé la même exécution. Mes comptes: 5345859132 directs et 78094395406 appels auto-récursifs. Il y a beaucoup de chiffres, alors je soulignerai que les appels récursifs que je mesure sont de 78 milliards, contre 784 millions de Gprof: un facteur de 100 différent. Les deux exécutions étaient du code à thread unique et non optimisé, l'un compilé -get l'autre -pg.
Il s'agissait de GNU Gprof (GNU Binutils pour Debian) 2.18.0.20080103 fonctionnant sous Debian Lenny 64 bits, si cela peut aider quelqu'un.
Oui, il fait de l'échantillonnage, mais pas pour les chiffres du nombre d'appels. Fait intéressant, suivre votre lien m'a finalement conduit à une version mise à jour de la page de manuel à laquelle j'ai lié dans mon message, nouvelle URL: sourceware.org/binutils/docs/gprof/… Cela répète la citation dans la partie (iii) de ma réponse, mais indique également "Dans les applications multithread ou dans les applications monothread qui sont liées à des bibliothèques multithread, les décomptes ne sont déterministes que si la fonction de comptage est thread-safe. (Remarque: attention, la fonction de comptage mcount dans glibc n'est pas thread -sûr)."
Rob_before_edits
Il n'est pas clair pour moi si cela explique mon résultat en (iii). Mon code était lié -lpthread -lm et a déclaré à la fois une variable statique "pthread_t * thr" et "pthread_mutex_t nextLock = PTHREAD_MUTEX_INITIALIZER" même lorsqu'il exécutait un seul thread. Je présumerais normalement que «créer un lien avec des bibliothèques multithread» signifie réellement utiliser ces bibliothèques, et dans une plus large mesure que cela, mais je peux me tromper!
Rob_before_edits
23
Utilisez Valgrind, callgrind et kcachegrind:
valgrind --tool=callgrind ./(Your binary)
génère callgrind.out.x. Lisez-le en utilisant kcachegrind.
Utilisez gprof (add -pg):
cc -o myprog myprog.c utils.c -g -pg
(pas si bon pour les multi-threads, les pointeurs de fonction)
Utilisez google-perftools:
Utilise l'échantillonnage du temps, les E / S et les goulots d'étranglement CPU sont révélés.
Intel VTune est le meilleur (gratuit à des fins éducatives).
Dans cette réponse, j'utiliserai plusieurs outils différents pour analyser quelques programmes de test très simples, afin de comparer concrètement le fonctionnement de ces outils.
Le programme de test suivant est très simple et fait ce qui suit:
mainappels fastet maybe_slow3 fois, l'un des maybe_slowappels étant lent
L'appel lent de maybe_slowest 10 fois plus long et domine l'exécution si nous considérons les appels à la fonction enfant common. Idéalement, l'outil de profilage pourra nous orienter vers l'appel lent spécifique.
à la fois fastet maybe_slowappel common, qui représente la majeure partie de l'exécution du programme
L'interface du programme est:
./main.out [n [seed]]
et le programme fait des O(n^2)boucles au total. seedest juste d'obtenir une sortie différente sans affecter l'exécution.
principal c
#include<inttypes.h>#include<stdio.h>#include<stdlib.h>uint64_t __attribute__ ((noinline)) common(uint64_t n,uint64_t seed){for(uint64_t i =0; i < n;++i){
seed =(seed * seed)-(3* seed)+1;}return seed;}uint64_t __attribute__ ((noinline)) fast(uint64_t n,uint64_t seed){uint64_t max =(n /10)+1;for(uint64_t i =0; i < max;++i){
seed = common(n,(seed * seed)-(3* seed)+1);}return seed;}uint64_t __attribute__ ((noinline)) maybe_slow(uint64_t n,uint64_t seed,int is_slow){uint64_t max = n;if(is_slow){
max *=10;}for(uint64_t i =0; i < max;++i){
seed = common(n,(seed * seed)-(3* seed)+1);}return seed;}int main(int argc,char**argv){uint64_t n, seed;if(argc >1){
n = strtoll(argv[1], NULL,0);}else{
n =1;}if(argc >2){
seed = strtoll(argv[2], NULL,0);}else{
seed =0;}
seed += maybe_slow(n, seed,0);
seed += fast(n, seed);
seed += maybe_slow(n, seed,1);
seed += fast(n, seed);
seed += maybe_slow(n, seed,0);
seed += fast(n, seed);
printf("%" PRIX64 "\n", seed);return EXIT_SUCCESS;}
gprof
gprof nécessite de recompiler le logiciel avec l'instrumentation, et il utilise également une approche d'échantillonnage avec cette instrumentation. Il établit donc un équilibre entre la précision (l'échantillonnage n'est pas toujours entièrement précis et peut sauter des fonctions) et le ralentissement de l'exécution (l'instrumentation et l'échantillonnage sont des techniques relativement rapides qui ne ralentissent pas beaucoup l'exécution).
gprof est intégré à GCC / binutils, donc tout ce que nous avons à faire est de compiler avec l' -pgoption pour activer gprof. Nous exécutons ensuite le programme normalement avec un paramètre CLI de taille qui produit une exécution d'une durée raisonnable de quelques secondes ( 10000):
Pour des raisons pédagogiques, nous effectuerons également une course sans optimisations activées. Notez que cela est inutile dans la pratique, car vous ne vous souciez normalement que d'optimiser les performances du programme optimisé:
Tout d'abord, timenous indique que le temps d'exécution avec et sans -pgétait le même, ce qui est super: pas de ralentissement! J'ai cependant vu des comptes rendus de ralentissements 2x - 3x sur des logiciels complexes, par exemple comme indiqué dans ce ticket .
Parce que nous avons compilé avec -pg, l'exécution du programme produit un gmon.outfichier contenant les données de profilage.
Ici, l' gprofoutil lit les gmon.outinformations de trace et génère un rapport lisible par l'homme main.gprof, qui gprof2dotlit ensuite pour générer un graphique.
La -O0sortie est assez explicite. Par exemple, cela montre que les 3 maybe_slowappels et leurs appels enfants occupent 97,56% du temps d'exécution total, bien que l'exécution de maybe_slowlui - même sans enfants représente 0,00% du temps d'exécution total, c'est-à-dire que presque tout le temps passé dans cette fonction a été consacré à les appels des enfants.
TODO: pourquoi est-il mainabsent de la -O3sortie, même si je peux le voir sur un btdans GDB? Fonction manquante de la sortie GProf Je pense que c'est parce que gprof est également basé sur l'échantillonnage en plus de son instrumentation compilée, et qu'il -O3mainest tout simplement trop rapide et n'a obtenu aucun échantillon.
J'ai choisi la sortie SVG au lieu de PNG car le SVG est consultable avec Ctrl + F et la taille du fichier peut être environ 10 fois plus petite. De plus, la largeur et la hauteur de l'image générée peuvent être énormes avec des dizaines de milliers de pixels pour les logiciels complexes, et GNOME eog3.28.1 bogue dans ce cas pour les PNG, tandis que les SVG s'ouvrent automatiquement par mon navigateur. gimp 2.8 a bien fonctionné, voir aussi:
mais même dans ce cas, vous ferez beaucoup glisser l'image pour trouver ce que vous voulez, voir par exemple cette image à partir d'un "vrai" exemple de logiciel tiré de ce ticket :
Pouvez-vous trouver facilement la pile d'appels la plus critique avec toutes ces petites lignes de spaghetti non triées qui se superposent? Il y a peut-être de meilleures dotoptions, j'en suis sûr, mais je ne veux pas y aller maintenant. Ce dont nous avons vraiment besoin, c'est d'une visionneuse dédiée appropriée, mais je n'en ai pas encore trouvé:
Vous pouvez cependant utiliser la carte de couleurs pour atténuer un peu ces problèmes. Par exemple, sur la grande image précédente, j'ai finalement réussi à trouver le chemin critique sur la gauche lorsque j'ai fait la brillante déduction que le vert vient après le rouge, suivi enfin par le bleu de plus en plus sombre.
Alternativement, nous pouvons également observer la sortie texte de l' gprofoutil binutils intégré que nous avons précédemment enregistré à:
cat main.gprof
Par défaut, cela produit une sortie extrêmement détaillée qui explique la signification des données de sortie. Comme je ne peux pas expliquer mieux que ça, je vous laisse le lire vous-même.
Une fois que vous avez compris le format de sortie des données, vous pouvez réduire la verbosité pour afficher uniquement les données sans le didacticiel avec l' -boption:
gprof -b main.out
Dans notre exemple, les résultats étaient pour -O0:
Flat profile:Each sample counts as 0.01 seconds.% cumulative self self total
time seconds seconds calls s/call s/call name
100.353.673.671230030.000.00 common
0.003.670.0030.000.03 fast
0.003.670.0030.001.19 maybe_slow
Call graph
granularity: each sample hit covers 2 byte(s)for0.27% of 3.67 seconds
index % time self children called name
0.090.003003/123003 fast [4]3.580.00120000/123003 maybe_slow [3][1]100.03.670.00123003 common [1]-----------------------------------------------<spontaneous>[2]100.00.003.67 main [2]0.003.583/3 maybe_slow [3]0.000.093/3 fast [4]-----------------------------------------------0.003.583/3 main [2][3]97.60.003.583 maybe_slow [3]3.580.00120000/123003 common [1]-----------------------------------------------0.000.093/3 main [2][4]2.40.000.093 fast [4]0.090.003003/123003 common [1]-----------------------------------------------Index by function name
[1] common [4] fast [3] maybe_slow
et pour -O3:
Flat profile:Each sample counts as 0.01 seconds.% cumulative self self total
time seconds seconds calls us/call us/call name
100.521.841.8412300314.9614.96 common
Call graph
granularity: each sample hit covers 2 byte(s)for0.54% of 1.84 seconds
index % time self children called name
0.040.003003/123003 fast [3]1.790.00120000/123003 maybe_slow [2][1]100.01.840.00123003 common [1]-----------------------------------------------<spontaneous>[2]97.60.001.79 maybe_slow [2]1.790.00120000/123003 common [1]-----------------------------------------------<spontaneous>[3]2.40.000.04 fast [3]0.040.003003/123003 common [1]-----------------------------------------------Index by function name
[1] common
Comme un résumé très rapide pour chaque section, par exemple:
0.003.583/3 main [2][3]97.60.003.583 maybe_slow [3]3.580.00120000/123003 common [1]
centre autour de la fonction qui est en retrait ( maybe_flow). [3]est l'ID de cette fonction. Au-dessus de la fonction, se trouvent ses appelants, et en dessous les callees.
Pour -O3, voyez ici comme dans la sortie graphique cela maybe_slowet fastn'avez pas de parent connu, c'est ce que la documentation dit que cela <spontaneous>signifie.
valgrind exécute le programme via la machine virtuelle valgrind. Cela rend le profilage très précis, mais il produit également un très grand ralentissement du programme. J'ai également mentionné kcachegrind précédemment à: Outils pour obtenir un graphe d'appel de fonction picturale de code
callgrind est l'outil de valgrind pour profiler le code et kcachegrind est un programme KDE qui peut visualiser la sortie du cachegrind.
Tout d'abord, nous devons supprimer l' -pgindicateur pour revenir à la compilation normale, sinon l'exécution échoue avec Profiling timer expired, et oui, c'est tellement courant que je l'ai fait et il y avait une question de débordement de pile pour cela.
J'autorise --dump-instr=yes --collect-jumps=yescela, car cela permet également d'afficher des informations qui nous permettent d'afficher une ventilation des performances par chaîne de montage, à un coût supplémentaire relativement faible.
Au départ, timenous dit que le programme a pris 29,5 secondes pour s'exécuter, nous avons donc eu un ralentissement d'environ 15x sur cet exemple. De toute évidence, ce ralentissement va être une sérieuse limitation pour les charges de travail plus importantes. Sur "l'exemple du logiciel du monde réel" mentionné ici , j'ai observé un ralentissement de 80x.
La course génère un fichier de données de profil nommé callgrind.out.<pid>par exemple callgrind.out.8554dans mon cas. Nous visualisons ce fichier avec:
kcachegrind callgrind.out.8554
qui montre une interface graphique qui contient des données similaires à la sortie textuelle gprof:
De plus, si nous allons sur l'onglet "Call Graph" en bas à droite, nous voyons un graphique d'appel que nous pouvons exporter en cliquant dessus avec le bouton droit pour obtenir l'image suivante avec des quantités déraisonnables de bordure blanche :-)
Je pense que fastne s'affiche pas sur ce graphique parce que kcachegrind doit avoir simplifié la visualisation car cet appel prend trop peu de temps, ce sera probablement le comportement que vous souhaitez sur un vrai programme. Le menu du clic droit a quelques paramètres pour contrôler quand abattre de tels nœuds, mais je n'ai pas pu le faire afficher un appel aussi court après une tentative rapide. Si je clique sur fastdans la fenêtre de gauche, il montre un graphique d'appel avec fast, donc cette pile a été réellement capturée. Personne n'avait encore trouvé un moyen d'afficher le graphe d'appel complet: Faire en sorte que callgrind affiche tous les appels de fonction dans le callgraph kcachegrind
TODO sur un logiciel C ++ complexe, je vois quelques entrées de type <cycle N>, par exemple, <cycle 11>là où je m'attendrais à des noms de fonction, qu'est-ce que cela signifie? J'ai remarqué qu'il y avait un bouton "Détection de cycle" pour l'activer ou le désactiver, mais qu'est-ce que cela signifie?
perf de linux-tools
perfsemble utiliser exclusivement des mécanismes d'échantillonnage du noyau Linux. Cela le rend très simple à configurer, mais aussi pas entièrement précis.
sudo apt install linux-tools
time perf record -g ./main.out 10000
Cela a ajouté 0,2 seconde à l'exécution, nous sommes donc très bien dans le temps, mais je ne vois toujours pas beaucoup d'intérêt, après avoir développé le commonnœud avec la flèche droite du clavier:
TODO: que s'est-il passé lors de l' -O3exécution? Est-ce simplement cela maybe_slowet fastétait trop rapide et n'a pas obtenu d'échantillons? Cela fonctionne-t-il bien avec -O3des programmes plus importants dont l'exécution est plus longue? Ai-je manqué une option CLI? J'ai découvert le -Fcontrôle de la fréquence d'échantillonnage en Hertz, mais je l'ai augmentée au maximum autorisé par défaut de -F 39500(pourrait être augmenté avec sudo) et je ne vois toujours pas d'appels clairs.
Une chose intéressante à propos de perfl'outil FlameGraph de Brendan Gregg qui affiche les horaires de la pile d'appels d'une manière très soignée qui vous permet de voir rapidement les gros appels. L'outil est disponible sur: https://github.com/brendangregg/FlameGraph et est également mentionné sur son tutoriel de perf sur: http://www.brendangregg.com/perf.html#FlameGraphs Quand j'ai couru perfsans sudoje l'ai ERROR: No stack counts foundfait pour maintenant je vais le faire avec sudo:
mais dans un programme aussi simple, la sortie n'est pas très facile à comprendre, car nous ne pouvons pas facilement voir ni maybe_slowni fastsur ce graphique:
Sur un exemple plus complexe, il devient clair ce que le graphique signifie:
TODO il y a un journal de [unknown]fonctions dans cet exemple, pourquoi?
Une autre interface graphique performante qui pourrait en valoir la peine comprend:
Mais cela a l'inconvénient que vous devez d'abord convertir les données au format de trace commun, ce qui peut être fait avec perf data --to-ctf, mais il doit être activé au moment de la construction / avoir perfsuffisamment de nouveau, ce qui n'est pas le cas pour la perf dans Ubuntu 18.04
Ensuite, nous pouvons activer le profileur de processeur gperftools de deux manières: au moment de l'exécution ou au moment de la construction.
Au moment de l'exécution, nous devons passer set the LD_PRELOADto point to libprofiler.so, que vous pouvez trouver avec locate libprofiler.so, par exemple sur mon système:
La meilleure façon de voir ces données que j'ai trouvées jusqu'à présent est de faire en sorte que la sortie de pprof soit du même format que kcachegrind prend en entrée (oui, l'outil Valgrind-project-viewer-tool) et d'utiliser kcachegrind pour voir cela:
Après avoir exécuté l'une de ces méthodes, nous obtenons un prof.outfichier de données de profil en sortie. Nous pouvons visualiser ce fichier graphiquement en SVG avec:
google-pprof --web main.out prof.out
qui donne comme un graphique d'appel familier comme les autres outils, mais avec l'unité maladroite de nombre d'échantillons plutôt que de secondes.
Alternativement, nous pouvons également obtenir des données textuelles avec:
google-pprof --text main.out prof.out
qui donne:
Using local file main.out.Using local file prof.out.Total:187 samples
187100.0%100.0%187100.0% common
00.0%100.0%187100.0% __libc_start_main
00.0%100.0%187100.0% _start
00.0%100.0%42.1% fast
00.0%100.0%187100.0% main
00.0%100.0%18397.9% maybe_slow
Par défaut, l'enregistrement de performances utilise le registre de pointeur de trame. Les compilateurs modernes n'enregistrent pas l'adresse de trame et utilisent plutôt le registre à des fins générales. L'alternative est de compiler avec -fno-omit-frame-pointerindicateur ou d'utiliser une alternative différente: enregistrez avec --call-graph "dwarf"ou en --call-graph "lbr"fonction de votre scénario.
Jorge Bellon
5
Pour les programmes monothread , vous pouvez utiliser igprof , The Ignominous Profiler: https://igprof.org/ .
Il s'agit d'un profileur d'échantillonnage, dans le sens de la ... longue ... réponse de Mike Dunlavey, qui emballera les résultats dans une arborescence de pile d'appels consultable, annotée avec le temps ou la mémoire passé dans chaque fonction, cumulative ou par fonction.
Cela semble intéressant, mais ne parvient pas à compiler avec GCC 9.2. (Debian / Sid) J'ai fait un problème sur github.
Basile Starynkevitch
5
Il convient également de mentionner
HPCToolkit ( http://hpctoolkit.org/ ) - Open-source, fonctionne pour les programmes parallèles et possède une interface graphique avec laquelle regarder les résultats de plusieurs façons
J'ai utilisé HPCToolkit et VTune et ils sont très efficaces pour trouver le long pôle dans la tente et n'ont pas besoin de recompiler votre code (sauf que vous devez utiliser -g -O ou le type RelWithDebInfo dans CMake pour obtenir une sortie significative) . J'ai entendu dire que TAU avait des capacités similaires.
Ce sont les deux méthodes que j'utilise pour accélérer mon code:
Pour les applications liées au processeur:
Utilisez un profileur en mode DEBUG pour identifier les parties douteuses de votre code
Ensuite, passez en mode RELEASE et commentez les sections douteuses de votre code (stub avec rien) jusqu'à ce que vous voyiez des changements dans les performances.
Pour les applications liées aux E / S:
Utilisez un profileur en mode RELEASE pour identifier les parties douteuses de votre code.
NB
Si vous n'avez pas de profileur, utilisez le profileur du pauvre. Appuyez sur pause pendant le débogage de votre application. La plupart des suites de développeurs se diviseront en assembleur avec des numéros de ligne commentés. Vous êtes statistiquement susceptible d'atterrir dans une région qui consomme la plupart de vos cycles CPU.
Pour le CPU, la raison du profilage en mode DEBUG est que si votre profilage essayé en mode RELEASE , le compilateur va réduire les mathématiques, vectoriser les boucles et les fonctions en ligne qui ont tendance à globaliser votre code dans un désordre non mappable lorsqu'il est assemblé. Un désordre non mappable signifie que votre profileur ne sera pas en mesure d'identifier clairement ce qui prend si longtemps car l'assembly peut ne pas correspondre au code source en cours d'optimisation . Si vous avez besoin des performances (par exemple, sensibles au timing) du mode RELEASE , désactivez les fonctionnalités du débogueur si nécessaire pour conserver des performances utilisables.
Pour les E / S liées, le profileur peut toujours identifier les opérations d'E / S en mode RELEASE car les opérations d'E / S sont soit liées en externe à une bibliothèque partagée (la plupart du temps), soit, dans le pire des cas, se traduisent par un système. vecteur d'interruption d'appel (qui est également facilement identifiable par le profileur).
+1 La méthode du pauvre fonctionne aussi bien pour les E / S liées que pour les CPU, et je recommande de faire tout le réglage des performances en mode DEBUG. Une fois le réglage terminé, activez RELEASE. Cela apportera une amélioration si le programme est lié au CPU dans votre code. Voici une vidéo grossière mais courte du processus.
Mike Dunlavey
3
Je n'utiliserais pas les builds DEBUG pour le profilage des performances. Souvent, j'ai vu que les pièces essentielles aux performances en mode DEBUG sont complètement optimisées en mode release. Un autre problème est l'utilisation d'assertions dans le code de débogage qui ajoutent du bruit aux performances.
gast128
3
Avez-vous lu mon article? "Si vous avez besoin des performances (par exemple sensibles au timing) du mode RELEASE, désactivez les fonctionnalités du débogueur si nécessaire pour conserver des performances utilisables", "Ensuite, passez en mode RELEASE et commentez les sections douteuses de votre code (Stub it with nothing) jusqu'à ce que vous voyiez changements de performances. "? J'ai dit de vérifier les zones de problèmes possibles en mode débogage et de vérifier ces problèmes en mode version pour éviter l'écueil que vous avez mentionné.
Il est multiplateforme et vous permet de ne pas mesurer les performances de votre application également en temps réel. Vous pouvez même l'associer à un graphique en direct. Avertissement complet: je suis l'auteur.
Vous pouvez utiliser un cadre de journalisation comme logurucar il comprend des horodatages et une disponibilité totale qui peuvent être bien utilisés pour le profilage:
Au travail, nous avons un outil vraiment sympa qui nous aide à surveiller ce que nous voulons en termes de planification. Cela a été utile à plusieurs reprises.
C'est en C ++ et doit être personnalisé selon vos besoins. Malheureusement, je ne peux pas partager de code, juste des concepts. Vous utilisez un "grand" volatiletampon contenant des horodatages et un ID d'événement que vous pouvez vider post mortem ou après avoir arrêté le système de journalisation (et le vider dans un fichier par exemple).
Vous récupérez le soi-disant grand tampon avec toutes les données et une petite interface les analyse et affiche les événements avec le nom (haut / bas + valeur) comme un oscilloscope le fait avec des couleurs (configuré dans un .hppfichier).
Vous personnalisez la quantité d'événements générés pour vous concentrer uniquement sur ce que vous désirez. Cela nous a beaucoup aidés à planifier les problèmes tout en consommant la quantité de CPU que nous voulions en fonction du nombre d'événements enregistrés par seconde.
Vous avez besoin de 3 fichiers:
toolname.hpp // interface
toolname.cpp // code
tool_events_id.hpp // Events ID
Le concept est de définir des événements tool_events_id.hppcomme ça:
La probefonction utilise quelques lignes d'assemblage pour récupérer l'horodatage d'horloge dès que possible, puis définit une entrée dans le tampon. Nous avons également un incrément atomique pour trouver en toute sécurité un index où stocker l'événement du journal. Bien sûr, le tampon est circulaire.
J'espère que l'idée n'est pas obscurcie par le manque d'exemple de code.
En fait, un peu surpris pas beaucoup mentionné sur google / benchmark , alors qu'il est un peu lourd de préciser la zone spécifique du code, surtout si la base de code est un peu grande, mais j'ai trouvé cela très utile lorsqu'il est utilisé en combinaison aveccallgrind
À mon humble avis, identifier la pièce à l'origine du goulot d'étranglement est la clé ici. Je voudrais cependant essayer de répondre aux questions suivantes en premier et choisir l'outil en fonction de cela
mon algorithme est-il correct?
y a-t-il des serrures qui se révèlent être des goulots d'étranglement?
existe-t-il une section spécifique de code qui s'avère être un coupable?
qu'en est-il des E / S, gérées et optimisées?
valgrindavec la combinaison de callrindet kcachegrinddevrait fournir une estimation décente sur les points ci-dessus et une fois qu'il est établi qu'il y a des problèmes avec une section de code, je suggérerais de faire un micro repère google benchmarkest un bon point de départ.
Utilisez un -pgindicateur lors de la compilation et de la liaison du code et exécutez le fichier exécutable. Pendant l'exécution de ce programme, les données de profilage sont collectées dans le fichier a.out.
Il existe deux types de profilage différents
1- Profilage plat:
en exécutant la commande, gprog --flat-profile a.outvous obtenez les données suivantes
- quel pourcentage du temps total a été passé pour la fonction,
- combien de secondes ont été passées dans une fonction - y compris et excluant les appels aux sous-fonctions,
- le nombre de appels,
- le temps moyen par appel.
2- graphique
nous profilant la commande gprof --graph a.outpour obtenir les données suivantes pour chaque fonction qui comprend
- Dans chaque section, une fonction est marquée d'un numéro d'index.
- Au-dessus de la fonction, il y a une liste de fonctions qui appellent la fonction.
- Sous la fonction, il y a une liste des fonctions qui sont appelées par la fonction.
Comme personne n'a mentionné Arm MAP, j'ajouterais que personnellement, j'ai réussi à utiliser Map pour profiler un programme scientifique C ++.
Arm MAP est le profileur pour les codes C, C ++, Fortran et F90 parallèles, multithread ou à thread unique. Il fournit une analyse approfondie et un repérage des goulots d'étranglement sur la ligne source. Contrairement à la plupart des profileurs, il est conçu pour pouvoir profiler des pthreads, OpenMP ou MPI pour du code parallèle et fileté.
utiliser un logiciel de débogage
comment identifier où le code s'exécute lentement?
pensez simplement que vous avez un obstacle pendant que vous êtes en mouvement, cela réduira votre vitesse
comme cette boucle de réallocation indésirable, les débordements de tampon, la recherche, les fuites de mémoire, etc.
g++ your_prg.cpp -pgou cc my_program.cpp -g -pgselon votre compilateur
Je ne l'ai pas encore essayé mais j'ai entendu de bonnes choses sur google-perftools. Cela vaut vraiment la peine d'essayer.
valgrind --tool=callgrind ./(Your binary)
Il générera un fichier appelé gmon.out ou callgrind.out.x. Vous pouvez ensuite utiliser kcachegrind ou l'outil de débogage pour lire ce fichier. Il vous donnera une analyse graphique des choses avec des résultats comme quelles lignes coûtent combien.
code
profileurs. Cependant, l'inversion de priorité, l'alias de cache, la contention de ressources, etc. peuvent tous être des facteurs d'optimisation et de performances. Je pense que les gens lisent des informations dans mon code lent . Les FAQ font référence à ce fil.Réponses:
Si votre objectif est d'utiliser un profileur, utilisez l'un des suggestions.
Cependant, si vous êtes pressé et que vous pouvez interrompre manuellement votre programme sous le débogueur pendant qu'il est subjectivement lent, il existe un moyen simple de trouver des problèmes de performances.
Arrêtez-le plusieurs fois et regardez à chaque fois la pile des appels. S'il y a du code qui fait perdre un certain pourcentage du temps, 20% ou 50% ou autre, c'est la probabilité que vous l'attrapiez dans la loi sur chaque échantillon. Donc, c'est à peu près le pourcentage d'échantillons sur lesquels vous le verrez. Aucune conjecture éclairée n'est requise. Si vous avez une idée du problème, cela le prouvera ou le réfutera.
Vous pouvez rencontrer plusieurs problèmes de performances de tailles différentes. Si vous nettoyez l'un d'eux, les autres prendront un pourcentage plus élevé et seront plus faciles à repérer lors des passes suivantes. Cet effet d'agrandissement , lorsqu'il est aggravé par plusieurs problèmes, peut conduire à des facteurs d'accélération vraiment massifs.
Mise en garde : les programmeurs ont tendance à être sceptiques à l'égard de cette technique, sauf s'ils l'ont utilisée eux-mêmes. Ils diront que les profileurs vous donnent ces informations, mais cela n'est vrai que s'ils échantillonnent la pile d'appels entière, puis vous permettent d'examiner un ensemble aléatoire d'échantillons. (Les résumés sont là où les informations sont perdues.) Les graphiques d'appel ne vous donnent pas les mêmes informations, car
Ils diront également que cela ne fonctionne que sur les programmes de jouets, alors qu'en réalité cela fonctionne sur n'importe quel programme, et cela semble mieux fonctionner sur des programmes plus importants, car ils ont tendance à avoir plus de problèmes à trouver. Ils diront qu'il trouve parfois des choses qui ne sont pas des problèmes, mais cela n'est vrai que si vous voyez quelque chose une fois . Si vous voyez un problème sur plus d'un échantillon, c'est réel.
PS Cela peut également être fait sur des programmes multi-threads s'il existe un moyen de collecter des échantillons de pile d'appels du pool de threads à un moment donné, comme c'est le cas en Java.
PPS En règle générale, plus vous avez de couches d'abstraction dans votre logiciel, plus vous avez de chances de trouver que c'est la cause de problèmes de performances (et la possibilité d'obtenir une accélération).
Ajouté : Ce n'est peut-être pas évident, mais la technique d'échantillonnage de pile fonctionne aussi bien en présence de récursivité. La raison en est que le temps qui serait économisé par la suppression d'une instruction est approximé par la fraction d'échantillons qui la contient, quel que soit le nombre de fois où cela peut se produire dans un échantillon.
Une autre objection que j'entends souvent est: " Cela arrêtera quelque part au hasard, et le vrai problème manquera ". Cela vient d'avoir un concept préalable de ce qu'est le vrai problème. Une propriété clé des problèmes de performances est qu'ils défient les attentes. L'échantillonnage vous indique que quelque chose est un problème, et votre première réaction est l'incrédulité. C'est naturel, mais vous pouvez être sûr que s'il trouve un problème, c'est réel, et vice-versa.
Ajouté : Permettez-moi de faire une explication bayésienne de la façon dont cela fonctionne. Supposons qu'il y ait une instruction
I
(appel ou autre) qui se trouve sur la pile d'appels une fractionf
du temps (et coûte donc beaucoup). Par souci de simplicité, supposons que nous ne sachions pas ce quef
c'est, mais supposons que ce soit 0,1, 0,2, 0,3, ... 0,9, 1,0, et la probabilité antérieure de chacune de ces possibilités est de 0,1, donc tous ces coûts sont également probables a priori.Supposons ensuite que nous prenons seulement 2 échantillons de pile et que nous voyons des instructions
I
sur les deux échantillons, une observation désignéeo=2/2
. Cela nous donne de nouvelles estimations de la fréquencef
deI
, selon ceci:La dernière colonne indique que, par exemple, la probabilité que
f
> = 0,5 soit de 92%, en hausse par rapport à l'hypothèse précédente de 60%.Supposons que les hypothèses antérieures soient différentes. Supposons que nous
P(f=0.1)
supposions est .991 (presque certain), et toutes les autres possibilités sont presque impossibles (0.001). En d'autres termes, notre certitude préalable est queI
c'est bon marché. On obtient alors:Maintenant, il
P(f >= 0.5)
est de 26%, en hausse par rapport à l'hypothèse précédente de 0,6%. Bayes nous permet donc de mettre à jour notre estimation du coût probable deI
. Si la quantité de données est petite, elle ne nous dit pas exactement quel est le coût, mais seulement qu'elle est suffisamment grande pour être corrigée.Une autre façon de voir les choses s'appelle la règle de succession . Si vous lancez une pièce 2 fois et qu'elle revient en tête les deux fois, qu'est-ce que cela vous dit sur la pondération probable de la pièce? La façon respectée de répondre est de dire que c'est une distribution Beta, avec une valeur moyenne
(number of hits + 1) / (number of tries + 2) = (2+1)/(2+2) = 75%
.(La clé est que nous voyons
I
plus d'une fois. Si nous ne le voyons qu'une seule fois, cela ne nous dit pas grand-chose sauf quef
> 0.)Ainsi, même un très petit nombre d'échantillons peut nous en dire beaucoup sur le coût des instructions qu'il voit. (Et il les voir avec une fréquence Si, en moyenne, proportionnelle à leur coût.
n
Échantillons sont prélevés, etf
est le coût, puisI
apparaîtra sur desnf+/-sqrt(nf(1-f))
échantillons. Exemple,n=10
,f=0.3
, c'est -3+/-1.4
échantillons.)Ajouté : Pour donner une idée intuitive de la différence entre la mesure et l'échantillonnage aléatoire de la pile:
il existe maintenant des profileurs qui échantillonnent la pile, même à l'heure de l'horloge murale, mais ce qui en ressort est les mesures (ou chemin chaud, ou point chaud, à partir desquelles un "goulot d'étranglement" peut facilement se cacher). Ce qu'ils ne vous montrent pas (et ils pourraient facilement), ce sont les échantillons eux-mêmes. Et si votre objectif est de trouver le goulot d'étranglement, le nombre d'entre eux que vous devez voir est, en moyenne , 2 divisé par la fraction de temps qu'il faut. Donc, si cela prend 30% du temps, 2 / .3 = 6,7 échantillons, en moyenne, le montreront, et la probabilité que 20 échantillons le montrent est de 99,2%.
Voici une illustration immédiate de la différence entre l'examen des mesures et l'examen des échantillons de pile. Le goulot d'étranglement pourrait être un gros blob comme celui-ci, ou de nombreux petits, cela ne fait aucune différence.
La mesure est horizontale; il vous indique combien de temps les routines spécifiques prennent. L'échantillonnage est vertical. S'il existe un moyen d'éviter ce que fait l'ensemble du programme à ce moment, et si vous le voyez sur un deuxième échantillon , vous avez trouvé le goulot d'étranglement. C'est ce qui fait la différence - voir toute la raison du temps passé, pas seulement combien.
la source
Vous pouvez utiliser Valgrind avec les options suivantes
Il générera un fichier appelé
callgrind.out.x
. Vous pouvez ensuite utiliser l'kcachegrind
outil pour lire ce fichier. Il vous donnera une analyse graphique des choses avec des résultats comme quelles lignes coûtent combien.la source
./gprof2dot.py -f callgrind callgrind.out.x | dot -Tsvg -o output.svg
gprof2dot
est maintenant là: github.com/jrfonseca/gprof2dotJe suppose que vous utilisez GCC. La solution standard serait de profiler avec gprof .
Assurez-vous d'ajouter
-pg
à la compilation avant le profilage:Je ne l'ai pas encore essayé mais j'ai entendu de bonnes choses sur google-perftools . Cela vaut vraiment la peine d'essayer.
Question connexe ici .
Quelques autres mots à la mode si
gprof
ne font pas le travail pour vous: Valgrind , Intel VTune , Sun DTrace .la source
Les noyaux plus récents (par exemple les derniers noyaux Ubuntu) sont livrés avec les nouveaux outils 'perf' (
apt-get install linux-tools
) AKA perf_events .Ceux-ci sont livrés avec des profileurs d'échantillonnage classiques ( page de manuel ) ainsi que le chronogramme impressionnant !
L'important est que ces outils peuvent être le profilage du système et pas seulement le profilage des processus - ils peuvent montrer l'interaction entre les threads, les processus et le noyau et vous permettent de comprendre la planification et les dépendances d'E / S entre les processus.
la source
perf report
semble me donner les noms des fonctions avec les parents d'appel ... (donc c'est une sorte de vue papillon inversée)gprof2dot
etperf script
. Très bel outil!perf
existe sur archive.li/9r927#selection-767.126-767.271 (Pourquoi les dieux SO ont décidé de supprimer cette page de la base de connaissances SO me dépasse ....)J'utiliserais Valgrind et Callgrind comme base pour ma suite d'outils de profilage. Ce qui est important à savoir, c'est que Valgrind est fondamentalement une machine virtuelle:
Callgrind est un profileur basé sur cela. Le principal avantage est que vous n'avez pas à exécuter votre application pendant des heures pour obtenir un résultat fiable. Même une seconde course est suffisante pour obtenir des résultats solides et fiables, car Callgrind est un profileur sans sondage .
Un autre outil construit sur Valgrind est Massif. Je l'utilise pour profiler l'utilisation de la mémoire de tas. Cela fonctionne très bien. Ce qu'il fait, c'est qu'il vous donne des instantanés de l'utilisation de la mémoire - des informations détaillées CE QUI contient QUEL pourcentage de mémoire, et QUI l'avait mis là. Ces informations sont disponibles à différents moments de l'exécution de l'application.
la source
La réponse à exécuter
valgrind --tool=callgrind
n'est pas tout à fait complète sans certaines options. Nous ne voulons généralement pas profiler 10 minutes de temps de démarrage lent sous Valgrind et nous voulons profiler notre programme lorsqu'il effectue une tâche.Voilà donc ce que je recommande. Exécutez d'abord le programme:
Maintenant, quand cela fonctionne et que nous voulons commencer le profilage, nous devons exécuter dans une autre fenêtre:
Cela active le profilage. Pour le désactiver et arrêter toute la tâche, nous pouvons utiliser:
Nous avons maintenant quelques fichiers nommés callgrind.out. * Dans le répertoire courant. Pour voir les résultats de profilage, utilisez:
Je recommande dans la fenêtre suivante de cliquer sur l'en-tête de colonne "Self", sinon cela montre que "main ()" est la tâche la plus longue. "Self" montre combien chaque fonction elle-même a pris du temps, pas avec les personnes à charge.
la source
CALLGRIND_TOGGLE_COLLECT
pour activer / désactiver la collecte par programme; voir stackoverflow.com/a/13700817/288875Ceci est une réponse à la réponse Gprof de Nazgob .
J'utilise Gprof ces deux derniers jours et j'ai déjà trouvé trois limitations importantes, dont une que je n'ai jamais vue (encore) documentée ailleurs:
Il ne fonctionne pas correctement sur du code multithread, sauf si vous utilisez une solution de contournement
Le graphe d'appel est confus par les pointeurs de fonction. Exemple: J'ai une fonction appelée
multithread()
qui me permet de multi-threader une fonction spécifiée sur un tableau spécifié (tous deux passés comme arguments). Gprof considère cependant tous les appelsmultithread()
comme équivalents aux fins du calcul du temps passé chez les enfants. Étant donné que certaines fonctions que je passemultithread()
prennent beaucoup plus de temps que d'autres, mes graphiques d'appel sont pour la plupart inutiles. (Pour ceux qui se demandent si le thread est le problème ici: non,multithread()
peut éventuellement, et l'a fait dans ce cas, exécuter tout séquentiellement sur le thread appelant uniquement).Il est dit ici que "... les chiffres du nombre d'appels sont calculés par comptage et non par échantillonnage. Ils sont complètement précis ...". Pourtant, je trouve que mon graphique d'appel me donne 5345859132 + 784984078 comme statistiques d'appels vers ma fonction la plus appelée, où le premier numéro est censé être des appels directs et le deuxième appels récursifs (qui sont tous de lui-même). Comme cela impliquait que j'avais un bug, j'ai mis de longs compteurs (64 bits) dans le code et j'ai recommencé la même exécution. Mes comptes: 5345859132 directs et 78094395406 appels auto-récursifs. Il y a beaucoup de chiffres, alors je soulignerai que les appels récursifs que je mesure sont de 78 milliards, contre 784 millions de Gprof: un facteur de 100 différent. Les deux exécutions étaient du code à thread unique et non optimisé, l'un compilé
-g
et l'autre-pg
.Il s'agissait de GNU Gprof (GNU Binutils pour Debian) 2.18.0.20080103 fonctionnant sous Debian Lenny 64 bits, si cela peut aider quelqu'un.
la source
Utilisez Valgrind, callgrind et kcachegrind:
génère callgrind.out.x. Lisez-le en utilisant kcachegrind.
Utilisez gprof (add -pg):
(pas si bon pour les multi-threads, les pointeurs de fonction)
Utilisez google-perftools:
Utilise l'échantillonnage du temps, les E / S et les goulots d'étranglement CPU sont révélés.
Intel VTune est le meilleur (gratuit à des fins éducatives).
Autres: AMD Codeanalyst (depuis remplacé par AMD CodeXL), OProfile, outils 'perf' (apt-get install linux-tools)
la source
Enquête sur les techniques de profilage C ++
Dans cette réponse, j'utiliserai plusieurs outils différents pour analyser quelques programmes de test très simples, afin de comparer concrètement le fonctionnement de ces outils.
Le programme de test suivant est très simple et fait ce qui suit:
main
appelsfast
etmaybe_slow
3 fois, l'un desmaybe_slow
appels étant lentL'appel lent de
maybe_slow
est 10 fois plus long et domine l'exécution si nous considérons les appels à la fonction enfantcommon
. Idéalement, l'outil de profilage pourra nous orienter vers l'appel lent spécifique.à la fois
fast
etmaybe_slow
appelcommon
, qui représente la majeure partie de l'exécution du programmeL'interface du programme est:
et le programme fait des
O(n^2)
boucles au total.seed
est juste d'obtenir une sortie différente sans affecter l'exécution.principal c
gprof
gprof nécessite de recompiler le logiciel avec l'instrumentation, et il utilise également une approche d'échantillonnage avec cette instrumentation. Il établit donc un équilibre entre la précision (l'échantillonnage n'est pas toujours entièrement précis et peut sauter des fonctions) et le ralentissement de l'exécution (l'instrumentation et l'échantillonnage sont des techniques relativement rapides qui ne ralentissent pas beaucoup l'exécution).
gprof est intégré à GCC / binutils, donc tout ce que nous avons à faire est de compiler avec l'
-pg
option pour activer gprof. Nous exécutons ensuite le programme normalement avec un paramètre CLI de taille qui produit une exécution d'une durée raisonnable de quelques secondes (10000
):Pour des raisons pédagogiques, nous effectuerons également une course sans optimisations activées. Notez que cela est inutile dans la pratique, car vous ne vous souciez normalement que d'optimiser les performances du programme optimisé:
Tout d'abord,
time
nous indique que le temps d'exécution avec et sans-pg
était le même, ce qui est super: pas de ralentissement! J'ai cependant vu des comptes rendus de ralentissements 2x - 3x sur des logiciels complexes, par exemple comme indiqué dans ce ticket .Parce que nous avons compilé avec
-pg
, l'exécution du programme produit ungmon.out
fichier contenant les données de profilage.Nous pouvons observer ce fichier graphiquement avec
gprof2dot
comme demandé à: Est-il possible d'obtenir une représentation graphique des résultats de gprof?Ici, l'
gprof
outil lit lesgmon.out
informations de trace et génère un rapport lisible par l'hommemain.gprof
, quigprof2dot
lit ensuite pour générer un graphique.La source de gprof2dot est à: https://github.com/jrfonseca/gprof2dot
Nous observons ce qui suit pour la
-O0
course:et pour la
-O3
course:La
-O0
sortie est assez explicite. Par exemple, cela montre que les 3maybe_slow
appels et leurs appels enfants occupent 97,56% du temps d'exécution total, bien que l'exécution demaybe_slow
lui - même sans enfants représente 0,00% du temps d'exécution total, c'est-à-dire que presque tout le temps passé dans cette fonction a été consacré à les appels des enfants.TODO: pourquoi est-il
main
absent de la-O3
sortie, même si je peux le voir sur unbt
dans GDB? Fonction manquante de la sortie GProf Je pense que c'est parce que gprof est également basé sur l'échantillonnage en plus de son instrumentation compilée, et qu'il-O3
main
est tout simplement trop rapide et n'a obtenu aucun échantillon.J'ai choisi la sortie SVG au lieu de PNG car le SVG est consultable avec Ctrl + F et la taille du fichier peut être environ 10 fois plus petite. De plus, la largeur et la hauteur de l'image générée peuvent être énormes avec des dizaines de milliers de pixels pour les logiciels complexes, et GNOME
eog
3.28.1 bogue dans ce cas pour les PNG, tandis que les SVG s'ouvrent automatiquement par mon navigateur. gimp 2.8 a bien fonctionné, voir aussi:mais même dans ce cas, vous ferez beaucoup glisser l'image pour trouver ce que vous voulez, voir par exemple cette image à partir d'un "vrai" exemple de logiciel tiré de ce ticket :
Pouvez-vous trouver facilement la pile d'appels la plus critique avec toutes ces petites lignes de spaghetti non triées qui se superposent? Il y a peut-être de meilleures
dot
options, j'en suis sûr, mais je ne veux pas y aller maintenant. Ce dont nous avons vraiment besoin, c'est d'une visionneuse dédiée appropriée, mais je n'en ai pas encore trouvé:Vous pouvez cependant utiliser la carte de couleurs pour atténuer un peu ces problèmes. Par exemple, sur la grande image précédente, j'ai finalement réussi à trouver le chemin critique sur la gauche lorsque j'ai fait la brillante déduction que le vert vient après le rouge, suivi enfin par le bleu de plus en plus sombre.
Alternativement, nous pouvons également observer la sortie texte de l'
gprof
outil binutils intégré que nous avons précédemment enregistré à:Par défaut, cela produit une sortie extrêmement détaillée qui explique la signification des données de sortie. Comme je ne peux pas expliquer mieux que ça, je vous laisse le lire vous-même.
Une fois que vous avez compris le format de sortie des données, vous pouvez réduire la verbosité pour afficher uniquement les données sans le didacticiel avec l'
-b
option:Dans notre exemple, les résultats étaient pour
-O0
:et pour
-O3
:Comme un résumé très rapide pour chaque section, par exemple:
centre autour de la fonction qui est en retrait (
maybe_flow
).[3]
est l'ID de cette fonction. Au-dessus de la fonction, se trouvent ses appelants, et en dessous les callees.Pour
-O3
, voyez ici comme dans la sortie graphique celamaybe_slow
etfast
n'avez pas de parent connu, c'est ce que la documentation dit que cela<spontaneous>
signifie.Je ne sais pas s'il existe une bonne façon de faire du profilage ligne par ligne avec gprof: `gprof` le temps passé dans des lignes de code particulières
valgrind callgrind
valgrind exécute le programme via la machine virtuelle valgrind. Cela rend le profilage très précis, mais il produit également un très grand ralentissement du programme. J'ai également mentionné kcachegrind précédemment à: Outils pour obtenir un graphe d'appel de fonction picturale de code
callgrind est l'outil de valgrind pour profiler le code et kcachegrind est un programme KDE qui peut visualiser la sortie du cachegrind.
Tout d'abord, nous devons supprimer l'
-pg
indicateur pour revenir à la compilation normale, sinon l'exécution échoue avecProfiling timer expired
, et oui, c'est tellement courant que je l'ai fait et il y avait une question de débordement de pile pour cela.Nous compilons et exécutons donc:
J'autorise
--dump-instr=yes --collect-jumps=yes
cela, car cela permet également d'afficher des informations qui nous permettent d'afficher une ventilation des performances par chaîne de montage, à un coût supplémentaire relativement faible.Au départ,
time
nous dit que le programme a pris 29,5 secondes pour s'exécuter, nous avons donc eu un ralentissement d'environ 15x sur cet exemple. De toute évidence, ce ralentissement va être une sérieuse limitation pour les charges de travail plus importantes. Sur "l'exemple du logiciel du monde réel" mentionné ici , j'ai observé un ralentissement de 80x.La course génère un fichier de données de profil nommé
callgrind.out.<pid>
par exemplecallgrind.out.8554
dans mon cas. Nous visualisons ce fichier avec:qui montre une interface graphique qui contient des données similaires à la sortie textuelle gprof:
De plus, si nous allons sur l'onglet "Call Graph" en bas à droite, nous voyons un graphique d'appel que nous pouvons exporter en cliquant dessus avec le bouton droit pour obtenir l'image suivante avec des quantités déraisonnables de bordure blanche :-)
Je pense que
fast
ne s'affiche pas sur ce graphique parce que kcachegrind doit avoir simplifié la visualisation car cet appel prend trop peu de temps, ce sera probablement le comportement que vous souhaitez sur un vrai programme. Le menu du clic droit a quelques paramètres pour contrôler quand abattre de tels nœuds, mais je n'ai pas pu le faire afficher un appel aussi court après une tentative rapide. Si je clique surfast
dans la fenêtre de gauche, il montre un graphique d'appel avecfast
, donc cette pile a été réellement capturée. Personne n'avait encore trouvé un moyen d'afficher le graphe d'appel complet: Faire en sorte que callgrind affiche tous les appels de fonction dans le callgraph kcachegrindTODO sur un logiciel C ++ complexe, je vois quelques entrées de type
<cycle N>
, par exemple,<cycle 11>
là où je m'attendrais à des noms de fonction, qu'est-ce que cela signifie? J'ai remarqué qu'il y avait un bouton "Détection de cycle" pour l'activer ou le désactiver, mais qu'est-ce que cela signifie?perf
delinux-tools
perf
semble utiliser exclusivement des mécanismes d'échantillonnage du noyau Linux. Cela le rend très simple à configurer, mais aussi pas entièrement précis.Cela a ajouté 0,2 seconde à l'exécution, nous sommes donc très bien dans le temps, mais je ne vois toujours pas beaucoup d'intérêt, après avoir développé le
common
nœud avec la flèche droite du clavier:Alors j'essaie de comparer le
-O0
programme pour voir si cela montre quelque chose, et seulement maintenant, enfin, je vois un graphique d'appel:TODO: que s'est-il passé lors de l'
-O3
exécution? Est-ce simplement celamaybe_slow
etfast
était trop rapide et n'a pas obtenu d'échantillons? Cela fonctionne-t-il bien avec-O3
des programmes plus importants dont l'exécution est plus longue? Ai-je manqué une option CLI? J'ai découvert le-F
contrôle de la fréquence d'échantillonnage en Hertz, mais je l'ai augmentée au maximum autorisé par défaut de-F 39500
(pourrait être augmenté avecsudo
) et je ne vois toujours pas d'appels clairs.Une chose intéressante à propos de
perf
l'outil FlameGraph de Brendan Gregg qui affiche les horaires de la pile d'appels d'une manière très soignée qui vous permet de voir rapidement les gros appels. L'outil est disponible sur: https://github.com/brendangregg/FlameGraph et est également mentionné sur son tutoriel de perf sur: http://www.brendangregg.com/perf.html#FlameGraphs Quand j'ai couruperf
sanssudo
je l'aiERROR: No stack counts found
fait pour maintenant je vais le faire avecsudo
:mais dans un programme aussi simple, la sortie n'est pas très facile à comprendre, car nous ne pouvons pas facilement voir ni
maybe_slow
nifast
sur ce graphique:Sur un exemple plus complexe, il devient clair ce que le graphique signifie:
TODO il y a un journal de
[unknown]
fonctions dans cet exemple, pourquoi?Une autre interface graphique performante qui pourrait en valoir la peine comprend:
Plugin Eclipse Trace Compass: https://www.eclipse.org/tracecompass/
Mais cela a l'inconvénient que vous devez d'abord convertir les données au format de trace commun, ce qui peut être fait avec
perf data --to-ctf
, mais il doit être activé au moment de la construction / avoirperf
suffisamment de nouveau, ce qui n'est pas le cas pour la perf dans Ubuntu 18.04https://github.com/KDAB/hotspot
L'inconvénient est qu'il ne semble pas y avoir de paquet Ubuntu, et sa construction nécessite Qt 5.10 tandis qu'Ubuntu 18.04 est à Qt 5.9.
gperftools
Anciennement appelé "Google Performance Tools", source: https://github.com/gperftools/gperftools Sample based.
Installez d'abord gperftools avec:
Ensuite, nous pouvons activer le profileur de processeur gperftools de deux manières: au moment de l'exécution ou au moment de la construction.
Au moment de l'exécution, nous devons passer set the
LD_PRELOAD
to point tolibprofiler.so
, que vous pouvez trouver aveclocate libprofiler.so
, par exemple sur mon système:Alternativement, nous pouvons construire la bibliothèque au moment du lien, en passant
LD_PRELOAD
au moment de l'exécution:Voir aussi: gperftools - fichier de profil non vidé
La meilleure façon de voir ces données que j'ai trouvées jusqu'à présent est de faire en sorte que la sortie de pprof soit du même format que kcachegrind prend en entrée (oui, l'outil Valgrind-project-viewer-tool) et d'utiliser kcachegrind pour voir cela:
Après avoir exécuté l'une de ces méthodes, nous obtenons un
prof.out
fichier de données de profil en sortie. Nous pouvons visualiser ce fichier graphiquement en SVG avec:qui donne comme un graphique d'appel familier comme les autres outils, mais avec l'unité maladroite de nombre d'échantillons plutôt que de secondes.
Alternativement, nous pouvons également obtenir des données textuelles avec:
qui donne:
Voir aussi: Comment utiliser les outils google perf
Testé dans Ubuntu 18.04, gprof2dot 2019.11.30, valgrind 3.13.0, perf 4.15.18, Linux kernel 4.15.0, FLameGraph 1a0dc6985aad06e76857cf2a354bd5ba0c9ce96b, gperftools 2.5-2.
la source
-fno-omit-frame-pointer
indicateur ou d'utiliser une alternative différente: enregistrez avec--call-graph "dwarf"
ou en--call-graph "lbr"
fonction de votre scénario.Pour les programmes monothread , vous pouvez utiliser igprof , The Ignominous Profiler: https://igprof.org/ .
Il s'agit d'un profileur d'échantillonnage, dans le sens de la ... longue ... réponse de Mike Dunlavey, qui emballera les résultats dans une arborescence de pile d'appels consultable, annotée avec le temps ou la mémoire passé dans chaque fonction, cumulative ou par fonction.
la source
Il convient également de mentionner
J'ai utilisé HPCToolkit et VTune et ils sont très efficaces pour trouver le long pôle dans la tente et n'ont pas besoin de recompiler votre code (sauf que vous devez utiliser -g -O ou le type RelWithDebInfo dans CMake pour obtenir une sortie significative) . J'ai entendu dire que TAU avait des capacités similaires.
la source
Ce sont les deux méthodes que j'utilise pour accélérer mon code:
Pour les applications liées au processeur:
Pour les applications liées aux E / S:
NB
Si vous n'avez pas de profileur, utilisez le profileur du pauvre. Appuyez sur pause pendant le débogage de votre application. La plupart des suites de développeurs se diviseront en assembleur avec des numéros de ligne commentés. Vous êtes statistiquement susceptible d'atterrir dans une région qui consomme la plupart de vos cycles CPU.
Pour le CPU, la raison du profilage en mode DEBUG est que si votre profilage essayé en mode RELEASE , le compilateur va réduire les mathématiques, vectoriser les boucles et les fonctions en ligne qui ont tendance à globaliser votre code dans un désordre non mappable lorsqu'il est assemblé. Un désordre non mappable signifie que votre profileur ne sera pas en mesure d'identifier clairement ce qui prend si longtemps car l'assembly peut ne pas correspondre au code source en cours d'optimisation . Si vous avez besoin des performances (par exemple, sensibles au timing) du mode RELEASE , désactivez les fonctionnalités du débogueur si nécessaire pour conserver des performances utilisables.
Pour les E / S liées, le profileur peut toujours identifier les opérations d'E / S en mode RELEASE car les opérations d'E / S sont soit liées en externe à une bibliothèque partagée (la plupart du temps), soit, dans le pire des cas, se traduisent par un système. vecteur d'interruption d'appel (qui est également facilement identifiable par le profileur).
la source
Vous pouvez utiliser la bibliothèque iprof:
https://gitlab.com/Neurochrom/iprof
https://github.com/Neurochrom/iprof
Il est multiplateforme et vous permet de ne pas mesurer les performances de votre application également en temps réel. Vous pouvez même l'associer à un graphique en direct. Avertissement complet: je suis l'auteur.
la source
Vous pouvez utiliser un cadre de journalisation comme
loguru
car il comprend des horodatages et une disponibilité totale qui peuvent être bien utilisés pour le profilage:la source
Au travail, nous avons un outil vraiment sympa qui nous aide à surveiller ce que nous voulons en termes de planification. Cela a été utile à plusieurs reprises.
C'est en C ++ et doit être personnalisé selon vos besoins. Malheureusement, je ne peux pas partager de code, juste des concepts. Vous utilisez un "grand"
volatile
tampon contenant des horodatages et un ID d'événement que vous pouvez vider post mortem ou après avoir arrêté le système de journalisation (et le vider dans un fichier par exemple).Vous récupérez le soi-disant grand tampon avec toutes les données et une petite interface les analyse et affiche les événements avec le nom (haut / bas + valeur) comme un oscilloscope le fait avec des couleurs (configuré dans un
.hpp
fichier).Vous personnalisez la quantité d'événements générés pour vous concentrer uniquement sur ce que vous désirez. Cela nous a beaucoup aidés à planifier les problèmes tout en consommant la quantité de CPU que nous voulions en fonction du nombre d'événements enregistrés par seconde.
Vous avez besoin de 3 fichiers:
Le concept est de définir des événements
tool_events_id.hpp
comme ça:Vous définissez également quelques fonctions dans
toolname.hpp
:Partout dans votre code, vous pouvez utiliser:
La
probe
fonction utilise quelques lignes d'assemblage pour récupérer l'horodatage d'horloge dès que possible, puis définit une entrée dans le tampon. Nous avons également un incrément atomique pour trouver en toute sécurité un index où stocker l'événement du journal. Bien sûr, le tampon est circulaire.J'espère que l'idée n'est pas obscurcie par le manque d'exemple de code.
la source
En fait, un peu surpris pas beaucoup mentionné sur google / benchmark , alors qu'il est un peu lourd de préciser la zone spécifique du code, surtout si la base de code est un peu grande, mais j'ai trouvé cela très utile lorsqu'il est utilisé en combinaison avec
callgrind
À mon humble avis, identifier la pièce à l'origine du goulot d'étranglement est la clé ici. Je voudrais cependant essayer de répondre aux questions suivantes en premier et choisir l'outil en fonction de cela
valgrind
avec la combinaison decallrind
etkcachegrind
devrait fournir une estimation décente sur les points ci-dessus et une fois qu'il est établi qu'il y a des problèmes avec une section de code, je suggérerais de faire un micro repèregoogle benchmark
est un bon point de départ.la source
Utilisez un
-pg
indicateur lors de la compilation et de la liaison du code et exécutez le fichier exécutable. Pendant l'exécution de ce programme, les données de profilage sont collectées dans le fichier a.out.Il existe deux types de profilage différents
1- Profilage plat:
en exécutant la commande,
gprog --flat-profile a.out
vous obtenez les données suivantes- quel pourcentage du temps total a été passé pour la fonction,
- combien de secondes ont été passées dans une fonction - y compris et excluant les appels aux sous-fonctions,
- le nombre de appels,
- le temps moyen par appel.
2- graphique
nous profilant la commande
gprof --graph a.out
pour obtenir les données suivantes pour chaque fonction qui comprend- Dans chaque section, une fonction est marquée d'un numéro d'index.
- Au-dessus de la fonction, il y a une liste de fonctions qui appellent la fonction.
- Sous la fonction, il y a une liste des fonctions qui sont appelées par la fonction.
Pour obtenir plus d'informations, vous pouvez consulter https://sourceware.org/binutils/docs-2.32/gprof/
la source
Comme personne n'a mentionné Arm MAP, j'ajouterais que personnellement, j'ai réussi à utiliser Map pour profiler un programme scientifique C ++.
Arm MAP est le profileur pour les codes C, C ++, Fortran et F90 parallèles, multithread ou à thread unique. Il fournit une analyse approfondie et un repérage des goulots d'étranglement sur la ligne source. Contrairement à la plupart des profileurs, il est conçu pour pouvoir profiler des pthreads, OpenMP ou MPI pour du code parallèle et fileté.
MAP est un logiciel commercial.
la source
utiliser un logiciel de débogage comment identifier où le code s'exécute lentement?
pensez simplement que vous avez un obstacle pendant que vous êtes en mouvement, cela réduira votre vitesse
comme cette boucle de réallocation indésirable, les débordements de tampon, la recherche, les fuites de mémoire, etc.
g++ your_prg.cpp -pg
oucc my_program.cpp -g -pg
selon votre compilateurJe ne l'ai pas encore essayé mais j'ai entendu de bonnes choses sur google-perftools. Cela vaut vraiment la peine d'essayer.
valgrind --tool=callgrind ./(Your binary)
Il générera un fichier appelé gmon.out ou callgrind.out.x. Vous pouvez ensuite utiliser kcachegrind ou l'outil de débogage pour lire ce fichier. Il vous donnera une analyse graphique des choses avec des résultats comme quelles lignes coûtent combien.
Je le pense
la source