J'utilise habituellement hdparmpour comparer mes disques durs. Vous pouvez analyser les lectures directes et les lectures en cache. Vous devrez exécuter les commandes plusieurs fois pour établir une valeur moyenne.
Exemples
Voici une lecture directe.
$ sudo hdparm -t /dev/sda2
/dev/sda2:
Timing buffered disk reads: 302 MB in 3.00 seconds = 100.58 MB/sec
-t Perform timings of device reads for benchmark and comparison
purposes. For meaningful results, this operation should be repeated
2-3 times on an otherwise inactive system (no other active processes)
with at least a couple of megabytes of free memory. This displays
the speed of reading through the buffer cache to the disk without
any prior caching of data. This measurement is an indication of how
fast the drive can sustain sequential data reads under Linux, without
any filesystem overhead. To ensure accurate measurements, the
buffer cache is flushed during the processing of -t using the
BLKFLSBUF ioctl.
-T Perform timings of cache reads for benchmark and comparison purposes.
For meaningful results, this operation should be repeated 2-3
times on an otherwise inactive system (no other active processes)
with at least a couple of megabytes of free memory. This displays
the speed of reading directly from the Linux buffer cache without
disk access. This measurement is essentially an indication of the
throughput of the processor, cache, and memory of the system under
test.
Utiliser dd
Moi aussi j'ai utilisé ddpour ce type de test aussi. Une modification que je voudrais faire à la commande ci - dessus est d'ajouter ce bit à la fin de votre commande, ; rm ddfile.
$ time sh -c "dd if=/dev/zero of=ddfile bs=8k count=250000 && sync"; rm ddfile
Cela supprimera le message une ddfilefois la commande terminée. REMARQUE:ddfile est un fichier transitoire que vous n'avez pas besoin de conserver, c'est le fichier sur lequel vous ddécrivez ( of=ddfile) lors du chargement de votre disque dur.
Aller plus loin
Si vous avez besoin de tests plus rigoureux sur vos disques durs, vous pouvez utiliser Bonnie ++ .
J'aime bien hdparmaussi, pour des repères rapides. Le seul inconvénient est que seuls les points de repère de la bande passante en lecture et les performances de nombreux types de périphériques en mode bloc (par exemple, RAID, iSCSI) peuvent être très asymétriques. Pour comparer les performances "avant" et "après" sur la même boîte, ddfonctionne bien aussi.
Alexios
@Alexios - oui merci d'avoir mentionné cela. Oui, vous devez généralement utiliser au moins hdparm+ ddou juste bonnie++ou tous les 3.
slm
Au lieu de sync, ce qui est discutable, utilisez iflag = direct oflag = direct quand il est supposé (par exemple, linux avec un système de fichiers prenant en charge direct io).
Existe-t-il de meilleures méthodes [que dd] pour [analyser les disques]?
Oui, mais leur exécution prendra plus de temps et nécessitera une connaissance de l’interprétation des résultats - il n’existe pas de chiffre unique permettant de tout savoir en une seule fois, car les éléments suivants ont une influence sur le type de test à exécuter:
Êtes-vous intéressé par les performances des E / S aléatoires, séquentielles ou un mélange des deux?
Lisez-vous ou écrivez-vous sur le disque (ou un mélange des deux)?
Êtes-vous préoccupé par la latence, le débit ou les deux?
Essayez-vous de comprendre le fonctionnement de différentes parties du même disque dur (accélère généralement le rapprochement plus rapidement du centre des disques en rotation)?
Souhaitez-vous savoir comment un système de fichiers donné fonctionnera lorsque vous utiliserez votre disque ou souhaitez-vous obtenir des résultats plus proches des performances brutes du disque en effectuant des E / S directement sur un périphérique en mode bloc?
Êtes-vous intéressé par les performances d'une taille particulière d'E / S?
Soumettez-vous les E / S de manière synchrone ou asynchrone?
Quelle quantité d'E / S envoyez-vous (soumettez trop peu la mauvaise manière et toutes les E / S pourraient être mises en cache afin que vous finissiez par tester la vitesse de votre RAM plutôt que celle du disque)?
Dans quelle mesure le contenu des données que vous écrivez est-il compressible (par exemple, seules les données zéro sont hautement compressibles et certains systèmes de fichiers / disques ont même un raccourci spécial pour les données nulles aboutissant à des nombres impossibles à obtenir avec d'autres contenus)?
Etc.
Voici une courte liste des outils les plus faciles à exécuter en haut et difficiles / plus approfondis / meilleurs plus près du bas:
dd (lectures ou écritures séquentielles, affiche uniquement le débit, peut être configuré pour utiliser un système de fichiers ou un périphérique en mode bloc, peut être configuré pour contourner le cache de bloc / attendre que les E / S soient réellement terminées)
hdparm (lectures séquentielles uniquement, affiche uniquement le débit, n'utilise jamais de système de fichiers, peut être configuré pour contourner le cache de bloc, le test de cache ne relit que les 2 Mo de départ)
Le benchmark de GNOME Disk Utility (facile à exécuter, n’utilise jamais de système de fichiers, mais nécessite une installation complète de GNOME, donne les nombres de latence et de débit pour différents types d’E / S mais la charge de travail en écriture est en lecture / écriture / fsync par taille d’échantillon).
fio (peut presque tout faire et donne des résultats détaillés, mais nécessite une configuration et une compréhension de la manière d'interpréter lesdits résultats). Voici ce que Linus en dit:
Greg - récupère le code FIO de Jens. Il fait les choses correctement, y compris l'écriture de contenu pseudo-aléatoire réel, ce qui indique si le disque effectue une "déduplication" (ou "optimiser pour les tests de performance"):
Si vous ne voulez pas lire tout cela, je vous recommande simplement l' outil IOPS . Il vous indiquera la vitesse réelle en fonction de la taille du bloc.
Autrement, lorsque je ferais un test de performance d'entrée-sortie, je regarderais les choses suivantes:
BlockSize / cache / IOPS / direct vs buffered / async vs sync
lire écrire
les fils
latence
Utilisation du processeur
Quelle taille de bloc utiliserez-vous ? Si vous souhaitez lire / écrire 1 Go à partir du / sur le disque, ce sera rapide si vous effectuez une opération d’E / S. Mais si votre application a besoin d'écrire des fragments de 512 octets sur tout le disque dur en morceaux non séquentiels (appelés E / S aléatoires bien que ce ne soit pas aléatoire), l'apparence sera différente. Désormais, les bases de données effectuent des E / S aléatoires pour le volume de données et des E / S séquentielles pour le volume de journalisation en raison de leur nature . Donc, vous devez d’abord savoir clairement ce que vous voulez mesurer. Si vous souhaitez copier des fichiers vidéo volumineux, cela est différent de celui que vous souhaitez installer Linux.
Cette taille de bloc affecte le nombre d'opérations d'E / S que vous effectuez. Si vous effectuez, par exemple, 8 opérations de lecture (ou d'écriture, mais pas de mélange) séquentielles, le planificateur d'E / S du système d'exploitation les fusionnera. Si ce n'est pas le cas, le cache du contrôleur fera la fusion. Il n'y a pratiquement aucune différence si vous lisez 8 blocs séquentiels de 512 octets ou un bloc de 4096 octets. Une exception - si vous parvenez à effectuer une synchronisation directe d'E / S et attendez les 512 octets avant de demander les 512 octets suivants. Dans ce cas, augmenter la taille du bloc revient à ajouter du cache.
Vous devez également savoir qu'il existe des E / S synchronisées et asynchrones: avec Sync IO, vous ne pourrez pas émettre la prochaine demande d'E / S avant que la requête actuelle ne soit renvoyée. Avec les entrées / sorties asynchrones, vous pouvez demander, par exemple, 10 blocs de données, puis attendre leur arrivée. Les threads de base de données distincts utilisent généralement SynO IO pour les journaux et async IO pour les données. L’outil IOPS s’occupe de cela en mesurant toutes les tailles de blocs pertinentes à partir de 512 octets.
Voulez-vous lire ou écrire : La lecture est généralement plus rapide que l'écriture. Mais notez que la mise en cache fonctionne de manière tout à fait différente pour les lectures et les écritures:
Pour les écritures, les données seront transmises au contrôleur et, s'il est mis en cache, il en accusera réception avant que les données ne soient sur le disque, à moins que le cache ne soit plein. À l'aide de l'outil iozone, vous pouvez dessiner de superbes graphiques de plateaux d'effets de cache (effet de cache CPU et effet de cache). Les caches deviennent moins efficaces au fur et à mesure que plus on écrit
Pour les lectures, les données lues sont conservées dans le cache après la première lecture. Les premières lectures sont les plus longues et la mise en cache devient de plus en plus efficace pendant les périodes de disponibilité. Les caches remarquables sont le cache de la CPU, le cache du système de fichiers du système d'exploitation, le cache du contrôleur IO et le cache du stockage. L'outil IOPS mesure uniquement les lectures. Cela lui permet de "lire partout" et vous ne voulez pas qu'il écrive au lieu de lire.
Combien de threads utiliserez-vous : Si vous utilisez un seul thread (en utilisant dd pour les tests de performances du disque ), vous obtiendrez probablement des performances bien pires que celles de plusieurs threads. L'outil IOPS en tient compte et lit sur plusieurs threads.
Quelle est l’importance de la latence pour vous ? Dans les bases de données, la latence des E / S devient extrêmement importante. Toute commande SQL insertion / mise à jour / suppression sera écrite dans le journal de la base de données ("log" dans la langue de la base de données) lors de la validation avant son acquittement. Cela signifie que la base de données complète attend peut-être que cette opération d'E / S soit terminée. Je montre ici comment mesurer le temps d'attente moyen (wait) à l'aide de l' outil iostat .
Quelle est l’importance de l’utilisation du processeur : votre processeur peut facilement devenir un goulot d’étranglement pour les performances de votre application. Dans ce cas, vous devez savoir combien de cycles de processeur sont brûlés par octet lu / écrit et optimiser dans cette direction. Cela peut signifier que vous souhaitez ou non utiliser une mémoire flash PCIe en fonction des résultats de vos mesures. Là encore, l’ outil iostat peut vous donner une estimation approximative de l’utilisation de la CPU par vos opérations IO.
Le script iops est bien, j'étais vraiment confus que ce n'était pas sur apt ou pip cependant. Cela fonctionne cependant.
ThorSummoner
L'outil Iops semble être abandonné. En outre, il mesure simplement les lectures et n'imprime aucune donnée statistique (par exemple, stddev / quantitative).
maxschlepzig
L'outil iops est simple et c'est ce dont vous avez besoin pour réaliser la comparabilité. Il s'agit essentiellement d'un wrapper pour le syscall en lecture, effectué de manière aléatoire sur un fichier (tout est un fichier). Croyez-le ou lisez le code source - il est terminé et le code n'a pas besoin de mise à jour. Pensez-y - voulez-vous vraiment un autre outil comme IOMeter avec 1000 lignes de code où chacun est discutable? Et que faites-vous avec une nouvelle version? Devrez-vous refaire tous les tests?
Thorsten Staerk
8
Si vous avez installé PostgreSQL, vous pouvez utiliser leur excellent benchmark pg_test_fsync . Il teste essentiellement vos performances de synchronisation d’écriture.
Sur Ubuntu, vous le trouverez ici: /usr/lib/postgresql/9.5/bin/pg_test_fsync
L'avantage, c'est que cet outil vous montrera pourquoi les disques SSD d'entreprise valent la peine de dépenser plus.
Sur Debian, il est disponible en postgresql-contribpaquet.
TranslucentCloud
5
Vous pouvez utiliser fio- l’ outil de génération d’IO multithread . Il est emballé par plusieurs distributions, par exemple Fedora 25, Debian et OpenCSW.
L'outil fio est très flexible, il peut facilement être utilisé pour comparer différents scénarios d'E / S, y compris des scénarios simultanés. Le paquet est fourni avec quelques exemples de fichiers de configuration (cf. par exemple /usr/share/doc/fio/examples). Il mesure correctement les choses, c’est-à-dire qu’il imprime également l’écart-type et des statistiques quantitatives pour certains chiffres. Des choses que d'autres outils d'analyse comparative populaires ne se soucient pas.
Un exemple simple (une séquence de scénarios simples: séquentiel / aléatoire X en lecture / écriture):
Notez que la [global]section a des valeurs par défaut globales qui peuvent être remplacées par d’autres sections. Chaque section décrit un travail. Le nom de la section est le nom du travail et peut être choisi librement. Par défaut, différents travaux sont démarrés en parallèle. Ainsi, l'exemple ci-dessus sérialise explicitement l'exécution du travail avec la
wait_forclé. En outre, fio utilise une taille de bloc de 4 Ko - qui peut également être modifiée. L'exemple utilise directement le périphérique brut pour les tâches de lecture et d'écriture. Assurez-vous donc que vous utilisez le bon périphérique. L'outil prend également en charge l'utilisation d'un fichier / répertoire sur les systèmes de fichiers existants.
Autres outils
L' hdparmutilitaire fournit un repère de lecture très simple, par exemple:
# hdparm -t -T /dev/sdz
Il ne remplace pas un outil d'analyse comparative de pointe tel que fio, il devrait simplement être utilisé pour un premier contrôle de vraisemblance. Par exemple, pour vérifier si le lecteur USB 3 externe est reconnu à tort comme un périphérique USB 2 (vous obtiendrez alors des débits de ~ 100 Mio / s contre ~ 30 Mio / s).
PS: Je recommanderais d’ajouter direct = 1 à la section globale de votre travail afin de contourner le cache de page de Linux et de ne voir que la vitesse du disque (mais puisque votre iodepth n’est que de 1 ... [insérer une discussion sur la soumission d’E / S de disque] ). Il est également plus facile d'utiliser stonewall ( fio.readthedocs.io/en/latest/… ) globalement pour que toutes les tâches soient exécutées de manière séquentielle.
Cliquez sur le lecteur que vous souhaitez tester, puis sur "Options de partition supplémentaires" (les roues). Puis Benchmark Partition. Vous obtiendrez une lecture / écriture moyenne en Mo / s et des temps d'accès moyens en millisecondes. J'ai trouvé ça très confortable.
Vous pouvez faire des choses intéressantes avec cette technique, y compris la mise en cache de tous les fichiers /libet /usr/bin. Vous pouvez également l'utiliser dans le cadre d'un effort d'analyse comparative:
Tous les noms de fichiers sur la racine sont trouvés, triés de manière aléatoire et copiés dans la mémoire cache pendant une minute maximum. La sortie de cpio vous indique combien de blocs ont été copiés. Répétez 3 fois pour obtenir une moyenne de blocs à la minute. (Notez que l'opération de recherche / tri peut prendre beaucoup de temps - beaucoup plus longtemps que la copie. Il serait préférable de mettre en cache la recherche / tri et de l'utiliser splitpour obtenir un échantillon de fichiers.)
Réponses:
J'utilise habituellement
hdparm
pour comparer mes disques durs. Vous pouvez analyser les lectures directes et les lectures en cache. Vous devrez exécuter les commandes plusieurs fois pour établir une valeur moyenne.Exemples
Voici une lecture directe.
Et voici une lecture en cache.
Détails
Utiliser dd
Moi aussi j'ai utilisé
dd
pour ce type de test aussi. Une modification que je voudrais faire à la commande ci - dessus est d'ajouter ce bit à la fin de votre commande,; rm ddfile
.Cela supprimera le message une
ddfile
fois la commande terminée. REMARQUE:ddfile
est un fichier transitoire que vous n'avez pas besoin de conserver, c'est le fichier sur lequel vousdd
écrivez (of=ddfile
) lors du chargement de votre disque dur.Aller plus loin
Si vous avez besoin de tests plus rigoureux sur vos disques durs, vous pouvez utiliser Bonnie ++ .
Références
la source
hdparm
aussi, pour des repères rapides. Le seul inconvénient est que seuls les points de repère de la bande passante en lecture et les performances de nombreux types de périphériques en mode bloc (par exemple, RAID, iSCSI) peuvent être très asymétriques. Pour comparer les performances "avant" et "après" sur la même boîte,dd
fonctionne bien aussi.hdparm
+dd
ou justebonnie++
ou tous les 3.(C'est une question très populaire - vous pouvez en voir des variantes sur les sites https://stackoverflow.com/q/1198691 , https://serverfault.com/q/219739/203726 et https://askubuntu.com/q / 87035/740413 )
Oui, mais leur exécution prendra plus de temps et nécessitera une connaissance de l’interprétation des résultats - il n’existe pas de chiffre unique permettant de tout savoir en une seule fois, car les éléments suivants ont une influence sur le type de test à exécuter:
Etc.
Voici une courte liste des outils les plus faciles à exécuter en haut et difficiles / plus approfondis / meilleurs plus près du bas:
Source: commentaire laissé sur Google Plus à Greg Kroah-Hartman par Linus Torvalds .
la source
avec l'outil IOPS
Si vous ne voulez pas lire tout cela, je vous recommande simplement l' outil IOPS . Il vous indiquera la vitesse réelle en fonction de la taille du bloc.
Autrement, lorsque je ferais un test de performance d'entrée-sortie, je regarderais les choses suivantes:
Utilisation du processeur
Quelle taille de bloc utiliserez-vous ? Si vous souhaitez lire / écrire 1 Go à partir du / sur le disque, ce sera rapide si vous effectuez une opération d’E / S. Mais si votre application a besoin d'écrire des fragments de 512 octets sur tout le disque dur en morceaux non séquentiels (appelés E / S aléatoires bien que ce ne soit pas aléatoire), l'apparence sera différente. Désormais, les bases de données effectuent des E / S aléatoires pour le volume de données et des E / S séquentielles pour le volume de journalisation en raison de leur nature . Donc, vous devez d’abord savoir clairement ce que vous voulez mesurer. Si vous souhaitez copier des fichiers vidéo volumineux, cela est différent de celui que vous souhaitez installer Linux.
Cette taille de bloc affecte le nombre d'opérations d'E / S que vous effectuez. Si vous effectuez, par exemple, 8 opérations de lecture (ou d'écriture, mais pas de mélange) séquentielles, le planificateur d'E / S du système d'exploitation les fusionnera. Si ce n'est pas le cas, le cache du contrôleur fera la fusion. Il n'y a pratiquement aucune différence si vous lisez 8 blocs séquentiels de 512 octets ou un bloc de 4096 octets. Une exception - si vous parvenez à effectuer une synchronisation directe d'E / S et attendez les 512 octets avant de demander les 512 octets suivants. Dans ce cas, augmenter la taille du bloc revient à ajouter du cache.
Vous devez également savoir qu'il existe des E / S synchronisées et asynchrones: avec Sync IO, vous ne pourrez pas émettre la prochaine demande d'E / S avant que la requête actuelle ne soit renvoyée. Avec les entrées / sorties asynchrones, vous pouvez demander, par exemple, 10 blocs de données, puis attendre leur arrivée. Les threads de base de données distincts utilisent généralement SynO IO pour les journaux et async IO pour les données. L’outil IOPS s’occupe de cela en mesurant toutes les tailles de blocs pertinentes à partir de 512 octets.
Voulez-vous lire ou écrire : La lecture est généralement plus rapide que l'écriture. Mais notez que la mise en cache fonctionne de manière tout à fait différente pour les lectures et les écritures:
Pour les écritures, les données seront transmises au contrôleur et, s'il est mis en cache, il en accusera réception avant que les données ne soient sur le disque, à moins que le cache ne soit plein. À l'aide de l'outil iozone, vous pouvez dessiner de superbes graphiques de plateaux d'effets de cache (effet de cache CPU et effet de cache). Les caches deviennent moins efficaces au fur et à mesure que plus on écrit
Pour les lectures, les données lues sont conservées dans le cache après la première lecture. Les premières lectures sont les plus longues et la mise en cache devient de plus en plus efficace pendant les périodes de disponibilité. Les caches remarquables sont le cache de la CPU, le cache du système de fichiers du système d'exploitation, le cache du contrôleur IO et le cache du stockage. L'outil IOPS mesure uniquement les lectures. Cela lui permet de "lire partout" et vous ne voulez pas qu'il écrive au lieu de lire.
Combien de threads utiliserez-vous : Si vous utilisez un seul thread (en utilisant dd pour les tests de performances du disque ), vous obtiendrez probablement des performances bien pires que celles de plusieurs threads. L'outil IOPS en tient compte et lit sur plusieurs threads.
Quelle est l’importance de la latence pour vous ? Dans les bases de données, la latence des E / S devient extrêmement importante. Toute commande SQL insertion / mise à jour / suppression sera écrite dans le journal de la base de données ("log" dans la langue de la base de données) lors de la validation avant son acquittement. Cela signifie que la base de données complète attend peut-être que cette opération d'E / S soit terminée. Je montre ici comment mesurer le temps d'attente moyen (wait) à l'aide de l' outil iostat .
Quelle est l’importance de l’utilisation du processeur : votre processeur peut facilement devenir un goulot d’étranglement pour les performances de votre application. Dans ce cas, vous devez savoir combien de cycles de processeur sont brûlés par octet lu / écrit et optimiser dans cette direction. Cela peut signifier que vous souhaitez ou non utiliser une mémoire flash PCIe en fonction des résultats de vos mesures. Là encore, l’ outil iostat peut vous donner une estimation approximative de l’utilisation de la CPU par vos opérations IO.
la source
Si vous avez installé PostgreSQL, vous pouvez utiliser leur excellent benchmark pg_test_fsync . Il teste essentiellement vos performances de synchronisation d’écriture.
Sur Ubuntu, vous le trouverez ici:
/usr/lib/postgresql/9.5/bin/pg_test_fsync
L'avantage, c'est que cet outil vous montrera pourquoi les disques SSD d'entreprise valent la peine de dépenser plus.
la source
postgresql-contrib
paquet.Vous pouvez utiliser
fio
- l’ outil de génération d’IO multithread . Il est emballé par plusieurs distributions, par exemple Fedora 25, Debian et OpenCSW.L'outil fio est très flexible, il peut facilement être utilisé pour comparer différents scénarios d'E / S, y compris des scénarios simultanés. Le paquet est fourni avec quelques exemples de fichiers de configuration (cf. par exemple
/usr/share/doc/fio/examples
). Il mesure correctement les choses, c’est-à-dire qu’il imprime également l’écart-type et des statistiques quantitatives pour certains chiffres. Des choses que d'autres outils d'analyse comparative populaires ne se soucient pas.Un exemple simple (une séquence de scénarios simples: séquentiel / aléatoire X en lecture / écriture):
L'appel:
Notez que la
[global]
section a des valeurs par défaut globales qui peuvent être remplacées par d’autres sections. Chaque section décrit un travail. Le nom de la section est le nom du travail et peut être choisi librement. Par défaut, différents travaux sont démarrés en parallèle. Ainsi, l'exemple ci-dessus sérialise explicitement l'exécution du travail avec lawait_for
clé. En outre, fio utilise une taille de bloc de 4 Ko - qui peut également être modifiée. L'exemple utilise directement le périphérique brut pour les tâches de lecture et d'écriture. Assurez-vous donc que vous utilisez le bon périphérique. L'outil prend également en charge l'utilisation d'un fichier / répertoire sur les systèmes de fichiers existants.Autres outils
L'
hdparm
utilitaire fournit un repère de lecture très simple, par exemple:Il ne remplace pas un outil d'analyse comparative de pointe tel que fio, il devrait simplement être utilisé pour un premier contrôle de vraisemblance. Par exemple, pour vérifier si le lecteur USB 3 externe est reconnu à tort comme un périphérique USB 2 (vous obtiendrez alors des débits de ~ 100 Mio / s contre ~ 30 Mio / s).
la source
Comme indiqué ici , vous pouvez utiliser
gnome-disks
(si vous utilisez Gnome).Cliquez sur le lecteur que vous souhaitez tester, puis sur "Options de partition supplémentaires" (les roues). Puis
Benchmark Partition
. Vous obtiendrez une lecture / écriture moyenne en Mo / s et des temps d'accès moyens en millisecondes. J'ai trouvé ça très confortable.la source
C'est un peu grossier, mais ça marche un peu:
Vous pouvez faire des choses intéressantes avec cette technique, y compris la mise en cache de tous les fichiers
/lib
et/usr/bin
. Vous pouvez également l'utiliser dans le cadre d'un effort d'analyse comparative:Tous les noms de fichiers sur la racine sont trouvés, triés de manière aléatoire et copiés dans la mémoire cache pendant une minute maximum. La sortie de cpio vous indique combien de blocs ont été copiés. Répétez 3 fois pour obtenir une moyenne de blocs à la minute. (Notez que l'opération de recherche / tri peut prendre beaucoup de temps - beaucoup plus longtemps que la copie. Il serait préférable de mettre en cache la recherche / tri et de l'utiliser
split
pour obtenir un échantillon de fichiers.)la source