Comment calculez-vous la taille de bloc optimale lors de l'exécution d'un dd
? J'ai fait des recherches un peu et je n'ai rien trouvé qui suggère comment cela serait accompli.
J'ai l'impression qu'une plus grande taille de bloc entraînerait un plus rapide dd
... est-ce vrai?
Je suis sur le point de dd
deux disques durs Hitachi identiques de 500 Go qui fonctionnent à 7200 tr / min sur une boîte exécutant un Intel Core i3 avec 4 Go de RAM DDR3 1333 MHz, alors j'essaie de déterminer la taille de bloc à utiliser. (Je vais démarrer Ubuntu 10.10 x86 à partir d'un lecteur flash et l'exécuter à partir de cela.)
dd
trouver la taille de bloc optimale lors du transfert du fichierRéponses:
La taille de bloc optimale dépend de divers facteurs, y compris le système d'exploitation (et sa version), et les différents bus et disques matériels impliqués. Plusieurs systèmes de type Unix (y compris Linux et au moins certaines versions de BSD) définissent le
st_blksize
membre dans lestruct stat
qui donne ce que le noyau pense être la taille de bloc optimale:Le meilleur moyen est peut-être d'expérimenter: copiez un gigaoctet avec différentes tailles de bloc et l'heure. (N'oubliez pas de vider les caches du tampon du noyau avant chaque exécution :)
echo 3 > /proc/sys/vm/drop_caches
.Cependant, en règle générale, j'ai trouvé qu'une taille de bloc suffisamment grande permet de
dd
faire du bon travail, et les différences entre, par exemple, 64 Kio et 1 Mo sont mineures, par rapport à 4 Kio contre 64 Kio. (Bien que, certes, cela fait un moment que je n'ai pas fait cela. J'utilise un mégaoctet par défaut maintenant, ou je laisse simplementdd
choisir la taille.)la source
Comme d'autres l'ont dit, il n'y a pas de taille de bloc universellement correcte; ce qui est optimal pour une situation ou une pièce de matériel peut être terriblement inefficace pour une autre. En outre, en fonction de la santé des disques, il peut être préférable d'utiliser une taille de bloc différente de ce qui est "optimal".
Une chose qui est assez fiable sur le matériel moderne est que la taille de bloc par défaut de 512 octets a tendance à être presque un ordre de grandeur plus lente qu'une alternative plus optimale. En cas de doute, j'ai trouvé que 64K est un défaut moderne assez solide. Bien que 64K ne soit généralement pas LA taille de bloc optimale, d'après mon expérience, elle a tendance à être beaucoup plus efficace que la taille par défaut. 64K a également une histoire assez solide de fiabilité: vous pouvez trouver un message de la liste de diffusion Eug-Lug, vers 2002, recommandant une taille de bloc de 64K ici: http://www.mail-archive.com/eug- [email protected]/msg12073.html
Pour déterminer LA taille de bloc de sortie optimale, j'ai écrit le script suivant qui teste l'écriture d'un fichier de test de 128 Mo avec dd dans une plage de tailles de bloc différentes, de la valeur par défaut de 512 octets à un maximum de 64 Mo. Attention, ce script utilise dd en interne, donc à utiliser avec prudence.
dd_obs_test.sh:
Afficher sur GitHub
Je n'ai testé ce script que sur un système Debian (Ubuntu) et sur OSX Yosemite, il faudra donc probablement quelques ajustements pour fonctionner sur d'autres saveurs Unix.
Par défaut, la commande créera un fichier de test nommé dd_obs_testfile dans le répertoire courant. Vous pouvez également fournir un chemin vers un fichier de test personnalisé en fournissant un chemin après le nom du script:
La sortie du script est une liste des tailles de bloc testées et de leurs taux de transfert respectifs comme ceci:
(Remarque: l'unité des taux de transfert varie selon le système d'exploitation)
Pour tester la taille optimale du bloc de lecture, vous pouvez utiliser plus ou moins le même processus, mais au lieu de lire à partir de / dev / zero et d'écrire sur le disque, vous liriez à partir du disque et écririez dans / dev / null. Un script pour faire cela pourrait ressembler à ceci:
dd_ibs_test.sh:
Afficher sur GitHub
Une différence importante dans ce cas est que le fichier de test est un fichier écrit par le script. Ne pointez pas cette commande sur un fichier existant ou le fichier existant sera écrasé par des zéros!
Pour mon matériel particulier, j'ai trouvé que 128K était la taille de bloc d'entrée la plus optimale sur un disque dur et que 32K était la plus optimale sur un SSD.
Bien que cette réponse couvre la plupart de mes découvertes, j'ai rencontré cette situation suffisamment de fois pour que j'écrive un article de blog à ce sujet: http://blog.tdg5.com/tuning-dd-block-size/ Vous pouvez trouver plus de détails sur les tests que j'y ai effectués.
la source
dd_obs_test.sh
conv=fsync
ne fonctionne pas sur macOS et peut être supprimé.J'ai trouvé que ma taille de bloc optimale était de 8 Mo (égal au cache disque?) J'avais besoin d'effacer (certains disent: laver) l'espace vide sur un disque avant d'en créer une image compressée. J'ai utilisé:
J'ai expérimenté des valeurs de 4K à 100M.
Après avoir laissé dd s'exécuter pendant un moment, je l'ai tué (Ctlr + C) et lu la sortie:
Comme dd affiche le taux d'entrée / sortie (19,1 Mo / s dans ce cas), il est facile de voir si la valeur que vous avez choisie fonctionne mieux que la précédente ou pire.
Mes scores:
Remarque: pour vérifier la taille de votre cache disque / tampon, vous pouvez utiliser
sudo hdparm -i /dev/sda
la source
8M
c'est difficile à battre.Cela dépend totalement du système. Vous devez expérimenter pour trouver la solution optimale. Essayez de commencer par
bs=8388608
. (Comme les disques durs Hitachi semblent avoir 8 Mo de cache.)la source
bs=8M
sur GNU / Linux oubs=8m
sur BSDbs=8388608
et de décrémenter une fois à chaque étape"la source
la source