J'ai eu une matrice RAID5 composée de disques 3x5To assemblés en utilisant mdadm
. En plus de cela, j'ai créé un LUKS/dmcrypt
couche de cryptage et formaté le périphérique crypté avec ext4
. Je veux que les disques s'arrêtent en cas d'inactivité.
Tout a bien fonctionné pendant plusieurs mois, les disques se sont éteints après une minute d'inactivité. Maintenant, j’ai ajouté à la baie de disques un quatrième disque de 5 To du même type: sudo mdadm --add /dev/md0 /dev/sdb1
, puis j'ai développé le tableau sur ce disque ( mdadm --grow /dev/md0 --raid-devices=4
), et a finalement développé le système de fichiers avec sudo fsck -f /dev/mapper/raid5
et sudo resize2fs /dev/mapper/raid5
.
Aucune erreur ne s'est produite et le tableau a maintenant une taille supérieure de 5 To. Mais les disques ne tournent plus. La machine fonctionne 24 heures sur 24, 7 jours sur 7, n'utilise pas les disques, mais malgré quelques jours d'attente, les disques fonctionnent tout le temps.
iotop
montre des occurrences fréquentes de ext4lazyinit
, qui apparaît moins d’une seconde toutes les quelques secondes. Je n'avais pas remarqué cela avant de développer le système de fichiers. Alors, probablement, est-ce que ces tâches permettent de garder les disques éveillés? Mais comment puis-je forcer ext4lazyinit
pour compléter sa tâche?
init_itable=0
qui cause au moinsext4lazyinit
être actif avec 100% d'utilisation du disque la plupart du temps. Alors je verrai si ça finit son boulot d'ici demain.init_itable=0
et voir si ça reste comme ça. J'imagine que c'était beaucoup plus rapide que vos estimations car le système de fichiers est utilisé à 60%. Bien que mes vitesses soient bien inférieures, environ 4 Mo / s (probablement des lectures / écritures aléatoires?)