Comment développer une matrice RAID10 à l'aide de mdadm?
Évidemment, il me faudrait ajouter 2 lecteurs à la fois, ou faudrait-il 4 lecteurs?
J'ai l'impression que c'est juste une mauvaise idée.
Ou serait-il juste plus sage de simplement opter pour RAID5?
Réponses:
La dernière fois que j'ai vérifié, mdadm ne vous laissera pas --grow raid10. J’ai jeté un coup d’œil sur la page de manuel de mdadm et il dit encore: Les options de croissance actuellement prises en charge, notamment la modification de la taille active des périphériques composants et du nombre de périphériques actifs dans les niveaux RAID 1/4/5/6, ainsi que le changement du niveau RAID entre 1, 5, et 6, modifier la taille et la disposition des blocs pour RAID5 et RAID5, ainsi que l’ajout ou la suppression d’un bitmap destiné à l’écriture.
la source
Pour faire évoluer RAID 10, vous avez besoin de mdadm en version min. 3.3 et la version du noyau min 3.5. Vous avez également besoin d'un nombre pair de disques - les disques non appariés ne peuvent fonctionner que comme disques de réserve ou, éventuellement, pour passer au mode dégradé (non testé).
Voici l'exemple de la croissance de RAID 10 de 4 à 6 avec mdadm 3.3-2ubuntu2 @ Linux 4.2.0-10-generic. Testé avec des données ext4 dessus, le système de fichiers a été démonté, ext4 a été étendu après la croissance du RAID sans aucun problème.
la source
Je me rends compte que c'est plus d'un an mais quelqu'un pourrait trouver cela utile ...
Vous pouvez développer un tableau RAID 10, mais pas comment vous le souhaitez. Vous devrez imbriquer plusieurs niveaux de raid. Cela peut être fait avec mdadm sur 2 disques dans le raid 10, ce qui représente des performances assez intéressantes en fonction de la disposition, mais vous devrez créer plusieurs baies de disques 2 RAID 10, puis les attacher au nœud logique. Ensuite, pour en ajouter, ajoutez un peu plus et rayez-le. Si tel est votre cas d'utilisation (besoin de développer beaucoup), il serait sage d'utiliser un tableau de parité, qui peut être développé.
Ce sont les limitations que vous obtenez avec RAID 10, tout en maintenant de meilleures performances en lecture / écriture. Et une précision, le raid 5/6 ne signifie absolument pas "En général, de meilleures performances en écriture ...". Le raid 5/6 a ses avantages / inconvénients respectifs, tout comme le raid 10, mais les performances en écriture ne sont pas un avantage pour le raid 5/6.
En outre, vous n'avez pas spécifié la taille de vos lecteurs, mais méfiez-vous du RAID 5 sur les nouveaux lecteurs de grande taille. Cependant, si vous faites attention, vous pouvez récupérer d'une erreur de lecture irrémédiable, vous risquez des temps d'arrêt et la possibilité de ne pas pouvoir récupérer du tout.
--edit pour ajouter des informations-- Utilisez des outils tels que hdparm (hdparm -i) et lshw pour obtenir les numéros de série ainsi que le nom du périphérique (/ dev / sda) en cas d'échec. Cela vous assurera de retirer le périphérique approprié lors du remplacement. La flèche vers le haut sur le commentaire de Travis, car elle est très correcte et présente un beau tracé, mais comme d'habitude, alourdissez les avantages et les inconvénients de chaque solution.
la source
Quelques bonnes nouvelles de l'annonce de publication de mdadm 3.3:
Selon cette réponse sur U & L, vous aurez également besoin d’au moins linux 3.5.
la source
Je sais que cela demande plus de travail et peut prêter à confusion, mais vous pouvez toujours rayer plusieurs miroirs.
Par exemple, je viens de configurer un réseau RAID 4 à 4 lecteurs et ce dernier souhaite ajouter un autre réseau RAID 10 à 4 lecteurs. Utilisez simplement mdadm pour créer un nouveau groupe RAID 10 sur les nouveaux lecteurs. Vous pouvez ensuite créer un autre tableau RAID 0 à l’aide des deux périphériques RAID existants. Cependant, j'utiliserais les fonctionnalités de LVM pour créer la bande, conservant ainsi les configs mdadm et les périphériques / dev / md dans un état facile à comprendre. L'une ou l'autre méthode fonctionnerait, et il y en a probablement plus, mais c'est ce que je pourrais faire par cœur.
la source
Vous ne pouvez pas développer une matrice RAID10, c'est vrai. Mais vous pouvez commencer avec deux lecteurs (au prix de l’absence de redondance à ce stade), puis plus tard, en ajouter deux autres. J'ai utilisé cette méthode pour passer d'une matrice RAID5 avec quatre lecteurs de disque à RAID10 avec quatre lecteurs de disque.
J'ai dégradé RAID5 et enlevé un disque de la matrice. Cela m'a donné deux disques qui étaient libres d'utiliser. Ensuite, j'ai créé un RAID10-array avec quelque chose du type 'mdadm --create --level 10 / dev / md0 / dev / sda1 missing / dev / sdc1 missing'. C'était suffisant pour démarrer le tableau.
Lorsque j'ai déplacé les données de la matrice RAID5 dégradée vers la matrice RAID10, j'ai ajouté deux des disques RAID5 à la matrice RAID10 et en ai ajouté un en réserve.
C'est probablement une bonne idée si quelqu'un qui en sait plus que moi peut parler de tout impact sur les performances que cela aurait pu avoir. Mais la principale raison de mon article est de montrer qu’il est possible de commencer avec RAID10 et deux disques.
Remarque: lisez le message de forum suivant qui demande et répond si l’ordre du disque dans mdadm est important .
la source