Comment rajouter un disque dur accidentellement retiré dans RAID5

14

J'ai un NAS sur Ubuntu Server avec 4 disques durs de 2 To en RAID 5. Il y a quelques semaines, l'un des disques durs est mort, mais mon RAID fonctionnait, bien que dégradé. Heureusement, il était toujours sous garantie et on m'a envoyé un nouveau disque dur que j'ai installé aujourd'hui. Cependant, lors de la tentative d'ajout du nouveau disque dur dans le RAID, il n'était pas en cours de reconstruction. J'ai donc débranché le disque dur et redémarré la machine. Cependant, j'ai accidentellement mis un de mes AUTRES disques durs dans le RAID en échec et l'ai supprimé à l'aide de mdadm.

Maintenant, il dit que mon RAID a deux disques durs retirés. J'ai toujours mon 3ème disque dur avec toutes mes données encore intactes, mais je ne sais pas comment le rajouter dans la matrice RAID, donc il est de retour à un bon état (bien que dégradé), donc je peux continuer à ajouter le 4ème disque dur et reconstruisez la matrice. Est-il possible que Ubuntu se rende compte que le 3ème disque dur a mes données et qu'il soit à nouveau reconnu comme faisant partie de la matrice?

Quand j'essaye de courir:

sudo mdadm --manage /dev/md127 --re-add /dev/sdd1 

Ça dit:

mdadm: --re-add for /dev/sdd1 to dev/md127 is not possible

S'il vous plaît, toute aide que n'importe qui peut apporter serait très appréciée.

Chunky56
la source
1
Je pense que j'ai pu le remettre dans un état dégradé. J'ai pu utiliser la commande mdadm --assemble --force dans la documentation et je crois que cela l'a ramené à une situation où au moins 3 des 4 lecteurs fonctionnent. Pour toute personne future qui rencontrera ce problème, voici la commande que j'ai utilisée (en supposant que les 3 disques de travail sont sdb, sdc, sdd, chacun avec des partitions uniques de sdb1, sdc1, sdd1: Code: sudo mdadm --assemble - force / dev / md127 / dev / sdb1 / dev / sdc1 / dev / sdd1 (sudo peut ne pas être nécessaire selon votre situation)
Chunky56

Réponses:

5

Vous devrez peut-être simplement faire un --addet non un --re-add. si vous lisez la page de manuel à --re-addce sujet, il est question de rajouter le périphérique si le nombre d'événements est proche du reste des périphériques. vous pouvez utiliser --examinepour le découvrir.

$ mdadm --examine /dev/sd[a-z]1 | egrep 'Event|/dev/sd'
mdadm: No md superblock detected on /dev/sda1.
/dev/sdb1:
         Events : 992655
/dev/sdd1:
         Events : 992655
/dev/sde1:
         Events : 992655
/dev/sdf1:
         Events : 992655
/dev/sdg1:
         Events : 158
/dev/sdh1:
         Events : 992655
/dev/sdj1:
         Events : 992655

comme vous pouvez le voir, mon /dev/sdh1appareil n'est pas dans la baie depuis un certain temps et --re-addne fonctionnera pas et vous devrez faire un --add et une récupération de la baie.

vous pouvez utiliser mdadm --detail /dev/md126pour regarder ce qui se passe, ce n'est peut-être pas une mauvaise idée de l'exécuter avant de faire quoi que ce soit, après tout, ce sont vos données!

$ mdadm --detail /dev/md126
/dev/md126:
        Version : 1.2
  Creation Time : Tue Jun 24 05:17:47 2014
     Raid Level : raid6
     Array Size : 14650158080 (13971.48 GiB 15001.76 GB)
  Used Dev Size : 2930031616 (2794.30 GiB 3000.35 GB)
   Raid Devices : 7
  Total Devices : 7
    Persistence : Superblock is persistent

    Update Time : Thu Nov  6 05:47:56 2014
          State : clean, degraded, recovering
 Active Devices : 6
Working Devices : 7
 Failed Devices : 0
  Spare Devices : 1

         Layout : left-symmetric
     Chunk Size : 512K

 Rebuild Status : 0% complete

           Name : omegacentauri:0  (local to host omegacentauri)
           UUID : 9fdcacc0:14f7ef3c:a6931b47:bfb8b4a1
         Events : 992656

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       49        1      active sync   /dev/sdd1
       2       8       65        2      active sync   /dev/sde1
       3       8       81        3      active sync   /dev/sdf1
       4       8       97        4      active sync   /dev/sdg1
       5       8      145        5      active sync   /dev/sdj1
       7       8      113        6      spare rebuilding   /dev/sdh1

ou vous pouvez également l'utiliser:

$ cat /proc/mdstat
Personalities : [raid1] [raid6] [raid5] [raid4]
md126 : active raid6 sdh1[7] sdg1[4] sdj1[5] sdf1[3] sdd1[1] sde1[2] sdb1[0]
      14650158080 blocks super 1.2 level 6, 512k chunk, algorithm 2 [7/6] [UUUUUU_]
      [>....................]  recovery =  0.9% (26657536/2930031616) finish=1162.5min speed=41624K/sec

md127 : active (auto-read-only) raid1 sdi[1] sdc[0]
      1465007360 blocks super 1.2 [2/2] [UU]

Je ne suis responsable d'aucune de vos données perdues.

lockwobr
la source