J'ai redimensionné mon volume logique et mon système de fichiers et tout s'est bien passé. J'ai installé un nouveau noyau et après le redémarrage, je ne peux pas démarrer ni actuel ni ancien. J'obtiens une erreur de groupe de volumes introuvable après avoir sélectionné l'option grub (2). L'inspection de la zone occupée révèle que les volumes ne sont pas enregistrés auprès du mappeur de périphériques et qu'ils sont inactifs. Je n'ai pas pu les monter après l'activation, j'ai eu une erreur de fichier introuvable (mount / dev / mapper / all-root / mnt).
Avez-vous des idées sur la façon de procéder ou de les rendre actifs au démarrage? Ou pourquoi les volumes sont-ils soudainement inactifs au démarrage?
Cordialement,
Marek
EDIT: Une enquête plus approfondie a révélé que cela n'avait rien à voir avec le redimensionnement des volumes logiques. Le fait que les volumes logiques aient dû être activés manuellement dans le shell ash après un échec de démarrage et une solution possible à ce problème est couvert dans ma réponse ci-dessous.
GRUB_PRELOAD_MODULES="lvm"
4)GRUB_CMDLINE_LINUX="scsi_mod.scan=sync"
5)sudo grub-install /dev/sda && sudo grub-install /dev/sdb && sudo update-grub && sudo update-initramfs -u -k all
6)sudo apt-get install --reinstall lvm2 grub-pc grub-common
7) en ajoutantlvm vgchange -ay
à la fin de/usr/share/initramfs-tools/scripts/local-top/lvm2
je suis rapidement à court de choses à essayer.Réponses:
J'ai finalement réussi à résoudre ce problème. Il y a un problème (bogue) avec la détection des volumes logiques, qui est une sorte de condition de concurrence (peut-être dans mon cas concernant le fait que cela se produit à l'intérieur de KVM). Ceci est couvert dans la discussion suivante . Dans mon cas particulier (Debian Squeeze), la solution est la suivante:
Cela m'a aidé, j'espère que cela aidera les autres (étrangement, cela ne fait pas encore partie du courant dominant).
Lien vers le correctif: _http: //bugs.debian.org/cgi-bin/bugreport.cgi? Msg = 10; nom de fichier = lvm2_wait-lvm.patch; att = 1; bug = 568838
Ci-dessous, une copie pour la postérité.
la source
Créez un script de démarrage
/etc/init.d/lvm
contenant les éléments suivants:Exécutez ensuite les commandes:
Devrait faire l'affaire pour les systèmes Debian.
la source
vgscan
recherche des groupes de volumes sur le système etvgchange -a
rend les groupes de volumes disponibles (-ay
) ou non (-an
).J'ai eu ce problème également. En fin de compte, c'est ce qui semblait le résoudre:
J'ai essayé d'autres choses:
GRUB_PRELOAD_MODULES="lvm"
GRUB_CMDLINE_LINUX="scsi_mod.scan=sync"
sudo grub-install /dev/sda && sudo grub-install /dev/sdb && sudo update-grub && sudo update-initramfs -u -k all
sudo apt-get install --reinstall lvm2 grub-pc grub-common
J'ai parcouru et défait les autres changements, c'est le seul qui comptait pour moi, bien que ce soit probablement le moins élégant.
la source
Si
vgscan
"trouve" les volumes, vous devriez pouvoir les activer avecvgchange -ay /dev/volumegroupname
Je ne sais pas ce qui pourrait les rendre inactifs après un redémarrage.
la source
Sans aucun des détails de configuration ou des messages d'erreur dont nous aurions besoin pour donner une réponse réelle, je vais essayer dans le noir avec
grub-mkdevicemap
comme solution.la source
En supposant que votre système utilise initramfs, il y a probablement un problème de configuration. Vous devez mettre à jour votre image initramfs qui a démarré au démarrage par grub (dans Debian vous le faites avec update-initramfs, je ne connais pas les autres distributions).
Vous pouvez également le faire à la main en décompactant initramfs et en changeant /etc/lvm/lvm.conf (ou quelque chose comme ça) dans votre image initramfs, puis en la remballant à nouveau.
la source
J'ai le même problème dans mon environnement exécutant Red Hat 7.4 en tant qu'invité KVM. J'utilise qemu-kvm-1.5.3-141 et virt-manager 1.4.1. Au début, j'utilisais Red Hat 7.2 en tant qu'invité sans aucun problème, mais après la mise à niveau d'une version mineure de 7.2 à 7.4 et du noyau vers la dernière version 3.10.0-693.5.2, quelque chose s'est mal passé et n'a pas pu démarrer ma partition LV / var plus. Le système est passé en mode d'urgence pour demander le mot de passe root. Entrer avec le mot de passe root et exécuter les commandes
lvm vgchange -ay
etsystemctl default
j'ai pu activer mon/var
LV et démarrer le système.Je ne l' ai pas compris ce qui cause ce problème, mais ma solution était d'inclure le LV
/var
dans/etc/default/grub
comme vous le voyez ci - dessous:GRUB_CMDLINE_LINUX="crashkernel=auto rd.lvm.lv=vg_local/root rd.lvm.lv=vg_local/var rd.lvm.lv=vg_local/swap rhgb quiet biosdevname=0 net.ifnames=0 ipv6.disable=1"
Ensuite, j'ai dû courir
grub2-mkconfig -o /boot/grub2/grub.cfg
et vérifier si lerd.lvm.lv=vg_local/var
était inclus dans la ligne vmlinuz de/boot/grub2/grub.cfg
. Après le redémarrage du système, je n'ai plus eu l'erreur d'activer mon/var
LV et le système termine le processus de démarrage avec succès.la source
compris dans mon cas que la racine grub était root = / dev / vgname / root
donc le test dans / usr / share / initramfs-tools / scripts / local-top / lvm2
était toujours faux. et le volume racine n'a jamais été activé.
/ etc / fstab mis à jour depuis
à
et a fait:
résolu mon problème
la source
nous avons rencontré ce problème et trouvé que la désactivation
lvmetad
par la miseuse_lvmetad=0
en ont/etc/lvm/lvm.conf
forcé les volumes à trouver et mae accessible au démarrage.la source