Entorno chroot en una máquina virtual de rescate linux
Se aplica a: ✔️ Máquinas virtuales Linux
Nota:
CentOS al que se hace referencia en este artículo es una distribución de Linux y llegará al final del ciclo de vida (EOL). Tenga en cuenta su uso y planifique en consecuencia. Para obtener más información, consulte Guía de fin de vida de CentOS.
En este artículo se describe cómo solucionar problemas del entorno chroot en la máquina virtual (VM) de rescate en Linux.
Ubuntu 16.x && Ubuntu 18.x && Ubuntu 20.04
Detenga o desasigne la máquina virtual afectada.
Cree una máquina virtual de rescate de la misma generación, la misma versión del sistema operativo, en el mismo grupo de recursos y la misma ubicación mediante el disco administrado.
Use Azure Portal para tomar una instantánea del disco del SO de la máquina virtual afectada.
Cree un disco fuera de la instantánea del disco del sistema operativo y conéctelo a la máquina virtual de rescate.
Una vez creado el disco, solucione los problemas del entorno chroot en la máquina virtual de rescate.
Acceda a la máquina virtual como usuario raíz mediante el comando siguiente:
sudo su -
Para buscar el disco, use
dmesg
(el método que use para detectar el nuevo disco puede variar). En el ejemplo siguiente se usadmesg
para filtrar los discos de small Computer Systems Interface (SCSI):dmesg | grep SCSI
La salida del comando es similar al ejemplo siguiente. En este ejemplo, el disco /dev/sdc es lo que desea:
[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Use los comandos siguientes para acceder al entorno de chroot:
mkdir /rescue mount /dev/sdc1 /rescue mount /dev/sdc15 /rescue/boot/efi mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Solucione los problemas del entorno de chroot.
Use los comandos siguientes para salir del entorno de chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run cd / umount /rescue/boot/efi umount /rescue
Nota:
Si recibe el mensaje de error "no se puede desmontar /rescue", agregue la
-l
opción alumount
comando, por ejemplo,umount -l /rescue
.
Desasocie el disco de la VM de rescate y realice un intercambio de disco con la VM original.
Inicie la VM original y compruebe su conectividad.
RHEL/Centos/Oracle 6.x y Oracle 8.x y RHEL/Centos 7.x con particiones RAW
Detenga o desasigne la máquina virtual afectada.
Cree una imagen de máquina virtual de rescate de la misma versión del sistema operativo en el mismo grupo de recursos (RSG) y la ubicación mediante un disco administrado.
Use Azure Portal para tomar una instantánea del disco del SO de la máquina virtual afectada.
Cree un disco fuera de la instantánea del disco del sistema operativo y conéctelo a la máquina virtual de rescate.
Una vez creado el disco, solucione los problemas del entorno chroot en la máquina virtual de rescate.
Acceda a la máquina virtual como usuario raíz mediante el comando siguiente:
sudo su -
Para buscar el disco, use
dmesg
(el método que use para detectar el nuevo disco puede variar). En el ejemplo siguiente se usadmesg
para filtrar en discos SCSI:dmesg | grep SCSI
La salida del comando es similar al ejemplo siguiente. En este ejemplo, el disco /dev/sdc es lo que desea:
[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Use los comandos siguientes para acceder al entorno de chroot:
mkdir /rescue mount -o nouuid /dev/sdc2 /rescue mount -o nouuid /dev/sdc1 /rescue/boot/ mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Solucione los problemas del entorno de chroot.
Use los comandos siguientes para salir del entorno de chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run cd / umount /rescue/boot/ umount /rescue
Nota:
Si recibe el mensaje de error "no se puede desmontar /rescue", agregue la
-l
opción alumount
comando, por ejemplo,umount -l /rescue
.
Desasocie el disco de la VM de rescate y realice un intercambio de disco con la VM original.
Inicie la VM original y compruebe su conectividad.
RHEL/Centos 7.x y 8.X con LVM
Nota:
Si la máquina virtual original incluye el Administrador de volúmenes lógicos (LVM) en el disco del sistema operativo, cree la máquina virtual de rescate mediante la imagen con particiones sin procesar en el disco del sistema operativo.
Detenga o desasigne la máquina virtual afectada.
Cree una imagen de máquina virtual de rescate de la misma versión del sistema operativo en el mismo grupo de recursos (RSG) y la ubicación mediante un disco administrado.
Use Azure Portal para tomar una instantánea del disco del SO de la máquina virtual afectada.
Cree un disco fuera de la instantánea del disco del sistema operativo y conéctelo a la máquina virtual de rescate.
Una vez creado el disco, solucione los problemas del entorno chroot en la máquina virtual de rescate.
Acceda a la máquina virtual como usuario raíz mediante el comando siguiente:
sudo su -
Para buscar el disco, use
dmesg
(el método que use para detectar el nuevo disco puede variar). En el ejemplo siguiente se usadmesg
para filtrar en discos SCSI:dmesg | grep SCSI
La salida del comando es similar al ejemplo siguiente. En este ejemplo, el disco /dev/sdc es lo que desea:
[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Use los siguientes comandos para activar el grupo de volúmenes lógicos:
vgscan --mknodes vgchange -ay lvscan
Use el
lsblk
comando para recuperar los nombres de LVM:lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 64G 0 disk ├─sda1 8:1 0 500M 0 part /boot ├─sda2 8:2 0 63G 0 part / sdb 8:16 0 4G 0 disk └─sdb1 8:17 0 4G 0 part /mnt/resource sdc 8:0 0 64G 0 disk ├─sdc1 8:1 0 500M 0 part ├─sdc2 8:2 0 63G 0 part ├─sdc3 8:3 0 2M 0 part ├─sdc4 8:4 0 63G 0 part ├─rootvg-tmplv 253:0 0 2G 0 lvm ├─rootvg-usrlv 253:1 0 10G 0 lvm ├─rootvg-optlv 253:2 0 2G 0 lvm ├─rootvg-homelv 253:3 0 1G 0 lvm ├─rootvg-varlv 253:4 0 8G 0 lvm └─rootvg-rootlv 253:5 0 2G 0 lvm
Use los siguientes comandos para preparar el dir chroot:
mkdir /rescue mount /dev/mapper/rootvg-rootlv /rescue mount /dev/mapper/rootvg-varlv /rescue/var mount /dev/mapper/rootvg-homelv /rescue/home mount /dev/mapper/rootvg-usrlv /rescue/usr mount /dev/mapper/rootvg-tmplv /rescue/tmp mount /dev/mapper/rootvg-optlv /rescue/opt mount /dev/sdc2 /rescue/boot/ mount /dev/sdc1 /rescue/boot/efi
Las particiones /rescue/boot/ y /rescue/boot/efi no siempre se encuentran en /dev/sdc2 o /dev/sdc1. Si se produce un error al intentar montar estas particiones, compruebe el archivo /rescue/etc/fstab para determinar los dispositivos correctos para las particiones /boot y /boot/efi del disco del sistema operativo roto. A continuación, ejecute el
blkid
comando y compare el identificador único universal (UUID) desde el archivo /rescue/etc/fstab con la salida delblkid
comando para determinar el dispositivo correcto para montar /rescue/boot/ y /rescue/boot/efi en la máquina virtual de reparación.El
mount /dev/mapper/rootvg-optlv /rescue/opt
comando puede producir un error si el grupo de volúmenes rootvg-optlv no existe. En este caso, puede omitir este comando.Acceda al entorno chroot mediante los siguientes comandos:
mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Solucione los problemas del entorno de chroot.
Use los comandos siguientes para salir del entorno de chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run cd / umount /rescue/boot/efi umount /rescue/boot umount /rescue/home umount /rescue/var umount /rescue/usr umount /rescue/tmp umount /rescue/opt umount /rescue
Nota:
Si recibe el mensaje de error "no se puede desmontar /rescue", agregue la
-l
opción alumount
comando, por ejemplo,umount -l /rescue
.
Desasocie el disco de la VM de rescate y realice un intercambio de disco con la VM original.
Inicie la VM original y compruebe su conectividad.
Uso de la misma imagen LVM
Nota:
Si necesita implementar la máquina virtual de rescate mediante la misma imagen de LVM, debe modificar algunos aspectos de la máquina virtual de rescate con LVM.
Los comandos siguientes se ejecutarán en la máquina virtual de recuperación o rescate que se crea temporalmente para la operación de recuperación.
Use el comando siguiente para comprobar el estado de los discos antes de conectar el disco que desea rescatar:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─rootvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rootvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rootvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rootvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rootvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rootvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt
Conecte el disco que desea rescatar como una unidad de datos.
Vuelva a comprobar los discos mediante el comando siguiente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─rootvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rootvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rootvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rootvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rootvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rootvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt sdc ├─sdc1 vfat 93DA-8C20 ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sdc3 └─sdc4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
La salida del comando no muestra las estructuras LVM inmediatamente.
Vea las particiones de LVM físicas mediante el comando siguiente:
sudo pvs
Esta salida muestra advertencias sobre volúmenes físicos duplicados (PVs):
WARNING: Not using lvmetad because duplicate PVs were found. WARNING: Use multipath or vgimportclone to resolve duplicate PVs? WARNING: After duplicates are resolved, run "pvscan --cache" to enable lvmetad. WARNING: Not using device /dev/sdc4 for PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU. WARNING: PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU prefers device /dev/sda4 because device is used by LV. PV VG Fmt Attr PSize PFree /dev/sda4 rootvg lvm2 a-- <63.02g <38.02g
Use el
vmimportclone
comando para importar rootvg desde la unidad de datos mediante otro nombre.Este comando cambia el UUID del PV y también lo activa:
sudo vgimportclone -n rescuemevg /dev/sdc4
WARNING: Not using device /dev/sdc4 for PV <PV>. WARNING: PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU prefers device /dev/sda4 because device is used by LV.
sudo vgchange -a y rescuemevg
6 logical volume(s) in volume group "rescuemevg" now active
Compruebe el cambio de nombre mediante el comando siguiente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─rootvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rootvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rootvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rootvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rootvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rootvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt sdc ├─sdc1 vfat 93DA-8C20 ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rescuemevg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 ├─rescuemevg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d ├─rescuemevg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 ├─rescuemevg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 ├─rescuemevg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 └─rescuemevg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809
Cambie el nombre de rootvg de la máquina virtual de rescate mediante el comando siguiente:
sudo vgrename rootvg oldvg
Volume group "rootvg" successfully renamed to "oldvg"
Compruebe los discos mediante el comando siguiente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─oldvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─oldvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─oldvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─oldvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─oldvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─oldvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt sdc ├─sdc1 vfat 93DA-8C20 ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rescuemevg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 ├─rescuemevg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d ├─rescuemevg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 ├─rescuemevg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 ├─rescuemevg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 └─rescuemevg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809
Monte el sistema de archivos que procede de la unidad de datos.
Al usar
xfs
, especifique la-o nouuid
opción para evitar conflictos con los UUID y montar los sistemas de archivos necesarios para realizar una chroot. Esta opción no está disponible enext4
los sistemas de archivos, por lo que debe quitarla de los comandos en este escenario:sudo mkdir /rescue sudo mount -o nouuid /dev/mapper/rescuemevg-rootlv /rescue sudo mount -o nouuid /dev/mapper/rescuemevg-homelv /rescue/home sudo mount -o nouuid /dev/mapper/rescuemevg-optlv /rescue/opt sudo mount -o nouuid /dev/mapper/rescuemevg-tmplv /rescue/tmp sudo mount -o nouuid /dev/mapper/rescuemevg-usrlv /rescue/usr sudo mount -o nouuid /dev/mapper/rescuemevg-varlv /rescue/var sudo mount -o nouuid /dev/sdc2 /rescue/boot sudo mount /dev/sdc1 /rescue/boot/efi sudo mount -t proc /proc /rescue/proc sudo mount -t sysfs /sys /rescue/sys sudo mount -o bind /dev /rescue/dev sudo mount -o bind /dev/pts /rescue/dev/pts sudo mount -o bind /run /rescue/run
Las particiones /rescue/boot/ y /rescue/boot/efi no siempre se encuentran en /dev/sdc2 o /dev/sdc1. Si se produce un error al intentar montar estas particiones, compruebe el archivo /rescue/etc/fstab para determinar los dispositivos correctos para las particiones /boot y /boot/efi del disco del sistema operativo roto. A continuación, ejecute el comando y compare el
blkid
UUID del archivo /rescue/etc/fstab con la salida delblkid
comando para determinar el dispositivo correcto para montar /rescue/boot/ y /rescue/boot/efi en la máquina virtual de reparación. Los UUID duplicados pueden aparecer en la salida. En este escenario, monte la partición que coincide con la letra del dispositivo del paso 5. En el ejemplo de esta sección, la partición correcta que debe montar es /dev/sdc. El dev/sda representa el sistema operativo actualmente en uso y debe omitirse.Compruebe los montajes mediante el comando siguiente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─oldvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─oldvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─oldvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─oldvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─oldvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─oldvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt sdc ├─sdc1 vfat 93DA-8C20 /rescue/boot/efi ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /rescue/boot ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rescuemevg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /rescue/tmp ├─rescuemevg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /rescue/usr ├─rescuemevg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /rescue/opt ├─rescuemevg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /rescue/home ├─rescuemevg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /rescue/var └─rescuemevg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 /rescue
Use chroot mediante el comando siguiente:
sudo chroot /rescue/
Compruebe los montajes "dentro" del entorno chroot mediante el comando siguiente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─oldvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 ├─oldvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d ├─oldvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 ├─oldvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 ├─oldvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 └─oldvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 sdc ├─sdc1 vfat 93DA-8C20 /boot/efi ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rescuemevg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rescuemevg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rescuemevg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rescuemevg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rescuemevg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rescuemevg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 /
Ahora, rescuemevg-rootlv es el montado en /.
Cambie el nombre del grupo de volúmenes (VG) para que sea coherente mediante el comando siguiente. Cambiar el nombre del VG evita que se produzcan problemas al volver a generar el initrd y arrancar el disco de nuevo en la máquina virtual original.
sudo vgrename rescuemevg rootvg
Volume group "rescuemevg" successfully renamed to "rootvg"
Compruebe el cambio mediante el comando siguiente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─oldvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 ├─oldvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d ├─oldvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 ├─oldvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 ├─oldvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 └─oldvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 sdc ├─sdc1 vfat 93DA-8C20 /boot/efi ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rootvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rootvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rootvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rootvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rootvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rootvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 /
Continúe con las actividades necesarias para rescatar el sistema operativo. Estas actividades pueden incluir la regeneración de initramfs o la configuración de GRUB.
Salga del entorno chroot mediante el comando siguiente:
sudo exit
Desmonte y desasocie el disco de datos de la máquina virtual de rescate y realice un intercambio de disco con la máquina virtual original mediante los siguientes comandos:
umount /rescue/run/ umount /rescue/dev/pts/ umount /rescue/dev/ umount /rescue/sys/ umount /rescue/proc umount /rescue/boot/efi umount /rescue/boot umount /rescue/var umount /rescue/usr umount /rescue/tmp umount /rescue/opt umount /rescue/home umount /rescue
Inicie la máquina virtual original y compruebe su funcionalidad.
Oracle 7.x
Detenga o desasigne la máquina virtual afectada.
Cree una imagen de máquina virtual de rescate de la misma versión del sistema operativo, en el mismo grupo de recursos (RSG) y la ubicación mediante un disco administrado.
Use Azure Portal para tomar una instantánea del disco del SO de la máquina virtual afectada.
Cree un disco fuera de la instantánea del disco del sistema operativo y conéctelo a la máquina virtual de rescate.
Una vez creado el disco, solucione los problemas del entorno chroot en la máquina virtual de rescate.
Acceda a la máquina virtual como usuario raíz mediante el comando siguiente:
sudo su -
Busque el disco mediante
dmesg
(el método que usa para detectar el nuevo disco puede variar). En el ejemplo siguiente se usadmesg
para filtrar en discos SCSI:dmesg | grep SCSI
La salida del comando es similar al ejemplo siguiente. En este ejemplo, el
/dev/sdc
disco es lo que desea:[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Use los comandos siguientes para acceder al entorno de chroot:
mkdir /rescue mount -o nouuid /dev/sdc2 /rescue mount -o nouuid /dev/sdc1 /rescue/boot/ mount /dev/sdc15 /rescue/boot/efi mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Solucione los problemas del entorno de chroot.
Use los comandos siguientes para salir del entorno de chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run umount /rescue/boot/efi umount /rescue/boot umount /rescue
Nota:
Si recibe el mensaje de error "no se puede desmontar /rescue", agregue la
-l
opción alumount
comando, por ejemplo,umount -l /rescue
.
Desasocie el disco de la VM de rescate y realice un intercambio de disco con la VM original.
Inicie la VM original y compruebe su conectividad.
SUSE-SLES 12 SP4, SUSE-SLES 12 SP4 para SAP y ## SUSE-SLES 15 SP1, SUSE-SLES 15 SP1 para SAP
Detenga o desasigne la máquina virtual afectada.
Cree una imagen de máquina virtual de rescate de la misma versión del sistema operativo, en el mismo grupo de recursos (RSG) y la ubicación mediante un disco administrado.
Use Azure Portal para tomar una instantánea del disco del SO de la máquina virtual afectada.
Cree un disco fuera de la instantánea del disco del sistema operativo y conéctelo a la máquina virtual de rescate.
Una vez creado el disco, solucione los problemas del entorno chroot en la máquina virtual de rescate.
Acceda a la VM como usuario raíz con el comando siguiente:
sudo su -
Para buscar el disco, use
dmesg
(el método que use para detectar el nuevo disco puede variar). En el ejemplo siguiente se usadmesg
para filtrar en discos SCSI:dmesg | grep SCSI
La salida del comando es similar al ejemplo siguiente. En este ejemplo, el
/dev/sdc
disco es lo que desea:[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Use los comandos siguientes para acceder al entorno de chroot:
mkdir /rescue mount -o nouuid /dev/sdc4 /rescue mount -o nouuid /dev/sdc3 /rescue/boot/ mount /dev/sdc2 /rescue/boot/efi mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Solucione los problemas del entorno de chroot.
Use los comandos siguientes para salir del entorno de chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run umount /rescue/boot/efi umount /rescue/boot umount /rescue
Nota:
Si recibe el mensaje de error "no se puede desmontar /rescue", agregue la
-l
opción alumount
comando, por ejemplo,umount -l /rescue
.
Desasocie el disco de la VM de rescate y realice un intercambio de disco con la VM original.
Inicie la VM original y compruebe su conectividad.
Pasos siguientes
Ponte en contacto con nosotros para obtener ayuda
Si tiene preguntas o necesita ayuda, cree una solicitud de soporte o busque consejo en la comunidad de Azure. También puede enviar comentarios sobre el producto con los comentarios de la comunidad de Azure.