Ambiente Chroot in una macchina virtuale di ripristino Linux
Si applica a: ✔️ macchine virtuali di Linux
Note
CentOS a cui si fa riferimento in questo articolo è una distribuzione Linux e raggiungerà End Of Life (EOL). Valutare le proprie esigenze e pianificare di conseguenza. Per altre informazioni, vedere Indicazioni sulla fine della vita di CentOS.
Questo articolo descrive come risolvere i problemi dell'ambiente chroot nella macchina virtuale di ripristino in Linux.
Ubuntu 16.x && Ubuntu 18.x && Ubuntu 20.04
Arrestare o deallocare la macchina virtuale interessata.
Creare una macchina virtuale di ripristino della stessa generazione, la stessa versione del sistema operativo, nello stesso gruppo di risorse e nella stessa posizione usando il disco gestito.
Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.
Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di ripristino.
Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di ripristino.
Accedere alla macchina virtuale come utente radice usando il comando seguente:
sudo su -
Trovare il disco usando
dmesg
(il metodo usato per individuare il nuovo disco può variare). Nell'esempio seguente vienedmesg
usato per filtrare i dischi SCSI (Small Computer Systems Interface):dmesg | grep SCSI
L'output del comando è simile all'esempio seguente. In questo esempio, il disco /dev/sdc è quello desiderato:
[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Usare i comandi seguenti per accedere all'ambiente chroot:
mkdir /rescue mount /dev/sdc1 /rescue mount /dev/sdc15 /rescue/boot/efi mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Risolvere i problemi relativi all'ambiente chroot.
Usare i comandi seguenti per uscire dall'ambiente chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run cd / umount /rescue/boot/efi umount /rescue
Note
Se viene visualizzato il messaggio di errore "Impossibile smontare /rescue", aggiungere l'opzione
-l
alumount
comando,umount -l /rescue
ad esempio .
Scollegare il disco dalla macchina virtuale di ripristino ed eseguire uno scambio del disco con la macchina virtuale originale.
Avviare la macchina virtuale originale e controllarne la connettività.
RHEL/Centos/Oracle 6.x && Oracle 8.x && RHEL/Centos 7.x con partizioni RAW
Arrestare o deallocare la macchina virtuale interessata.
Creare un'immagine di macchina virtuale di ripristino della stessa versione del sistema operativo nello stesso gruppo di risorse (RSG) e nella stessa posizione usando un disco gestito.
Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.
Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di ripristino.
Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di ripristino.
Accedere alla macchina virtuale come utente radice usando il comando seguente:
sudo su -
Trovare il disco usando
dmesg
(il metodo usato per individuare il nuovo disco può variare). Nell'esempio seguente vienedmesg
usato per filtrare i dischi SCSI:dmesg | grep SCSI
L'output del comando è simile all'esempio seguente. In questo esempio, il disco /dev/sdc è quello desiderato:
[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Usare i comandi seguenti per accedere all'ambiente chroot:
mkdir /rescue mount -o nouuid /dev/sdc2 /rescue mount -o nouuid /dev/sdc1 /rescue/boot/ mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Risolvere i problemi relativi all'ambiente chroot.
Usare i comandi seguenti per uscire dall'ambiente chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run cd / umount /rescue/boot/ umount /rescue
Note
Se viene visualizzato il messaggio di errore "Impossibile smontare /rescue", aggiungere l'opzione
-l
alumount
comando,umount -l /rescue
ad esempio .
Scollegare il disco dalla macchina virtuale di ripristino ed eseguire uno scambio del disco con la macchina virtuale originale.
Avviare la macchina virtuale originale e controllarne la connettività.
RHEL/Centos 7.x & 8.X con LVM
Note
Se la macchina virtuale originale include Gestione volumi logici (LVM) nel disco del sistema operativo, creare la macchina virtuale di ripristino usando l'immagine con partizioni non elaborate nel disco del sistema operativo.
Arrestare o deallocare la macchina virtuale interessata.
Creare un'immagine di macchina virtuale di ripristino della stessa versione del sistema operativo nello stesso gruppo di risorse (RSG) e nella stessa posizione usando un disco gestito.
Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.
Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di ripristino.
Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di ripristino.
Accedere alla macchina virtuale come utente radice usando il comando seguente:
sudo su -
Trovare il disco usando
dmesg
(il metodo usato per individuare il nuovo disco può variare). Nell'esempio seguente vienedmesg
usato per filtrare i dischi SCSI:dmesg | grep SCSI
L'output del comando è simile all'esempio seguente. In questo esempio, il disco /dev/sdc è quello desiderato:
[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Usare i comandi seguenti per attivare il gruppo di volumi logici:
vgscan --mknodes vgchange -ay lvscan
Usare il
lsblk
comando per recuperare i nomi di LVM:lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:0 0 64G 0 disk ├─sda1 8:1 0 500M 0 part /boot ├─sda2 8:2 0 63G 0 part / sdb 8:16 0 4G 0 disk └─sdb1 8:17 0 4G 0 part /mnt/resource sdc 8:0 0 64G 0 disk ├─sdc1 8:1 0 500M 0 part ├─sdc2 8:2 0 63G 0 part ├─sdc3 8:3 0 2M 0 part ├─sdc4 8:4 0 63G 0 part ├─rootvg-tmplv 253:0 0 2G 0 lvm ├─rootvg-usrlv 253:1 0 10G 0 lvm ├─rootvg-optlv 253:2 0 2G 0 lvm ├─rootvg-homelv 253:3 0 1G 0 lvm ├─rootvg-varlv 253:4 0 8G 0 lvm └─rootvg-rootlv 253:5 0 2G 0 lvm
Usare i comandi seguenti per preparare il dir chroot:
mkdir /rescue mount /dev/mapper/rootvg-rootlv /rescue mount /dev/mapper/rootvg-varlv /rescue/var mount /dev/mapper/rootvg-homelv /rescue/home mount /dev/mapper/rootvg-usrlv /rescue/usr mount /dev/mapper/rootvg-tmplv /rescue/tmp mount /dev/mapper/rootvg-optlv /rescue/opt mount /dev/sdc2 /rescue/boot/ mount /dev/sdc1 /rescue/boot/efi
Le partizioni /rescue/boot/ e /rescue/boot/efi potrebbero non trovarsi sempre in /dev/sdc2 o /dev/sdc1. Se si verifica un errore durante il tentativo di montare queste partizioni, controllare il file /rescue/etc/fstab per determinare i dispositivi corretti per le partizioni /boot e /boot/efi dal disco del sistema operativo interrotto. Eseguire quindi il
blkid
comando e confrontare l'UUID (Universal Unique Identifier) dal file /rescue/etc/fstab con l'output delblkid
comando per determinare il dispositivo corretto per il montaggio /rescue/boot/ e /rescue/boot/efi nella macchina virtuale di ripristino.Il
mount /dev/mapper/rootvg-optlv /rescue/opt
comando potrebbe non riuscire se il gruppo di volumi rootvg-optlv non esiste. In questo caso, è possibile ignorare questo comando.Accedere all'ambiente chroot usando i comandi seguenti:
mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Risolvere i problemi relativi all'ambiente chroot.
Usare i comandi seguenti per uscire dall'ambiente chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run cd / umount /rescue/boot/efi umount /rescue/boot umount /rescue/home umount /rescue/var umount /rescue/usr umount /rescue/tmp umount /rescue/opt umount /rescue
Note
Se viene visualizzato il messaggio di errore "Impossibile smontare /rescue", aggiungere l'opzione
-l
alumount
comando,umount -l /rescue
ad esempio .
Scollegare il disco dalla macchina virtuale di ripristino ed eseguire uno scambio del disco con la macchina virtuale originale.
Avviare la macchina virtuale originale e controllarne la connettività.
Uso della stessa immagine LVM
Note
Se è necessario distribuire la macchina virtuale di ripristino usando la stessa immagine LVM, è necessario modificare alcuni aspetti della macchina virtuale di salvataggio con LVM.
I comandi seguenti devono essere eseguiti nella macchina virtuale di ripristino/ripristino creata temporaneamente per l'operazione di ripristino.
Usare il comando seguente per controllare lo stato dei dischi prima di collegare il disco da salvare:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─rootvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rootvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rootvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rootvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rootvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rootvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt
Collegare il disco da salvare come unità dati.
Controllare di nuovo i dischi usando il comando seguente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─rootvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rootvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rootvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rootvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rootvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rootvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt sdc ├─sdc1 vfat 93DA-8C20 ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sdc3 └─sdc4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU
L'output del comando non mostra immediatamente le strutture LVM.
Visualizzare le partizioni LVM fisiche usando il comando seguente:
sudo pvs
Questo output mostra avvisi sui volumi fisici duplicati :This output shows warnings about duplicated physical volumes (PVS):
WARNING: Not using lvmetad because duplicate PVs were found. WARNING: Use multipath or vgimportclone to resolve duplicate PVs? WARNING: After duplicates are resolved, run "pvscan --cache" to enable lvmetad. WARNING: Not using device /dev/sdc4 for PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU. WARNING: PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU prefers device /dev/sda4 because device is used by LV. PV VG Fmt Attr PSize PFree /dev/sda4 rootvg lvm2 a-- <63.02g <38.02g
Usare il
vmimportclone
comando per importare rootvg dall'unità dati usando un altro nome.Questo comando modifica l'UUID del pv e lo attiva:
sudo vgimportclone -n rescuemevg /dev/sdc4
WARNING: Not using device /dev/sdc4 for PV <PV>. WARNING: PV pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU prefers device /dev/sda4 because device is used by LV.
sudo vgchange -a y rescuemevg
6 logical volume(s) in volume group "rescuemevg" now active
Verificare la modifica del nome usando il comando seguente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─rootvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rootvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rootvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rootvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rootvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rootvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt sdc ├─sdc1 vfat 93DA-8C20 ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rescuemevg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 ├─rescuemevg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d ├─rescuemevg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 ├─rescuemevg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 ├─rescuemevg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 └─rescuemevg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809
Rinominare rootvg della macchina virtuale di ripristino usando il comando seguente:
sudo vgrename rootvg oldvg
Volume group "rootvg" successfully renamed to "oldvg"
Controllare i dischi usando il comando seguente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─oldvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─oldvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─oldvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─oldvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─oldvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─oldvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt sdc ├─sdc1 vfat 93DA-8C20 ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rescuemevg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 ├─rescuemevg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d ├─rescuemevg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 ├─rescuemevg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 ├─rescuemevg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 └─rescuemevg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809
Montare il file system proveniente dall'unità dati.
Quando si usa
xfs
, specificare l'opzione-o nouuid
per evitare conflitti con gli UUID e montare i file system necessari per eseguire un chroot. Questa opzione non è disponibile neiext4
file system, quindi è necessario rimuoverla dai comandi in uno scenario di questo tipo:sudo mkdir /rescue sudo mount -o nouuid /dev/mapper/rescuemevg-rootlv /rescue sudo mount -o nouuid /dev/mapper/rescuemevg-homelv /rescue/home sudo mount -o nouuid /dev/mapper/rescuemevg-optlv /rescue/opt sudo mount -o nouuid /dev/mapper/rescuemevg-tmplv /rescue/tmp sudo mount -o nouuid /dev/mapper/rescuemevg-usrlv /rescue/usr sudo mount -o nouuid /dev/mapper/rescuemevg-varlv /rescue/var sudo mount -o nouuid /dev/sdc2 /rescue/boot sudo mount /dev/sdc1 /rescue/boot/efi sudo mount -t proc /proc /rescue/proc sudo mount -t sysfs /sys /rescue/sys sudo mount -o bind /dev /rescue/dev sudo mount -o bind /dev/pts /rescue/dev/pts sudo mount -o bind /run /rescue/run
Le partizioni /rescue/boot/ e /rescue/boot/efi potrebbero non trovarsi sempre in /dev/sdc2 o /dev/sdc1. Se si verifica un errore durante il tentativo di montare queste partizioni, controllare il file /rescue/etc/fstab per determinare i dispositivi corretti per le partizioni /boot e /boot/efi dal disco del sistema operativo interrotto. Eseguire quindi il
blkid
comando e confrontare l'UUID dal file /rescue/etc/fstab con l'output delblkid
comando per determinare il dispositivo corretto per il montaggio /rescue/boot/ e /rescue/boot/efi nella macchina virtuale di ripristino. Gli UUID duplicati possono essere visualizzati nell'output. In questo scenario, montare la partizione corrispondente alla lettera del dispositivo del passaggio 5. Nell'esempio di questa sezione la partizione corretta da montare è /dev/sdc. Lo sviluppo/sda rappresenta il sistema operativo attualmente in uso e deve essere ignorato.Verificare i montaggi usando il comando seguente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 /boot/efi ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─oldvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─oldvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─oldvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─oldvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─oldvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─oldvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 / sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 /mnt sdc ├─sdc1 vfat 93DA-8C20 /rescue/boot/efi ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /rescue/boot ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rescuemevg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /rescue/tmp ├─rescuemevg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /rescue/usr ├─rescuemevg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /rescue/opt ├─rescuemevg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /rescue/home ├─rescuemevg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /rescue/var └─rescuemevg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 /rescue
Usare chroot usando il comando seguente:
sudo chroot /rescue/
Verificare i montaggi "all'interno" dell'ambiente chroot usando il comando seguente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─oldvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 ├─oldvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d ├─oldvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 ├─oldvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 ├─oldvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 └─oldvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 sdc ├─sdc1 vfat 93DA-8C20 /boot/efi ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rescuemevg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rescuemevg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rescuemevg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rescuemevg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rescuemevg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rescuemevg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 /
Ora, rescuemevg-rootlv è quello montato su /.
Rinominare il gruppo di volumi (VG) per mantenerlo coerente usando il comando seguente. La ridenominazione del gruppo di disponibilità virtuale impedisce di riscontrare problemi durante la rigenerazione del disco initrd e l'avvio di nuovo del disco nella macchina virtuale originale.
sudo vgrename rescuemevg rootvg
Volume group "rescuemevg" successfully renamed to "rootvg"
Verificare la modifica usando il comando seguente:
sudo lsblk -f
NAME FSTYPE LABEL UUID MOUNTPOINT sda ├─sda1 vfat 93DA-8C20 ├─sda2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d ├─sda3 └─sda4 LVM2_member pdSI2Q-ZEzV-oT6P-R2JG-ZW3h-cmnf-iRN6pU ├─oldvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 ├─oldvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d ├─oldvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 ├─oldvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 ├─oldvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 └─oldvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 sdb └─sdb1 ext4 e72e7c2c-db27-4a73-a97e-01d63d21ccf8 sdc ├─sdc1 vfat 93DA-8C20 /boot/efi ├─sdc2 xfs d5da486e-fdfe-4ad8-bc01-aa72b91fd47d /boot ├─sdc3 └─sdc4 LVM2_member BbZsAT-5oOK-nITn-bHFW-IVyS-y0O3-93oDes ├─rootvg-tmplv xfs 9098eb05-0176-4997-8132-9152a7bef207 /tmp ├─rootvg-usrlv xfs 2f9ff36c-742d-4914-b463-d4152801b95d /usr ├─rootvg-optlv xfs aeacea8e-3663-4569-af25-c52357f8a0a3 /opt ├─rootvg-homelv xfs a79e43dc-7adc-41b4-b6e1-4e6b033b15c0 /home ├─rootvg-varlv xfs c7cb68e9-7865-4187-b3bd-e9a869779d86 /var └─rootvg-rootlv xfs d8dc4d62-ada5-4952-a0d9-1bce6cb6f809 /
Procedere con le attività necessarie per salvare il sistema operativo. Queste attività possono includere la rigenerazione di initramfs o la configurazione GRUB.
Uscire dall'ambiente chroot usando il comando seguente:
sudo exit
Smontare e scollegare il disco dati dalla macchina virtuale di ripristino ed eseguire uno scambio di dischi con la macchina virtuale originale usando i comandi seguenti:
umount /rescue/run/ umount /rescue/dev/pts/ umount /rescue/dev/ umount /rescue/sys/ umount /rescue/proc umount /rescue/boot/efi umount /rescue/boot umount /rescue/var umount /rescue/usr umount /rescue/tmp umount /rescue/opt umount /rescue/home umount /rescue
Avviare la macchina virtuale originale e verificarne la funzionalità.
Oracle 7.x
Arrestare o deallocare la macchina virtuale interessata.
Creare un'immagine di macchina virtuale di ripristino della stessa versione del sistema operativo, nello stesso gruppo di risorse (RSG) e nella stessa posizione usando un disco gestito.
Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.
Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di ripristino.
Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di ripristino.
Accedere alla macchina virtuale come utente radice usando il comando seguente:
sudo su -
Trovare il disco usando
dmesg
(il metodo usato per individuare il nuovo disco può variare). Nell'esempio seguente vienedmesg
usato per filtrare i dischi SCSI:dmesg | grep SCSI
L'output del comando è simile all'esempio seguente. In questo esempio il
/dev/sdc
disco è quello desiderato:[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Usare i comandi seguenti per accedere all'ambiente chroot:
mkdir /rescue mount -o nouuid /dev/sdc2 /rescue mount -o nouuid /dev/sdc1 /rescue/boot/ mount /dev/sdc15 /rescue/boot/efi mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Risolvere i problemi relativi all'ambiente chroot.
Usare i comandi seguenti per uscire dall'ambiente chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run umount /rescue/boot/efi umount /rescue/boot umount /rescue
Note
Se viene visualizzato il messaggio di errore "Impossibile smontare /rescue", aggiungere l'opzione
-l
alumount
comando,umount -l /rescue
ad esempio .
Scollegare il disco dalla macchina virtuale di ripristino ed eseguire uno scambio del disco con la macchina virtuale originale.
Avviare la macchina virtuale originale e controllarne la connettività.
SUSE-SLES 12 SP4, SUSE-SLES 12 SP4 per SAP && ## SUSE-SLES 15 SP1, SUSE-SLES 15 SP1 per SAP
Arrestare o deallocare la macchina virtuale interessata.
Creare un'immagine di macchina virtuale di ripristino della stessa versione del sistema operativo, nello stesso gruppo di risorse (RSG) e nella stessa posizione usando un disco gestito.
Usare il portale di Azure per creare uno snapshot del disco del sistema operativo della macchina virtuale interessata.
Creare un disco dallo snapshot del disco del sistema operativo e collegarlo alla macchina virtuale di ripristino.
Dopo aver creato il disco, risolvere i problemi relativi all'ambiente chroot nella macchina virtuale di ripristino.
Accedere alla macchina virtuale come utente radice usando il comando seguente:
sudo su -
Trovare il disco usando
dmesg
(il metodo usato per individuare il nuovo disco può variare). Nell'esempio seguente vienedmesg
usato per filtrare i dischi SCSI:dmesg | grep SCSI
L'output del comando è simile all'esempio seguente. In questo esempio il
/dev/sdc
disco è quello desiderato:[ 0.294784] SCSI subsystem initialized [ 0.573458] Block layer SCSI generic (bsg) driver version 0.4 loaded (major 252) [ 7.110271] sd 2:0:0:0: [sda] Attached SCSI disk [ 8.079653] sd 3:0:1:0: [sdb] Attached SCSI disk [ 1828.162306] sd 5:0:0:0: [sdc] Attached SCSI disk
Usare i comandi seguenti per accedere all'ambiente chroot:
mkdir /rescue mount -o nouuid /dev/sdc4 /rescue mount -o nouuid /dev/sdc3 /rescue/boot/ mount /dev/sdc2 /rescue/boot/efi mount -t proc /proc /rescue/proc mount -t sysfs /sys /rescue/sys mount -o bind /dev /rescue/dev mount -o bind /dev/pts /rescue/dev/pts mount -o bind /run /rescue/run chroot /rescue
Risolvere i problemi relativi all'ambiente chroot.
Usare i comandi seguenti per uscire dall'ambiente chroot:
exit umount /rescue/proc/ umount /rescue/sys/ umount /rescue/dev/pts umount /rescue/dev/ umount /rescue/run umount /rescue/boot/efi umount /rescue/boot umount /rescue
Note
Se viene visualizzato il messaggio di errore "Impossibile smontare /rescue", aggiungere l'opzione
-l
alumount
comando,umount -l /rescue
ad esempio .
Scollegare il disco dalla macchina virtuale di ripristino ed eseguire uno scambio del disco con la macchina virtuale originale.
Avviare la macchina virtuale originale e controllarne la connettività.
Operazioni successive
Contattaci per ricevere assistenza
In caso di domande o bisogno di assistenza, creare una richiesta di supporto tecnico oppure formula una domanda nel Supporto della community di Azure. È possibile anche inviare un feedback sul prodotto al feedback della community di Azure.