Hyper-V: configurazione di rete e Live Migration
Tra le domande che mi vengono poste più frequentemente quando parlo di Hyper-V ci sono quelle relative alla configurazione di rete nel caso di uso della Live Migration : qual’è la “migliore”, la “minima”, la consigliata, ecc…
Vi ricordo che per poter implementare la Live Migration servono
- almeno due host di virtualizzazione
- uno storage condiviso (Fiber Channel o iSCSI)
- il servizio di Failover Clustering di Windows Server 2008 R2 .
In questo breve post cerco di fornire alcune informazioni che penso possano essere utili, ma che NON sono ovviamente applicabili “as is” in tutti i casi e le situazioni e NON pretendono di essere esaustive.
Brevemente possiamo dire che in caso di host di virtualizzazione configurati per l’alta disponibilità e la Live Migration, usando il servizio di Failover Clustering, la raccomandazione è usare almeno 4 schede di rete (NIC):
- Almeno 1 NIC per il traffico da e per le VM
- 1 NIC per la gestione dell’host
- 1 NIC per la Live Migration
- 1 NIC per il servizio di Failover Clustering
Ci sono molte situazione dove quattro schede di rete non sono disponibili (es. ambienti di prova, hardware già acquistato, piccole configurazioni, …).
In questi casi possiamo usare solo due NIC e poi VLAN e QoS (Quality of Service) per isolare i diversi tipi di traffico e garantire la banda ai diversi servizi. Diciamo subito una cosa importante relativa al QoS: se si configura il QoS da Windows e si usa TCP Chimney le configurazioni QoS saranno perse (QoS applicato livello SW, pacchetti gestiti a livello HW).
Prima di analizzare alcune soluzioni supportate possibili vediamo i tipi di rete che possiamo avere in un cluster di host di virtualizzazione:
- Accesso allo storage: se si usa FC il traffico su questa rete è irrilevante (per gli scopi di questo post). Se si usa iSCSI, dobbiamo invece considerarlo: traffico ad alto uso di banda e sensibile alla latenza. Si consiglia una rete privata ( =confinata nel datacenter) e dedicata ( =non usata per altro traffico) . Il consiglio è consultare il fornitore del vostro storage.
- Management: questo tipo rete serve per la gestione degli host di virtualizzazione. Usa tipicamente poca banda, la latenza non è importante. Per questo tipo di traffico la rete deve essere pubblica ( =accessibile dall’esterno del datacenter) e non necessariamente dedicata.
- Cluster: la rete di cluster è usata per due diversi motivi: comunicazione tra i nodi del cluster per assicurarsi della salute dei vari nodi e da CSV (Cluster Shared Volume) per inviare i metadati dei file al coordinator node. Un ulteriore uso, legato sempre a CSV, è per la gestione del traffico rediretto di accesso allo storage nel caso un nodo del cluster perda l’accesso diretto alla rete di storage. Durante il normale funzionamento il traffico che interessa questa rete è a basso uso di banda e altamente sensibile alla latenza. In caso di traffico rediretto per lo storage il traffico può diventare ad alto uso di banda. La rete deve essere di tipo privato.
- Live Migration: questa rete è usata per trasferire le pagine di memoria e lo stato delle VMs durante le operazioni di spostamento a caldo di queste ultime tra nodi diversi del cluster. Si tratta quindi di traffico che richiede occasionalmente, durante le migrazioni, un elevato uso di banda e che è molto sensibile alla latenza. La rete deve essere di tipo privato.
Dando per scontata la disponibilità di una rete dedicata allo storage (iSCSI o FC che sia) vediamo alcune configurazioni possibili e supportate.
Host con 2 schede di rete (NIC1 e NIC2) da 1Gbps
Malgrado questa configurazione sia non raccomandata, si tratta di una delle più diffuse specialmente in ambienti di test.
In questo caso è possibile implementare la seguente configurazione:
- NIC1 usata per creare una rete pubblica condivisa tra VM e gestione con il traffico di management limitato al 10% della banda usando QoS (regola QoS per gli IP da cui si effettua la gestione)
- NIC2 usata per il traffico Cluster/CSV (rete privata) e Live Migration con il traffico di Live Migration limitato al 90% di banda (regola QoS per il traffico verso la porta 6600 usata dalla Live Migration)
Host con 3 schede di rete (NIC1, NIC2, NIC3) da 1Gbps
Se le schede supportano il teaming è possibile in questo caso mettere in team (per link aggregation e fault tolerance) NIC2 e NIC3 (NICt) e creare la seguente configurazione:
- NIC1 usata per creare una rete pubblica condivisa tra VM e gestione con il traffico di management limitato al 10% della banda usando QoS (regola QoS per gli IP da cui si effettua la gestione)
- NICt usata per la rete privata su cui viaggia il traffico Cluster/CSV e Live Migration con il traffico di Live Migration limitato al 40% di banda (regola QoS per il traffico verso la porta 6600 usata dalla Live Migration)
Se le schede di rete non supportano il teaming, o non si desidera usare questa funzionalità, è possibile implementare questa configurazione:
- NIC1 usata per creare una rete pubblica condivisa tra VM e gestione con il traffico di management limitato al 10% della banda usando QoS (regola QoS per gli IP da cui si effettua la gestione)
- NIC2 usata per creare una rete privata dedicata al traffico del Cluster
- NIC3 usata per creare una rete privata dedicata alla Live Migration
Host con 4 schede di (NIC1, NIC2, NIC3, NIC4) da1Gbps
Questa è la configurazione preferenziale e le schede possono essere usate come di seguito
- NIC1 usata per creare una rete pubblica per il traffico delle VM
- NIC2 usata per gestire il traffico di management
- NIC3 usata per creare una rete privata dedicata al traffico del Cluster
- NIC4 usata per creare una rete privata dedicata alla Live Migration
Host con 2 schede di rete (NIC1 e NIC2) da 10Gbps
Iniziano ormai a diffondersi infrastrutture di rete a 10Gbps.
In questo caso è possibile implementare la seguente configurazione:
- NIC1 usata per creare una rete pubblica condivisa tra VM e gestione con il traffico di management limitato al 1% della banda usando QoS (regola QoS per gli IP da cui si effettua la gestione)
- NIC2 usata per il traffico Cluster/CSV (rete privata) e Live Migration con il traffico di Live Migration limitato al 50% di banda (regola QoS per il traffico verso la porta 6600 usata dalla Live Migration)
Direi che queste sono le basi da cui partire per pianificare le configurazioni di rete specifiche per ogni situazione.
Buona giornata e buona settimana a tutti
Giorgio
Technorati Tags: Microsoft,Virtualization,Hyper-V,Networking