Estensione dell'archiviazione all'hub di Azure Stack
Questo articolo fornisce informazioni sull'infrastruttura di archiviazione dell'hub di Azure Stack per decidere come integrare l'hub di Azure Stack nell'ambiente di rete esistente. Dopo aver fornito una discussione generale sull'estensione del data center, l'articolo presenta due scenari diversi. È possibile connettersi a un server di archiviazione file di Windows. È anche possibile connettersi a un server iSCSI Windows.
Panoramica dell'estensione dell'archiviazione all'hub di Azure Stack
Esistono scenari in cui i dati si trovano nel cloud pubblico non sono sufficienti. È possibile che si disponga di un carico di lavoro di database virtualizzato a elevato utilizzo di calcolo, sensibile alle latenze e che il tempo di round trip nel cloud pubblico potrebbe influire sulle prestazioni del carico di lavoro del database. Ad esempio, sono presenti dati in locale, mantenuti in un file server, in un array di archiviazione NAS o iSCSI, a cui è necessario accedere dai carichi di lavoro locali e deve risiedere in locale per soddisfare gli obiettivi normativi o di conformità. Questi sono solo due degli scenari in cui i dati risiedono in locale, rimangono importanti per molte organizzazioni.
Quindi, perché non solo ospitare i dati negli account di archiviazione nell'hub di Azure Stack o all'interno di file server virtualizzati, in esecuzione nel sistema dell'hub di Azure Stack? A differenza di Azure, l'archiviazione dell'hub di Azure Stack è limitata. La capacità disponibile per l'utilizzo dipende interamente dalla capacità per nodo che si è scelto di acquistare, oltre al numero di nodi disponibili. Poiché l'hub di Azure Stack è una soluzione iperconvergente, se si vuole aumentare la capacità di archiviazione per soddisfare le esigenze di utilizzo, è anche necessario aumentare il footprint di calcolo tramite l'aggiunta di nodi. Questo può essere potenzialmente costoso, soprattutto se la necessità di capacità aggiuntiva è per l'archiviazione ad accesso sporadico e archiviazione che potrebbe essere aggiunta per un costo basso al di fuori del sistema hub di Azure Stack.
Che porta allo scenario che verrà illustrato di seguito. Come connettere i sistemi dell'hub di Azure Stack, i carichi di lavoro virtualizzati in esecuzione nell'hub di Azure Stack, in modo semplice ed efficiente, ai sistemi di archiviazione all'esterno dell'hub di Azure Stack, accessibili tramite la rete.
Progettare per estendere l'archiviazione
Il diagramma illustra uno scenario in cui una singola macchina virtuale, che esegue un carico di lavoro, si connette e usa l'archiviazione esterna (alla macchina virtuale e all'hub di Azure Stack), ai fini della lettura/scrittura dei dati e così via. Per questo articolo si concentrerà sul recupero semplice dei file, ma è possibile espandere questo esempio per scenari più complessi, ad esempio l'archiviazione remota dei file di database.
Nel diagramma si noterà che la macchina virtuale nel sistema hub di Azure Stack è stata distribuita con più schede di interfaccia di rete. Sia da una ridondanza che da una procedura consigliata di archiviazione, è importante avere più percorsi tra destinazione e destinazione. Dove le cose diventano più complesse, le macchine virtuali nell'hub di Azure Stack hanno indirizzi IP pubblici e privati, proprio come in Azure. Se l'archiviazione esterna necessaria per raggiungere la macchina virtuale, può farlo solo tramite l'INDIRIZZO IP pubblico, perché gli INDIRIZZI IP privati vengono usati principalmente nei sistemi dell'hub di Azure Stack, all'interno delle reti virtuali e delle subnet. L'archiviazione esterna non sarà in grado di comunicare con lo spazio IP privato della macchina virtuale, a meno che non passi attraverso una VPN da sito a sito, per accedere alla rete virtuale stessa. Quindi, per questo esempio, ci concentreremo sulla comunicazione tramite lo spazio IP pubblico. Un aspetto da notare con lo spazio IP pubblico nel diagramma è che ci sono 2 diverse subnet del pool di indirizzi IP pubblici. Per impostazione predefinita, l'hub di Azure Stack richiede solo un pool a scopo di indirizzo IP pubblico, ma un aspetto da considerare, per il routing ridondante, può essere quello di aggiungere un secondo. Tuttavia, in questo momento, non è possibile selezionare un indirizzo IP da un pool specifico, quindi è possibile che le macchine virtuali con INDIRIZZI IP pubblici dallo stesso pool vengano effettivamente selezionate in più schede di rete virtuale.
Ai fini di questa discussione, si presuppone che il routing tra i dispositivi border e l'archiviazione esterna venga gestito e che il traffico possa attraversare la rete in modo appropriato. Per questo esempio, non importa se il backbone è 1GbE, 10GbE, 25 GbE o ancora più veloce, tuttavia questo aspetto è importante considerare quando si pianifica l'integrazione, per soddisfare le esigenze di prestazioni di qualsiasi applicazione che accede a questa risorsa di archiviazione esterna.
Connettersi a una destinazione iSCSI di Windows Server
In questo scenario verrà distribuita e configurata una macchina virtuale Windows Server 2019 nell'hub di Azure Stack e la si preparerà per connettersi a una destinazione iSCSI esterna, che eseguirà anche Windows Server 2019. Se appropriato, si abiliteranno funzionalità chiave, ad esempio MPIO, per ottimizzare le prestazioni e la connettività tra la macchina virtuale e l'archiviazione esterna.
Distribuire la macchina virtuale Windows Server 2019 nell'hub di Azure Stack
Dal portale di amministrazione dell'hub di Azure Stack, presupponendo che questo sistema sia stato registrato correttamente e sia connesso al marketplace, selezionare Gestione marketplace, quindi, supponendo che non si abbia già un'immagine di Windows Server 2019, selezionare Aggiungi da Azure e quindi cercare Windows Server 2019, aggiungendo l'immagine windows Server 2019 Datacenter.
Il download di un'immagine di Windows Server 2019 potrebbe richiedere del tempo.
Dopo aver creato un'immagine di Windows Server 2019 nell'ambiente dell'hub di Azure Stack, accedere al portale utenti dell'hub di Azure Stack.
Dopo aver eseguito l'accesso al portale utenti dell'hub di Azure Stack, assicurarsi di avere una sottoscrizione a un'offerta, che consente di effettuare il provisioning delle risorse IaaS (calcolo, archiviazione e rete).
Dopo aver disponibile una sottoscrizione, tornare al dashboard nel portale utenti dell'hub di Azure Stack, selezionare Crea una risorsa, selezionare Calcolo e quindi selezionare l'elemento della raccolta Windows Server 2019 Datacenter.
Nel pannello Informazioni di base completare le informazioni come indicato di seguito:
a. Nome: VM001
b. Nome utente: localadmin
c. Password e Conferma password: <password preferita>
d. Sottoscrizione: <sottoscrizione a scelta, con risorse di calcolo/archiviazione/rete>.
e. Gruppo di risorse: storagetesting (crea nuovo)
f. Selezionare OK
Nel pannello Scegli una dimensione selezionare un Standard_F8s_v2 e selezionare Seleziona.
Nel pannello Impostazioni selezionare la rete virtuale e nel pannello Crea rete virtuale modificare lo spazio degli indirizzi in modo che sia 10.10.10.0/23 e aggiornare l'intervallo di indirizzi subnet in modo che sia 10.10.10.0/24 e quindi selezionare OK.
Selezionare l'indirizzo IP pubblico e nel pannello Crea indirizzo IP pubblico selezionare il pulsante di opzione Statico.
Nell'elenco a discesa Seleziona porte in ingresso pubbliche selezionare RDP (3389).
Lasciare le altre impostazioni predefinite e selezionare OK.
Leggere il riepilogo, attendere la convalida, quindi selezionare OK per avviare la distribuzione. La distribuzione dovrebbe essere completata in circa 10 minuti.
Al termine della distribuzione, in Risorsa selezionare il nome della macchina virtuale VM001 per aprire Panoramica.
In Nome DNS selezionare Configura e specificare un'etichetta del nome DNS, vm001 e selezionare Salva, quindi selezionare VM001.
Sul lato destro del pannello panoramica selezionare storagetesting-vnet/default nel testo Rete virtuale/subnet.
Nel pannello storagetesting-vnet selezionare Subnet e quindi +Subnet, quindi nel nuovo pannello Aggiungi subnet immettere le informazioni seguenti, quindi selezionare OK:
a. Nome: subnet2
b. Intervallo di indirizzi (blocco CIDR): 10.10.11.0/24
c. Gruppo di sicurezza di rete: Nessuno
d. Tabella di route: Nessuno
Dopo il salvataggio, selezionare VM001.
Nel lato sinistro del pannello panoramica selezionare Rete.
Selezionare Attach network interface (Collega interfaccia di rete) e quindi selezionare Create network interface (Crea interfaccia di rete).
Nel pannello Crea interfaccia di rete immettere le informazioni seguenti.
a. Nome: vm001nic2
b. Subnet: verificare che la subnet sia 10.10.11.0/24
c. Gruppo di sicurezza di rete: VM001-nsg
d. Gruppo di risorse: storagetesting
Dopo aver collegato correttamente, selezionare VM001 e selezionare Arresta per arrestare la macchina virtuale.
Dopo aver arrestato la macchina virtuale (deallocata), sul lato sinistro del pannello panoramica selezionare Rete, selezionare Collega interfaccia di rete e quindi selezionare vm001nic2, quindi selezionare OK. La scheda di interfaccia di rete aggiuntiva verrà aggiunta alla macchina virtuale in pochi istanti.
Sempre nel pannello Rete selezionare la scheda vm001nic2 e quindi selezionare Interfaccia di rete:vm001nic2.
Nel pannello dell'interfaccia vm001nic selezionare Configurazioni IP e nel centro del pannello selezionare ipconfig1.
Nel pannello delle impostazioni di ipconfig1 selezionare Abilitato per Indirizzo IP pubblico e selezionare Configura le impostazioni necessarie, Crea nuovo e immettere vm001nic2pip per il nome, selezionare Statico e selezionare OK e quindi Salva.
Dopo il salvataggio, tornare al pannello panoramica di VM001 e selezionare Avvia per avviare la macchina virtuale Windows Server 2019 configurata.
Dopo l'avvio, stabilire una sessione RDP in VM001.
Dopo la connessione all'interno della macchina virtuale, aprire CMD (come amministratore) e immettere il nome host per recuperare il nome del computer del sistema operativo. Deve corrispondere a VM001. Prendere nota di questa operazione per un secondo momento.
Configurare la seconda scheda di rete nella macchina virtuale Windows Server 2019 nell'hub di Azure Stack
Per impostazione predefinita, l'hub di Azure Stack assegna un gateway predefinito alla prima interfaccia di rete (primaria) collegata alla macchina virtuale. L'hub di Azure Stack non assegna un gateway predefinito a interfacce di rete aggiuntive (secondarie) collegate a una macchina virtuale. Di conseguenza, per impostazione predefinita, non è possibile comunicare con risorse esterne alla subnet in cui si trova un'interfaccia di rete secondaria. Le interfacce di rete secondarie possono tuttavia comunicare con risorse esterne alla subnet, ma i passaggi per abilitare la comunicazione variano a seconda del sistema operativo.
Se non è già aperta una connessione, stabilire una connessione RDP in VM001.
Aprire CMD come amministratore ed eseguire la stampa della route che deve restituire le due interfacce (schede di rete Hyper-V) all'interno della macchina virtuale.
Eseguire ora ipconfig per vedere quale indirizzo IP è assegnato all'interfaccia di rete secondaria. In questo esempio 10.10.11.4 viene assegnato all'interfaccia 6. Per l'interfaccia di rete secondaria non viene restituito alcun indirizzo di gateway predefinito.
Per instradare tutto il traffico destinato a indirizzi esterni alla subnet dell'interfaccia di rete secondaria al gateway per la subnet, eseguire il comando seguente da CMD:.
route add -p 0.0.0.0 MASK 0.0.0.0 <ipaddress> METRIC 5015 IF <interface>
<ipaddress>
è l'indirizzo .1 della subnet corrente ed<interface>
è il numero di interfaccia.Per verificare che la route aggiunta sia presente nella tabella di route, immettere il comando di stampa della route.
È anche possibile convalidare la comunicazione in uscita eseguendo un comando ping:
ping 8.8.8.8 -S 10.10.11.4
Il-S
flag consente di specificare un indirizzo di origine, in questo caso 10.10.11.4 è l'indirizzo IP della scheda di interfaccia di rete che ha ora un gateway predefinito.Chiudere CMD.
Configurare la destinazione iSCSI di Windows Server 2019
Ai fini di questo scenario, si convalida una configurazione in cui la destinazione iSCSI di Windows Server 2019 è una macchina virtuale in esecuzione in Hyper-V, all'esterno dell'ambiente dell'hub di Azure Stack. Questa macchina virtuale verrà configurata con otto processori virtuali, un singolo file VHDX e, soprattutto, due schede di rete virtuale. In uno scenario ideale, queste schede di rete avranno subnet instradabili diverse, ma in questa convalida avranno schede di rete nella stessa subnet.
Per il server di destinazione iSCSI, potrebbe trattarsi di Windows Server 2016 o 2019, fisico o virtuale, in esecuzione in Hyper-V, VMware o in un'appliance alternativa di propria scelta, ad esempio una SAN iSCSI fisica dedicata. L'obiettivo principale in questo caso è la connettività all'interno e all'esterno del sistema hub di Azure Stack, ma la presenza di più percorsi tra l'origine e la destinazione è preferibile, poiché offre ridondanza aggiuntiva e consente l'uso di funzionalità più avanzate per migliorare le prestazioni, ad esempio MPIO.
Ti consigliamo di aggiornare la destinazione iSCSI di Windows Server 2019 con gli aggiornamenti cumulativi e le correzioni più recenti, riavviando, se necessario, prima di procedere con la configurazione delle condivisioni file.
Dopo l'aggiornamento e il riavvio, è ora possibile configurare questo server come destinazione iSCSI.
Aprire Server Manager e selezionare Gestisci, quindi Aggiungi ruoli e funzionalità.
Dopo l'apertura, selezionare Avanti, selezionare Installazione basata su ruoli o basata su funzionalità e continuare le selezioni fino a raggiungere la pagina Seleziona ruoli del server.
Espandere Servizi file e archiviazione, espandere Servizi file e iSCSI e selezionare la casella Server di destinazione iSCSI, accettando eventuali richieste popup per aggiungere nuove funzionalità, quindi procedere fino al completamento.
Al termine, chiudere Server Manager.
Aprire Esplora file, passare a C:\ e creare una nuova cartella denominata iSCSI.
Riapri Server Manager e seleziona Servizi file e archiviazione dal menu a sinistra.
Selezionare iSCSI e selezionare il collegamento "Per creare un disco virtuale iSCSI, avviare la Creazione guidata nuovo disco virtuale iSCSI" nel riquadro destro. selezionarlo. Viene visualizzata una procedura guidata.
Nella pagina Selezione percorso disco virtuale iSCSI selezionare il pulsante di opzione Digitare un percorso personalizzato e passare a C:\iSCSI e selezionare Avanti.
Assegnare al disco virtuale iSCSI un nome iSCSIdisk1 e, facoltativamente, una descrizione e quindi selezionare Avanti.
Impostare le dimensioni del disco virtuale su 10 GB e selezionare Dimensioni fisse e selezionare Avanti.
Poiché si tratta di una nuova destinazione, selezionare Nuova destinazione iSCSI e selezionare Avanti.
Nella pagina Specifica nome destinazione immettere TARGET1 e selezionare Avanti.
Nella pagina Specificare i server di accesso selezionare Aggiungi. Verrà visualizzata una finestra di dialogo per immettere iniziatori specifici che saranno autorizzati a connettersi alla destinazione iSCSI.
Nella finestra Aggiungi ID iniziatore selezionare Immettere un valore per il tipo selezionato e in Tipo verificare che IQN sia selezionato nel menu a discesa. Immettere iqn.1991-05.com.microsoft:<computername> dove <nomecomputer> è il nome computer di VM001 e quindi selezionare Avanti.
Nella pagina Abilita autenticazione lasciare vuote le caselle e quindi selezionare Avanti.
Confermare le selezioni e selezionare Crea, quindi chiudere. Verrà visualizzato il disco virtuale iSCSI creato in Server Manager.
Configurare l'iniziatore iSCSI di Windows Server 2019 e MPIO
Per configurare l'iniziatore iSCSI, accedere di nuovo al portale utenti dell'hub di Azure Stack nel sistema hub di Azure Stack e passare al pannello di panoramica per VM001.
Stabilire una connessione RDP a VM001. Dopo la connessione, aprire Server Manager.
Selezionare Aggiungi ruoli e funzionalità e accettare le impostazioni predefinite fino a raggiungere la pagina Funzionalità .
Nella pagina Funzionalità aggiungere l'I/O multipath e selezionare Avanti.
Selezionare la casella Riavvia automaticamente il server di destinazione se necessario e selezionare Installa, quindi selezionare Chiudi. Un riavvio sarà probabilmente necessario, quindi una volta completato, riconnettersi a VM001.
Tornare in Server Manager, attendere il completamento dell'installazione di MPIO, selezionare Chiudi, quindi selezionare Strumenti e selezionare MPIO.
Selezionare la scheda Individua percorsi multipli e selezionare la casella Aggiungi supporto per i dispositivi iSCSI e selezionare Aggiungi, quindi selezionare Sì per riavviare VM001. Se non si riceve una finestra, selezionare OK, quindi riavviare manualmente.
Dopo il riavvio, stabilire una nuova connessione RDP a VM001.
Dopo la connessione, aprire Server Manager, selezionare Strumenti e selezionare Iniziatore iSCSI.
Quando viene visualizzata una finestra Microsoft iSCSI, selezionare Sì per consentire l'esecuzione del servizio iSCSI per impostazione predefinita.
Nella finestra proprietà iniziatore iSCSI selezionare la scheda Individuazione .
Ora si aggiungeranno 2 destinazioni, quindi selezionare prima il pulsante Individua portale .
Immettere il primo indirizzo IP del server di destinazione iSCSI e selezionare Avanzate.
Nella finestra Impostazioni avanzate selezionare quanto segue, quindi selezionare OK.
a. Adattatore locale: Iniziatore iSCSI Microsoft.
b. IP iniziatore: 10.10.10.4.
Nella finestra Individua portale di destinazione selezionare OK.
Ripetere il processo con quanto segue:
a. Indirizzo IP: il secondo indirizzo IP di destinazione iSCSI.
b. Adattatore locale: Iniziatore iSCSI Microsoft.
c. IP iniziatore: 10.10.11.4.
I portali di destinazione dovrebbero avere un aspetto simile al seguente, con indirizzi IP di destinazione iSCSI personalizzati nella colonna Indirizzo .
Nella scheda Destinazioni selezionare la destinazione iSCSI nella parte centrale della finestra e selezionare Connetti.
Nella finestra Connetti alla destinazione selezionare la casella di controllo Abilita percorso multipla e selezionare Avanzate.
Immettere le informazioni seguenti e selezionare OK, quindi nella finestra Connetti alla destinazione selezionare OK.
a. Adattatore locale: Iniziatore iSCSI Microsoft.
b. IP iniziatore: 10.10.10.4.
c. IP del portale di destinazione: <il primo IP di destinazione iSCSI/ 3260>.
Ripetere il processo per la seconda combinazione di iniziatori/destinazione.
a. Adattatore locale: Iniziatore iSCSI Microsoft.
b. IP iniziatore: 10.10.11.4.
c. IP del portale di destinazione: <il secondo indirizzo IP di destinazione iSCSI/ 3260>.
Selezionare la scheda Volumi e dispositivi e quindi selezionare Configurazione automatica. Verrà visualizzato un volume MPIO presentato:
Nella scheda Destinazioni selezionare Dispositivi e verranno visualizzate 2 connessioni al singolo disco rigido virtuale iSCSI creato in precedenza.
Selezionare il pulsante MPIO per visualizzare altre informazioni sui criteri e i percorsi di bilanciamento del carico.
Selezionare OK tre volte per uscire dalle finestre e dall'iniziatore iSCSI.
Aprire Gestione disco (diskmgmt.msc) e verrà visualizzata una finestra Inizializza disco .
Selezionare OK per accettare le impostazioni predefinite, quindi scorrere verso il basso fino al nuovo disco, fare clic con il pulsante destro del mouse e selezionare Nuovo volume semplice
Esaminare la procedura guidata, accettando le impostazioni predefinite. Modificare l'etichetta Volume in iSCSIdisk1 e quindi selezionare Fine.
L'unità deve quindi essere formattata e presentata con una lettera di unità.
Aprire Esplora file e selezionare Questo PC per visualizzare la nuova unità collegata a VM001.
Test della connettività di archiviazione esterna
Per convalidare la comunicazione ed eseguire un test di copia di file rudimentale, accedere nuovamente al portale utenti dell'hub di Azure Stack nel sistema hub di Azure Stack e passare al pannello di panoramica per VM001
Selezionare Connetti per stabilire una connessione RDP in VM001
Aprire Gestione attività selezionare la scheda Prestazioni e quindi bloccare la finestra sul lato destro della sessione RDP.
Aprire Windows PowerShell ISE come amministratore e bloccarlo sul lato sinistro della sessione RDP. Sul lato destro dell'ISE chiudere il riquadro Comandi e selezionare il pulsante Script per espandere il riquadro script bianco nella parte superiore della finestra ISE.
In questa macchina virtuale non sono disponibili moduli nativi di PowerShell per creare un disco rigido virtuale, che verrà usato come file di grandi dimensioni per testare il trasferimento del file nella destinazione iSCSI. In questo caso, si eseguirà DiskPart per creare un file VHD. Nell'ISE eseguire quanto segue:
Start-Process Diskpart
Verrà aperta una nuova finestra CMD e quindi immettere:
**Create vdisk file="c:\\test.vhd" type=fixed maximum=5120**
- La creazione richiederà alcuni istanti. Dopo la creazione, per convalidare la creazione, aprire Esplora file e passare a C:\ . Verrà visualizzato il nuovo test.vhd presente e una dimensione di 5 GB.
Chiudere la finestra CMD e tornare all'ISE, quindi immettere il comando seguente nella finestra script. Sostituire F:\ con la lettera di unità di destinazione iSCSI applicata in precedenza.
Copy-Item "C:\\test.vhd" -Destination "F:\\"
Selezionare la riga nella finestra dello script e premere F8 per l'esecuzione.
Mentre il comando è in esecuzione, osservare le due schede di rete e visualizzare il trasferimento dei dati in entrambe le schede di rete in VM001. È inoltre consigliabile notare che ogni scheda di rete deve condividere il carico in modo uniforme.
Questo scenario è stato progettato per evidenziare la connettività tra un carico di lavoro in esecuzione nell'hub di Azure Stack e un array di archiviazione esterno, in questo caso, una destinazione iSCSI basata su Windows Server. Questo non è stato progettato per essere un test delle prestazioni, né riflettere i passaggi da eseguire se si usasse un'appliance alternativa basata su iSCSI, ma evidenzia alcune delle considerazioni di base da tenere in considerazione durante la distribuzione dei carichi di lavoro nell'hub di Azure Stack e la connessione ai sistemi di archiviazione all'esterno dell'ambiente dell'hub di Azure Stack.
Passaggi successivi
Differenze e considerazioni per la rete dell'hub di Azure Stack