Prospettiva del Well-Architected Framework sul Azure Load Balancer
Il processo di bilanciamento del carico distribuisce il traffico di rete a un gruppo di due o più server back-end. Azure Load Balancer è un servizio nativo di Azure che esegue il bilanciamento del carico di livello 4 per UDP (User Datagram Protocol) e Transmission Control Protocol (TCP). Load Balancer consente di offrire bassa latenza e disponibilità elevata per le distribuzioni internazionali e globali.
Questo articolo presuppone che in qualità di architetto siano state esaminate le opzioni di bilanciamento del carico in Azure e si sceglie Load Balancer per il carico di lavoro. Le linee guida contenute in questo articolo forniscono raccomandazioni sull'architettura mappate ai principi dei pilastri di Well-Architected Framework.
Importante
Come usare questa guida
Ogni sezione include un elenco di controllo di progettazione che presenta aree di interesse per l'architettura insieme alle strategie di progettazione adattate all'ambito tecnologico.
Sono incluse anche raccomandazioni per le funzionalità tecnologiche che possono aiutare a materializzare tali strategie. Le raccomandazioni non rappresentano un elenco completo di tutte le configurazioni disponibili per Load Balancer e le relative dipendenze. Vengono invece elencate le raccomandazioni principali mappate alle prospettive di progettazione. Usa le raccomandazioni per costruire una prova del concetto o per ottimizzare gli ambienti esistenti.
Architettura di base che illustra le raccomandazioni principali:
architettura di base delle macchine virtuali di Azure.
ambito della tecnologia
Questa revisione è incentrata sulle decisioni correlate per le risorse di Azure seguenti:
- Bilanciatore di carico
Questa guida è incentrata sullo SKU di Load Balancer Standard. Gli SKU di bilanciamento del carico di base e del gateway non rientrano nell'ambito di questo articolo.
Nota
Per le applicazioni HTTP, prendere in considerazione Azure Application Gateway o Azure Front Door anziché Load Balancer. Queste alternative gestiscono il bilanciamento del carico e forniscono anche funzionalità come web application firewall (WAF) e terminazione TLS (Transport Layer Security).
Per altre informazioni, vedere:
- prospettiva di Well-Architected Framework in Frontdoor di Azure
- prospettiva del Well-Architected Framework sul gateway delle applicazioni di Azure
Affidabilità
Lo scopo del pilastro Affidabilità è fornire funzionalità continue tramite la creazione di sufficiente resilienza e la possibilità di recuperare rapidamente dagli errori.
principi di progettazione dell'affidabilità forniscono una strategia di progettazione di alto livello applicata per singoli componenti, flussi di sistema e sistema nel suo complesso.
Elenco di controllo per la progettazione
Avvia la strategia di progettazione in base alla checklist di revisione del design per l'Affidabilità. Determinare la rilevanza per i requisiti aziendali tenendo presenti i livelli e le funzionalità delle macchine virtuali. Estendere la strategia per includere altri approcci in base alle esigenze.
Comprendere l'impatto delle garanzie supportate da Microsoft. Oltre ad altri componenti nell'architettura, considerare i contratti di servizio (SLA) nell'obiettivo di affidabilità del carico di lavoro. Tenere presente questi punti importanti:
Se l'endpoint con carico bilanciato non riesce a connettersi a tutti i server back-end integri per un intero minuto, tale minuto viene considerato non disponibile. Tuttavia, se almeno una richiesta ha esito positivo entro lo stesso minuto, anche se altri hanno esito negativo, tale minuto non viene considerato tempo di inattività.
Il tempo di inattività non include i minuti causati dall'esaurimento delle porte SNAT (Source Network Address Translation). Assicurarsi di configurare il carico di lavoro per gestire il numero previsto di connessioni e aprire le porte di conseguenza.
Supportare la ridondanza della zona nell'architettura del carico di lavoro. È consigliabile usare lo SKU Load Balancer Standard. Offre funzionalità di affidabilità, ad esempio il supporto della zona di disponibilità, la distribuzione del traffico tra più aree e la possibilità di gestire più istanze nel pool back-end. Queste funzionalità consentono di resistere agli errori a livelli di istanza di zona, regionali e singole macchine virtuali. Tenere presente le limitazioni, come ad esempio la dimensione massima del pool di back-end.
Nota
In Load Balancer si gestisce il numero di macchine virtuali con carico bilanciato, ma non il numero di istanze di Load Balancer. È possibile configurare un'istanza di Load Balancer in modo che sia ridondante tra zone o collegarla a una zona se il carico di lavoro richiede di collocare le VM in una singola zona. La configurazione zonale o multizone dell'indirizzo IP front-end determina la ridondanza del bilanciamento del carico.
Supportare la ridondanza regionale nell'architettura del carico di lavoro. È possibile configurare Load Balancer come servizio di bilanciamento del carico globale. In questa configurazione Load Balancer ha un indirizzo IP pubblico anycast statico che trasmette a più aree. Quando i client richiedono questo indirizzo IP, le richieste passano all'istanza del server più vicina. Load Balancer si connette ai servizi di bilanciamento del carico a livello di area per distribuire il traffico in modo efficiente.
Valutare le modifiche nello stack di rete per supportare un ridimensionamento affidabile. Valutare la possibilità di aumentare il numero di istanze del pool back-end usando le regole di scalabilità automatica. Tenere presente il potenziale esaurimento delle porte SNAT per il traffico in uscita. Per risolvere questo problema, usare il gateway NAT di Azure per semplificare la configurazione, ma tenere presente che manca la ridondanza della zona di disponibilità. In alternativa, utilizzare un bilanciatore di carico per aggiungere ridondanza tra zone. Per altre informazioni, vedere Connessioni in uscita.
Attenuare i potenziali errori. Eseguire l'analisi della modalità di errore e identificare le mitigazioni. La tabella seguente illustra i tipi di errori e come attenuarli.
Fallimento Mitigazione Il traffico viene indirizzato alle istanze dell'applicazione malfunzionanti. Monitorare lo stato di salute dell'istanza di workload. Implementare probe di integrità HTTP che includono controlli per le dipendenze del carico di lavoro. Il traffico viene instradato verso una regione che è soggetta a un'interruzione. Distribuire istanze aggiuntive in un'altra regione. Aggiungere un servizio di bilanciamento del carico globale per reindirizzare il traffico alla nuova area. La base utente del carico di lavoro è stata espansa per supportare gli utenti in una nuova area e hanno una latenza elevata. L'applicazione ora riscontra un numero elevato di timeout ed errori. Distribuire istanze aggiuntive in una nuova area e aggiungerle nella configurazione del servizio. Come servizio di bilanciamento del carico globale, Azure Load Balancer instrada il traffico più vicino agli utenti. Instradare il traffico alle istanze integre. È possibile usare HTTP o TCP per le sonde di integrità. Per fornire risposte di stato più avanzate, è consigliabile creare un endpoint HTTP per i controlli di integrità, anche per le app non HTTP. Questo approccio è particolarmente utile per controllare le dipendenze e i database. Senza probe HTTP, il servizio di bilanciamento del carico si basa sulle connessioni TCP, che potrebbero non riflettere in modo accurato l'integrità delle macchine virtuali.
È possibile configurare il probe di monitoraggio dello stato su Load Balancer. Per ulteriori informazioni, vedere Linee guida sulla progettazione delle sonde di integrità.
Consigli
Raccomandazione | Beneficio |
---|---|
Selezionare lo SKU del Load Balancer Standard. Per altre informazioni, vedere confronto degli SKU . |
Questo SKU supporta funzionalità di affidabilità, ad esempio zone di disponibilità e bilanciamento del carico multiregion. |
Configurare regole per mappare l'indirizzo IP front-end agli indirizzi IP dei server back-end, abilitando il bilanciamento del carico. Il pool di indirizzi back-end deve avere almeno due endpoint per bilanciare il carico e garantire la ridondanza. |
Le regole sono il nucleo dell'algoritmo di bilanciamento del carico. Senza questa configurazione, le modalità di distribuzione sono disabilitate. |
Configurare sonde di integrità. - Impostare l'intervallo di probe e i valori di soglia. Considerare il compromesso tra la velocità di rilevamento degli errori e il numero di richieste all'endpoint. - Valuta se desideri inviare traffico alle istanze quando tutte le istanze hanno uno stato non sano. È possibile usare questa configurazione per implementare un'esperienza di riduzione delle prestazioni normale. Per altre informazioni, vedere AllProbedUp. |
Solo le istanze funzionanti del pool back-end ricevono nuove connessioni. Questa configurazione consente di mantenere alta disponibilità e affidabilità dirottando il traffico lontano da istanze non funzionanti. |
Configurare gli indirizzi IP privati e pubblici affinché siano ridondanti per la zona . L'indirizzo IP determina la ridondanza della zona di Load Balancer. | La ridondanza zonale consente al carico di lavoro di resistere ai guasti zonali. In caso di errore di una zona, i servizi possono eseguire il failover in una delle zone rimanenti. |
Sicurezza
Lo scopo del pilastro Sicurezza è fornire garanzie di riservatezza, integrità e disponibilità al carico di lavoro.
I principi di progettazione sicurezza forniscono una strategia di progettazione di alto livello per raggiungere tali obiettivi applicando approcci alla progettazione tecnica di Load Balancer.
Elenco di controllo per la progettazione
Avvia la tua strategia di progettazione in base alla checklist di revisione della progettazione per la sicurezza e identifica vulnerabilità e controlli per migliorare il profilo di sicurezza. Estendere la strategia per includere altri approcci in base alle esigenze.
Esaminare le baseline di sicurezza. Per migliorare il comportamento di sicurezza dell'applicazione con bilanciamento del carico da Parte di Azure Load Balancer, esaminare la baseline di sicurezza per Load Balancer.
Proteggere i server retrosistema. Distribuire le risorse in una rete virtuale che non ha un'esposizione diretta a Internet. Posizionare un servizio di bilanciamento del carico davanti alla rete virtuale. Idealmente, il servizio di bilanciamento del carico deve avere funzionalità del firewall. Per le applicazioni HTTP, considerare Azure Application Gateway o Azure Front Door. Per le applicazioni non HTTP, prendere in considerazione Load Balancer con un indirizzo IP privato (servizio di bilanciamento del carico interno) e instradare il traffico attraverso Firewall di Azure per una maggiore sicurezza. Per altre informazioni, vedere servizio di bilanciamento del carico interno.
È anche possibile usare Load Balancer come proxy inverso. In tal caso, il servizio di bilanciamento del carico ha un indirizzo IP pubblico con SNAT, che espone le risorse mascherando gli indirizzi IP.
Nota
Per filtrare il traffico verso server back-end, usare i gruppi di sicurezza di rete (NSG) nelle subnet che contengono il front-end e il back-end. Non applicare gli NSG direttamente al servizio Load Balancer. Quando i gruppi di sicurezza di rete applicano regole, considerano le porte di origine, le porte di destinazione e gli intervalli di indirizzi dei computer di origine e di destinazione, non il servizio di bilanciamento del carico.
Progettare per la connettività privata. Load Balancer funziona con collegamento privato di Azure. Se si distribuiscono le risorse dell'applicazione tra reti virtuali, è possibile connettere le risorse in reti virtuali diverse. Usare il peering di rete virtuale o posizionare Private Link davanti al bilanciamento del carico interno. L'opzione Collegamento privato offre un accesso più sicuro senza bisogno di un indirizzo IP pubblico. Limita inoltre l'accesso da reti non filtrate.
È possibile autorizzare i collegamenti privati tramite controllo degli accessi in base al ruolo per limitare l'accesso solo alle identità necessarie.
Proteggere l'applicazione dalle minacce nel perimetro di rete. Per i progetti che usano Load Balancer come punto di ingresso, implementare l'ispezione del traffico a livello di punto finale. Questa progettazione non include funzionalità di sicurezza predefinite come un WAF, quindi è necessario aggiungere misure aggiuntive per proteggere le applicazioni HTTP. Per maggiori informazioni, vedere il bilanciamento del carico pubblico . Assicurarsi anche di proteggere gli endpoint del servizio di bilanciamento del carico da attacchi DDoS (Distributed Denial of Service).
Crittografare il traffico di rete. Load Balancer funziona al livello 4 e supporta completamente il bilanciamento del carico del traffico TCP e UDP. Load Balancer non supporta ssl (Secure Sockets Layer) e la terminazione TLS. Per il bilanciamento del carico HTTPS a livello di applicazione, utilizzare l'Application Gateway.
Consigli
Raccomandazione | Beneficio |
---|---|
Configurare l'indirizzo IP front-end a un indirizzo IP privato in una rete virtuale. | Questo approccio consente di garantire che l'indirizzo IP front-end e la rete virtuale rimangano isolati dall'esposizione diretta a Internet. Il servizio di bilanciamento del carico interno non può accettare il traffico in ingresso da Internet, riducendo i potenziali vettori di attacco. |
Proteggere il servizio di bilanciamento del carico pubblico con Protezione DDoS di Azure. | Un piano di protezione DDoS offre protezione avanzata, incluse le funzionalità di rilevamento che monitorano l'endpoint per minacce e segni di abuso. |
Ottimizzazione costi
L'ottimizzazione dei costi è incentrata su individuare modelli di spesa, assegnare priorità agli investimenti in aree critiche e ottimizzare in altre allo scopo di soddisfare il budget dell'organizzazione conformemente ai requisiti aziendali.
I principi di progettazione Ottimizzazione costi forniscono una strategia di progettazione di alto livello per raggiungere tali obiettivi e fare compromessi in base alle esigenze nella progettazione tecnica relativa a Load Balancer e al relativo ambiente.
Elenco di controllo per la progettazione
Avvia la tua strategia di progettazione basata sulla checklist di revisione del design per l'ottimizzazione dei costi negli investimenti. Ottimizzare la progettazione in modo che il carico di lavoro sia allineato al budget allocato per esso. La progettazione deve usare le funzionalità di Azure appropriate, monitorare gli investimenti e trovare opportunità per ottimizzare nel tempo.
Includi le spese di bilanciamento del carico nel tuo modello di costo. Considerare i fattori principali, ad esempio la quantità di dati elaborati da Load Balancer e il numero di regole di bilanciamento del carico in ingresso e in uscita. Per una stima dei costi precisa, usare i log del traffico per misurare le esigenze del traffico in ingresso e in uscita.
Impostare i controlli sulla spesa. Registrare e analizzare i costi di Load Balancer. Per gestire i costi in modo efficace, utilizzare Microsoft Cost Management per creare budget e configurare avvisi. I costi possono accumularsi in base alla quantità di dati registrati e alla durata dell'archiviazione, che influisce sulla larghezza di banda e sulle spese di archiviazione.
Rimuovere le risorse inutilizzate. Identificare e rimuovere istanze del servizio di bilanciamento del carico inutilizzate. Analizzare i log per valutare l'utilizzo. Eliminare le istanze del servizio di bilanciamento del carico non associate alle macchine virtuali back-end. Esaminare i log del traffico per trovare risorse sottoutilate.
Ottimizzare i costi del flusso. Usare protocolli efficienti e compressione dei dati per ridurre il carico sul flusso di traffico e ridurre al minimo i costi.
Per ottimizzare i costi, è possibile ridurre il numero di regole. Anziché avere regole che usano singoli indirizzi IP e porte per ogni endpoint, definire una regola per un intervallo di porte nel front-end che si connette a un pool back-end.
Implementare l'ottimizzazione nei flussi del back-end. Ad esempio, più query di database intercettate da un servizio di bilanciamento del carico possono aumentare i costi per ogni query. Per evitare questo costo aggiuntivo, è consigliabile implementare una stored procedure per consolidare la sequenza di query.
Valutare il costo delle operazioni. Prendere in considerazione le spese delle risorse e i costi operativi, ad esempio manutenzione, scalabilità e conformità. Le regole del servizio di bilanciamento del carico possono influire in modo significativo sui costi. Ridurre il numero di regole per ottimizzare i costi finanziari e di gestione.
Consigli
Raccomandazione | Beneficio |
---|---|
Usare calcolatore prezzi di Azure per stimare i costi. | È possibile convertire l'utilizzo previsto del traffico in stime dei costi, semplificando la pianificazione e il budget. |
Valutare il numero di regole e ridurle, se possibile. Valutare se è possibile usare una regola per riepilogare un intervallo di porte anziché definire diverse regole per singoli indirizzi IP. Ad esempio, è possibile usare regole NAT in ingresso per mappare indirizzi IP e porte su un pool back-end anziché su singole macchine virtuali. |
Le regole consolidate ottimizzano i costi e semplificano le operazioni. Quando si aumentano o si riducono le risorse, è possibile aggiungere o rimuovere indirizzi IP dal pool back-end senza modificare alcuna regola. |
Eccellenza operativa
L'eccellenza operativa si concentra principalmente sulle procedure per le pratiche di sviluppo , l'osservabilità e la gestione dei rilasci.
I principi di progettazione di eccellenza operativa forniscono una strategia di progettazione di alto livello per raggiungere tali obiettivi relativi ai requisiti operativi del flusso di lavoro.
Elenco di controllo per la progettazione
Avvia la tua strategia di progettazione in base all'elenco di controllo della revisione di progettazione per l'eccellenza operativa per definire i processi per l'osservabilità, i test e l'implementazione correlati a Load Balancer.
Usare l'infrastruttura come codice. Distribuire e configurare il bilanciamento del carico (Load Balancer) insieme ad altri componenti di rete, ad esempio reti virtuali, peering di rete, endpoint privati e gruppi di sicurezza di rete. Acquisire familiarità con il tipo di risorsa Microsoft.Network loadBalancers.
Usare la distribuzione a più livelli per le architetture "hub-and-spoke". Distribuire prima l'hub perché cambia meno frequentemente del carico di lavoro distribuito nella rete spoke. Distribuire il servizio di bilanciamento del carico con il carico di lavoro. Se si riutilizza un singolo servizio di bilanciamento del carico tra più carichi di lavoro, è consigliabile inserirlo nell'hub.
Implementare un sistema di monitoraggio delle reti completo. Implementare funzionalità di diagnostica, come metriche multidimensionali per ottenere informazioni dettagliate e avvisi in tempo reale, log delle risorse basati sullo schema degli eventi di integrità e dashboard di Azure Monitor Insights per il monitoraggio completo del bilanciamento del carico.
Consigli
Raccomandazione | Beneficio |
---|---|
Usare metriche multidimensionali. Per ridurre al minimo gli avvisi eccessivi, impostare il tipo di aggregazione su Average e usare una finestra di dati di cinque minuti con una soglia di 95%. Per altre informazioni, vedere Configurare gli avvisi per le metriche multidimensionali. Esaminare gli esempi per la disponibilità in ingresso e in uscita. |
Approfondimenti completi in tempo reale e configurazione degli avvisi di allerta offrono un rilevamento migliorato dei problemi e consentono risposte tempestive. |
Acquisire i log delle risorse. Le voci di Load Balancer dipendono dallo schema di eventi di integrità . | I log forniscono record dettagliati degli eventi in modo da poter identificare e risolvere rapidamente i problemi. |
Usare il dashboard predefinito Monitoraggio di Azure Insights per Load Balancer. | La visualizzazione facilita scelte di progettazione ben informate e consente di identificare, diagnosticare e risolvere rapidamente i problemi. |
Durante le operazioni di manutenzione, impostare lo stato amministratore su Down per evitare la rotazione di un'istanza back-end senza interrompere le connessioni esistenti. Questa configurazione garantisce che nessuna nuova connessione venga inoltrata all'istanza back-end, mentre le connessioni esistenti vengono terminate normalmente. |
Questo stato di amministrazione della configurazione consente di ridurre il sovraccarico e la complessità quando si estrae una macchina virtuale dalla rotazione del bilanciamento del carico per la manutenzione ordinaria o l'applicazione di patch. Come opzione alternativa, per escludere un'istanza back-end dalla rotazione, è possibile applicare gruppi di sicurezza di rete per bloccare il traffico proveniente dal probe di integrità del servizio di bilanciamento del carico o dagli indirizzi IP e dalle porte del client. Questa opzione aumenta la complessità. |
Efficienza delle prestazioni
L'efficienza delle prestazioni riguarda mantenere l'esperienza utente anche quando si verifica un aumento del carico gestendo la capacità. La strategia include il ridimensionamento delle risorse, l'identificazione e l'ottimizzazione dei potenziali colli di bottiglia e la massimizzazione delle prestazioni.
I principi di progettazione efficienza delle prestazioni forniscono una strategia di progettazione di alto livello per raggiungere tali obiettivi di capacità rispetto all'utilizzo previsto.
Elenco di controllo per la progettazione
Avvia la strategia di progettazione basata sulla checklist di revisione del design per l'efficienza delle prestazioni per definire una baseline di indicatori chiave di prestazione del Load Balancer.
Determinare gli obiettivi delle prestazioni di rete. Il servizio di bilanciamento del carico non ha limiti sul traffico che può supportare. Tuttavia, quando si definiscono gli obiettivi di prestazioni e si pianifica la capacità, è consigliabile testare le prestazioni di rete.
Usare i test di stress per comprendere i requisiti di larghezza di banda del carico di lavoro. Includere il servizio di bilanciamento del carico in tali test. Se un singolo set di scalabilità di macchine virtuali con più macchine virtuali non è sufficiente, è possibile aggiungere un altro set di scalabilità usando lo stesso servizio di bilanciamento del carico. Se le macchine virtuali non ricevono richieste abbastanza rapidamente, potrebbe essere necessario modificare i componenti di rete, ad esempio aggiungendo altri servizi di bilanciamento del carico. Invece di modificare il servizio di bilanciamento del carico, è consigliabile apportare modifiche alla progettazione e ottimizzare il carico di lavoro per gestire meglio il carico.
Comprendere i limiti quando si progetta la strategia di scalabilità. Per soddisfare i requisiti di prestazioni e ridimensionare il carico di lavoro, aggiungere o rimuovere macchine virtuali dal pool back-end. Un singolo pool back-end in Load Balancer Standard può gestire fino a 5.000 macchine virtuali.
Load Balancer non applica limiti di velocità effettiva. Tuttavia, i limiti di velocità effettiva per le macchine virtuali e le reti virtuali si applicano ancora. Per altre informazioni, vedere larghezza di banda di rete VM.
Gestire rapidamente le richieste. Load Balancer Standard ha un livello che instrada il traffico agli endpoint back-end in base alla loro prossimità geografica all'utente.
Load Balancer supporta anche la distribuzione del carico in base alla persistenza della sessione. Quando si abilita questa funzionalità, le richieste provenienti dallo stesso client vengono indirizzate in modo coerente allo stesso server back-end che ha gestito le sessioni precedenti.
Raccogliere dati per analizzare le prestazioni. Load Balancer metriche multidimensionali possono analizzare le prestazioni del servizio. Configurare gli avvisi per rilevare le modifiche alle prestazioni. Usare strumenti come il dashboard di Azure Monitor Insights per visualizzare lo stato del load balancer. Assicurarsi che la funzionalità integrità delle risorse monitori lo stato di integrità e rimanere informati sui problemi di prestazioni e sulle interruzioni.
Ottimizzare il traffico di rete. Non elaborare più volte gli stessi dati in passaggi separati. Eseguire invece tutti i calcoli necessari in un batch e quindi rendere persistenti i dati. Questo approccio riduce la latenza e riduce al minimo il traffico di rete, migliorando così le prestazioni complessive.
Consigli
Raccomandazione | Beneficio |
---|---|
Selezionare il livello globale in Load Balancer Standard se si dispone di utenti globali. | La modalità di distribuzione di prossimità geografica di questo livello gestisce le richieste degli utenti dagli endpoint nell'area più vicina, migliorando così le prestazioni. |
Valutare se è necessario abilitare persistenza della sessione quando si desidera che le richieste dello stesso utente vengano indirizzate allo stesso server back-end. Dal punto di vista dell'affidabilità, questo approccio non è consigliato. Se si usa questa opzione, l'applicazione deve essere ripristinata normalmente senza interrompere le sessioni utente. Esiste anche un compromesso di bilanciamento del carico perché limita la flessibilità della distribuzione uniforme del traffico tra più back-end. |
La persistenza delle sessioni può ottimizzare le prestazioni e mantenere la continuità per le sessioni utente, soprattutto quando le applicazioni si basano sulla gestione delle informazioni sullo stato in locale. Ma ci sono compromessi. |
Durante l'espansione orizzontale, inviare un segnale di verifica in discesa fino a quando l'applicazione non viene completamente inizializzata e non è pronta per gestire le richieste. Durante il ridimensionamento, inviare un segnale probe-down per le nuove connessioni nell'endpoint di cui viene eseguito il ridimensionamento. Le richieste in sospeso sulle connessioni esistenti continuano a essere elaborate. |
Le sonde di integrità possono aiutare a ottimizzare le operazioni di scalabilità. Consentono di garantire che durante l'espansione orizzontale l'applicazione possa gestire il carico in ingresso. Prima di un'operazione con scalabilità orizzontale, consentono una riduzione uniforme delle istanze senza interrompere le operazioni in corso. |
Criteri di Azure
Azure offre un set completo di criteri predefiniti correlati a Load Balancer e alle relative dipendenze. È possibile controllare alcune delle raccomandazioni precedenti tramite Criteri di Azure. Ad esempio, è possibile verificare se:
- I servizi di bilanciamento del carico, esclusi i servizi di bilanciamento del carico SKU Basic, hanno funzionalità di resilienza abilitate per gli indirizzi IP pubblici nel front-end.
- I log delle risorse sono abilitati per tenere traccia delle attività e degli eventi che si verificano sulle risorse e fornire visibilità e informazioni dettagliate sulle modifiche.
Per una governance completa, esaminare le definizioni predefinite di Criteri di Azure per Load Balancer e altri criteri che potrebbero influire sulla sicurezza della distribuzione del traffico.
Raccomandazioni di Azure Advisor
Azure Advisor è un consulente cloud personalizzato che consente di seguire le procedure consigliate per ottimizzare le distribuzioni di Azure. Le raccomandazioni di Advisor sono allineate ai pilastri di Well-Architected Framework.
Per altre informazioni, vedere le raccomandazioni in Azure Advisor.