Freigeben über


Well-Architected Framework-Perspektive für Azure Load Balancer

Der Lastenausgleichsprozess verteilt den Netzwerkdatenverkehr an eine Gruppe von zwei oder mehr Back-End-Servern. Azure Load Balancer ist ein azure-nativer Dienst, der Den Layer-4-Lastenausgleich für das User Datagram Protocol (UDP) und das Transmission Control Protocol (TCP) durchführt. Lastenausgleichsmodul bietet geringe Latenz und hohe Verfügbarkeit für regionale und globale Bereitstellungen.

In diesem Artikel wird davon ausgegangen, dass Sie als Architekt die Optionen für den Lastenausgleich in Azure überprüft und den Load Balancer für Ihre Workload ausgewählt haben. Die Anleitung in diesem Artikel enthält Architekturempfehlungen, die den Prinzipien der Säulen des Well-Architected Framework zugeordnet sind.

Wichtig

Verwendung dieses Leitfadens

Jeder Abschnitt enthält eine Prüfliste für den Entwurf, die Problembereiche in der Architektur zusammen mit Entwurfsstrategien aufzeigt, die auf den Technologiebereich zugeschnitten sind.

Außerdem sind Empfehlungen für die Technologiefunktionen enthalten, die bei der Umsetzung dieser Strategien helfen können. Die Empfehlungen stellen keine vollständige Liste aller Konfigurationen dar, die für Load Balancer und deren Abhängigkeiten verfügbar sind. Stattdessen werden die wichtigsten Empfehlungen aufgeführt, die den Entwurfsperspektiven zugeordnet sind. Verwenden Sie die Empfehlungen, um Ihren Proof-of-Concept zu erstellen oder Ihre vorhandenen Umgebungen zu optimieren.

Grundlegende Architektur, die die wichtigsten Empfehlungen veranschaulicht:
Basisarchitektur virtueller Azure-Computer.

Technologiebereiche

Diese Übersicht konzentriert sich auf die miteinander verbundenen Entscheidungen für die folgenden Azure-Ressourcen:

  • Lastverteiler

Dieser Leitfaden bezieht sich auf die Load Balancer Standard-SKU. Die SKUs Basic Load-Balancer und Gateway Load-Balancer fallen nicht in den Bereich dieses Artikels.

Diagramm, das einen Load Balancer zeigt, der den Datenverkehr auslastungsbasiert verteilt.

Hinweis

Bei HTTP-Anwendungen sollten Sie das Azure-Anwendungsgateway oder Azure Front Door anstelle des Lastenausgleichs in Betracht ziehen. Diese Alternativen verwalten den Lastenausgleich und stellen außerdem Features wie die Webanwendungsfirewall (WAF) und die TLS-Beendigung (Transport Layer Security) bereit.

Weitere Informationen finden Sie unter:

Zuverlässigkeit

Der Zweck der Säule „Zuverlässigkeit“ besteht darin, durch genügend Resilienz und schnelles Wiederherstellen nach Fehlern eine kontinuierliche Funktionalität zu gewährleisten.

Entwurfsprinzipien für die Zuverlässigkeit bieten eine allgemeine Entwurfsstrategie für einzelne Komponenten, Systemabläufe und das gesamte System.

Prüfliste für den Entwurf

Starten Sie Ihre Entwurfsstrategie basierend auf der Checkliste zur Entwurfsüberprüfung in Bezug auf „Zuverlässigkeit“. Bestimmen Sie ihre Relevanz für Ihre Geschäftlichen Anforderungen, während Sie die Ebenen und Features virtueller Computer (VMs) berücksichtigen. Erweitern Sie die Strategie, um bei Bedarf weitere Ansätze einzuschließen.

  • Verstehen der Auswirkungen von von Microsoft gesicherten Garantien. Zusätzlich zu den anderen Komponenten Ihrer Architektur sollten Sie Servicegarantien (SLA) in das Zuverlässigkeitsziel Ihrer Arbeitslast einbeziehen. Berücksichtigen Sie dabei die folgenden wichtigen Punkte:

    • Wenn der Load-Balancer-Endpunkt eine ganze Minute lang keine Verbindung zu allen funktionierenden Back-End-Servern herstellen kann, wird diese Minute als nicht verfügbar betrachtet. Wenn jedoch mindestens eine Anforderung innerhalb derselben Minute erfolgreich ist, auch wenn andere fehlschlagen, wird diese Minute nicht als Ausfallzeit betrachtet.

    • Ausfallzeiten umfassen keine Minuten, die durch die SNAT-Portausschöpfung (Source Network Address Translation) verursacht werden. Stellen Sie sicher, dass Sie Ihre Workload so konfigurieren, dass die erwartete Anzahl von Verbindungen verarbeitet und Ports entsprechend geöffnet werden.

  • Unterstützen Sie Zonenredundanz in Ihrer Workloadarchitektur. Wir empfehlen die Load Balancer Standard-SKU. Es verfügt über Zuverlässigkeitsmerkmale wie die Unterstützung für Verfügbarkeitszonen, die Verteilung des Datenverkehrs über mehrere Regionen und die Fähigkeit, zusätzliche Instanzen im Back-End-Pool zu verwalten. Diese Funktionen tragen dazu bei, Ausfälle auf Zonen-, regionalen und einzelnen VM-Instanzebenen abzufangen. Beachten Sie Einschränkungen, z. B. die maximale Back-End-Poolgröße.

    Hinweis

    In Load Balancer verwalten Sie die Anzahl der VMs mit Lastenausgleich, aber nicht die Anzahl der Lastenausgleichsinstanzen. Sie können eine Load Balancer-Instanz so konfigurieren, dass sie zonenredundant ist, oder sie an eine Zone anheften, wenn die Workload virtuelle Computer in einer einzelnen Zone zusammensetzen muss. Die zonale oder multizonale Konfiguration der Front-End-IP-Adresse bestimmt die Redundanz des Lastenausgleichs.

  • Unterstützen Sie regionale Redundanz in Ihrer Workloadarchitektur. Sie können den Lastenausgleich so konfigurieren, dass er ein globaler Lastenausgleich ist. In diesem Setup verfügt load Balancer über eine statische öffentliche ANYCAST-IP-Adresse, die in mehrere Regionen übertragen wird. Wenn Clients diese IP-Adresse anfordern, gehen ihre Anforderungen zur nächstgelegenen Serverinstanz. Load Balancer stellt eine Verbindung zu regionalen Load Balancern her, um den Datenverkehr effizient zu verteilen.

  • Bewerten Sie Änderungen in Ihrem Netzwerkstapel, um eine zuverlässige Skalierung zu unterstützen. Erwägen Sie die horizontale Skalierung des Back-End-Pools mithilfe von Autoskalierungsregeln. Beachten Sie die mögliche SNAT-Portausschöpfung für ausgehenden Netzwerkverkehr. Um dieses Problem zu beheben, verwenden Sie Azure NAT-Gateway für eine einfachere Konfiguration, verstehen jedoch, dass es keine Verfügbarkeitszonenredundanz gibt. Alternativ können Sie den Lastenausgleich für zusätzliche Zonenredundanz verwenden. Weitere Informationen finden Sie unter Ausgehende Verbindungen.

  • Mildern Sie potenzielle Fehler. Führen Sie eine Fehlermodusanalyse durch und identifizieren Sie Gegenmaßnahmen. In der folgenden Tabelle sind die Arten von Fehlern und deren Behebung aufgeführt.

    Fehler Abmilderung
    Datenverkehr wird an fehlerhafte Anwendungsinstanzen weitergeleitet. Überwachen Sie den Zustand der Workloadinstanz. Implementieren Sie HTTP-Integritätstests, die Überprüfungen auf Workloadabhängigkeiten enthalten.
    Der Datenverkehr wird an eine Region weitergeleitet, die einen Ausfall aufweist. Stellen Sie zusätzliche Instanzen in einer anderen Region bereit. Fügen Sie einen globalen Load-Balancer hinzu, um den Verkehr in die neue Region umzuleiten.
    Die Benutzerbasis der Workload wurde erweitert, um jetzt Benutzer in einer neuen Region zu unterstützen. Diese weisen eine hohe Latenz auf. Die Anwendung erlebt jetzt eine hohe Anzahl von Timeouts und Fehlern. Stellen Sie zusätzliche Instanzen in einer neuen Region bereit, und fügen Sie sie in der Dienstkonfiguration hinzu. Als globaler Lastenausgleich leitet Azure Load Balancer den Datenverkehr näher an die Benutzer weiter.
  • Leiten Sie Datenverkehr an fehlerfreie Instanzen weiter. Sie können HTTP oder TCP für Gesundheitsprüfungen verwenden. Um umfassendere Statusantworten bereitzustellen, erwägen Sie, einen HTTP-Endpunkt für Integritätsprüfungen zu erstellen, auch für Nicht-HTTP-Apps. Dieser Ansatz ist besonders hilfreich beim Überprüfen von Abhängigkeiten und Datenbanken. Ohne HTTP-Überprüfungen verlässt sich der Lastenausgleich auf TCP-Verbindungen, die möglicherweise nicht exakt den Zustand der VM widerspiegeln.

    Sie können den Health Probe auf dem Load Balancer konfigurieren. Weitere Informationen finden Sie unter Entwurfsleitfäden für Integritätstests.

Empfehlungen

Empfehlung Vorteil
Wählen Sie die Standard-SKU für Lastenausgleich aus.
Weitere Informationen finden Sie unter SKU-Vergleich.
Diese SKU unterstützt Zuverlässigkeitsfeatures, z. B. Verfügbarkeitszonen und Multiregion-Lastenausgleich.
Konfigurieren Sie Regeln, um die Front-End-IP-Adresse den IP-Adressen der Back-End-Server zuzuordnen, um den Lastenausgleich zu ermöglichen.

Der Back-End-Adresspool sollte mindestens zwei Back-End-Endpunkte aufweisen, um die Last auszugleichen und Redundanz zu gewährleisten.
Regeln sind der Kern des Lastenausgleichsalgorithmus. Ohne diese Konfiguration sind die Verteilungsmodi deaktiviert.
Konfigurieren Sie Integritätstests.

- Legen Sie das Probingintervall und die Schwellenwerte fest. Berücksichtigen Sie den Kompromiss zwischen der Schnellen Erkennung von Fehlern und der Anzahl der Anforderungen an den Endpunkt.
– Überlegen Sie, ob Sie Datenverkehr an die Instanzen senden möchten, wenn alle Instanzen einen fehlerhaften Status aufweisen. Sie können diese Konfiguration verwenden, um eine sanfte Degradierungserfahrung zu implementieren. Weitere Informationen finden Sie unter AllProbedUp.
Nur fehlerfreie Back-End-Poolinstanzen erhalten neue Verbindungen. Diese Konfiguration trägt dazu bei, hohe Verfügbarkeit und Zuverlässigkeit aufrechtzuerhalten, da der Datenverkehr von fehlerhaften Instanzen weggeleitet wird.
Konfigurieren Sie private und öffentliche IP-Adressen so, dass sie zonenredundant sind. Die IP-Adresse bestimmt die Zonenredundanz des Lastenausgleichs. Zonenredundanz trägt dazu bei, dass die Arbeitsauslastung zonenbedingten Fehlern standhält. Wenn eine Zone ausfällt, erfolgt ein Failover der Dienste zu einer der übrigen Zonen.

Sicherheit

Der Zweck der Säule „Security“ besteht darin, Garantien für die Arbeitsauslastung für Vertraulichkeit, Integrität und Verfügbarkeit bereitzustellen.

Die Prinzipien des Sicherheitsdesigns bieten eine allgemeine Designstrategie zur Erreichung dieser Ziele durch Anwendung von Ansätzen auf das technische Design des Load Balancers.

Prüfliste für den Entwurf

Starten Sie Ihre Designstrategie basierend auf der Prüfliste für die Designüberprüfung für Sicherheit und identifizieren Sie Sicherheitsrisiken und Kontrollen, um den Sicherheitsstatus zu verbessern. Erweitern Sie die Strategie, um bei Bedarf weitere Ansätze einzuschließen.

  • Überprüfen Sie die Sicherheitsgrundwerte. Um den Sicherheitsstatus Ihrer Anwendung zu verbessern, die von Azure Load Balancer ausgeglichen wird, überprüfen Sie die Sicherheitsgrundwerte für das Lastenausgleichsmodul.

  • Schützen Sie die Back-End-Server. Stellen Sie Ressourcen in einem virtuellen Netzwerk bereit, das keine direkte Internetverbindung hat. Setzen Sie einen Load Balancer vor das virtuelle Netzwerk. Idealerweise sollte der Lastenausgleich über Firewallfunktionen verfügen. Bei HTTP-Anwendungen sollten Sie das Anwendungsgateway oder Azure Front Door in Betracht ziehen. Bei Nicht-HTTP-Anwendungen sollten Sie das Lastenausgleichsmodul mit einer privaten IP-Adresse (interner Lastenausgleich) in Betracht ziehen und den Datenverkehr über die Azure-Firewall für zusätzliche Sicherheit weiterleiten. Weitere Informationen finden Sie unter Interner Load Balancer.

    Sie können den Load-Balancer auch als Reverse-Proxy verwenden. In diesem Fall verfügt der Load-Balancer über eine öffentliche IP-Adresse mit SNAT, die Ressourcen exponiert, während ihre IP-Adressen maskiert werden.

    Hinweis

    Verwenden Sie zum Filtern des Datenverkehrs zu Back-End-Servern Netzwerksicherheitsgruppen (NSGs) in den Subnetzen, die das Front-End und das Back-End enthalten. Wenden Sie NSGs nicht direkt auf den Load Balancer-Dienst an. Wenn NSGs Regeln durchsetzen, berücksichtigen sie die Quell- und Zielports sowie die Adressbereiche der Ursprungs- und Zielcomputer, nicht den Load Balancer.

  • Design für private Konnektivität. Load Balancer funktioniert mit Azure Private Link. Wenn Sie Anwendungsressourcen in virtuellen Netzwerken verteilen, können Sie Ressourcen in verschiedenen virtuellen Netzwerken verbinden. Verwenden Sie Peering virtueller Netzwerke, oder platzieren Sie eine private Verbindung vor dem internen Load Balancer. Die Option "Privater Link" bietet einen sichereren Zugriff, ohne eine öffentliche IP-Adresse zu benötigen. Sie schränkt auch den Zugriff von nicht per Peering verbundenen Netzwerken ein.

    Sie können private Links über rollenbasierte Zugriffssteuerung autorisieren, um den Zugriff nur auf die Identitäten zu beschränken, die sie benötigen.

  • Schützen Sie Ihre Anwendung vor Bedrohungen am Netzwerkrand. Bei Entwürfen, die Load Balancer als Einstiegspunkt verwenden, implementieren Sie eine Untersuchung des Datenverkehrs auf Endpunktebene. Dieses Design verfügt nicht über integrierte Sicherheitsfeatures wie eine WAF, daher müssen Sie zusätzliche Maßnahmen hinzufügen, um HTTP-Anwendungen zu schützen. Weitere Informationen finden Sie unter Öffentlicher Load Balancer. Stellen Sie außerdem sicher, dass Sie die Endpunkte des Lastenausgleichs vor verteilten Denial-of-Service-Angriffen (DDoS) schützen.

  • Netzwerkdatenverkehr verschlüsseln. Load Balancer funktioniert bei Layer 4 und unterstützt den Lastenausgleichs-TCP- und UDP-Datenverkehr vollständig. Load Balancer unterstützt Secure Sockets Layer (SSL) und TLS-Termination nicht. Verwenden Sie für den HTTPS-Lastenausgleich auf Der Anwendungsebene das Anwendungsgateway.

Empfehlungen

Empfehlung Vorteil
Konfigurieren der Front-End-IP-Adresse zu einer privaten IP-Adresse in einem virtuellen Netzwerk. Dieser Ansatz trägt dazu bei, sicherzustellen, dass die Front-End-IP-Adresse und das virtuelle Netzwerk von der direkten Internetexposition isoliert bleiben. Der interne Lastenausgleich kann eingehenden Datenverkehr aus dem Internet nicht akzeptieren, wodurch potenzielle Angriffsvektoren reduziert werden.
Schützen Sie den öffentlichen Load-Balancer mit Azure DDoS Protection. Ein DDoS Protection-Plan bietet erweiterten Schutz, einschließlich Erkennungsfunktionen, die den Endpunkt auf Bedrohungen und Anzeichen von Missbrauch überwachen.

Kostenoptimierung

Die Kostenoptimierung konzentriert sich auf das Erfassen von Ausgabenmustern, die Priorisierung von Investitionen in kritischen Bereichen und die Optimierung in anderen Bereichen, um das Budget der Organisation einzuhalten und gleichzeitig die Geschäftsanforderungen zu erfüllen.

Die Entwurfsprinzipien für Kostenoptimierung bieten eine allgemeine Entwurfsstrategie, um diese Ziele zu erreichen und bei Bedarf Kompromisse im technischen Entwurf im Zusammenhang mit Load Balancer und seiner Umgebung einzugehen.

Prüfliste für den Entwurf

Erstellen Sie Ihre Entwurfsstrategie basierend auf der Checkliste zur Entwurfsüberprüfung in Bezug auf „Kostenoptimierung“ für Investitionen. Optimieren Sie den Entwurf so, dass die Arbeitsauslastung mit dem Budget übereinstimmt, das für die Arbeitsauslastung zugewiesen ist. Ihr Entwurf sollte die richtigen Azure-Funktionen nutzen, Investitionen überwachen und Möglichkeiten zur Optimierung im Laufe der Zeit finden.

  • Berücksichtigen Sie die Lastenausgleichskosten in Ihrem Kostenmodell. Berücksichtigen Sie primäre Faktoren, z. B. die Datenmenge, die das Lastenausgleichsmodul verarbeitet, und die Anzahl der eingehenden und ausgehenden Lastenausgleichsregeln. Verwenden Sie für eine präzise Kostenschätzung Die Datenverkehrsprotokolle, um Ihre Anforderungen an eingehenden und ausgehenden Datenverkehr zu messen.

  • Legen Sie Steuerelemente für Ausgaben fest. Protokollieren und analysieren Sie die Kosten des Lastenausgleichs. Um Kosten effektiv zu verwalten, verwenden Sie Microsoft Cost Management, um Budgets zu erstellen und Warnungen zu konfigurieren. Kosten können sich basierend auf der Menge der protokollierten Daten und der Speicherdauer ansammeln, was sich auf Bandbreite und Speicherkosten auswirkt.

  • Entfernen Sie nicht verwendete Ressourcen. Identifizieren und Entfernen nicht verwendeter Lastenausgleichsinstanzen. Analysieren Sie Protokolle, um die Verwendung auszuwerten. Löschen Sie Lastenausgleichsinstanzen, die nicht mit Back-End-VMs verknüpft sind. Überprüfen Sie Die Datenverkehrsprotokolle, um nicht verwendete Ressourcen zu finden.

  • Optimieren Sie die Prozesskosten. Verwenden Sie effiziente Protokolle und Datenkomprimierung, um die Belastung für den Datenverkehrsfluss zu reduzieren und Kosten zu minimieren.

    Um Die Kosten zu optimieren, können Sie die Anzahl der Regeln reduzieren. Anstatt Regeln zu verwenden, die einzelne IP-Adressen und Ports für jeden Endpunkt verwenden, definieren Sie eine Regel für einen Bereich von Ports im Front-End,der eine Verbindung mit einem Back-End-Pool herstellt.

    Implementieren Sie Optimierungen in den Backend-Prozessen. Beispielsweise können mehrere Datenbankabfragen, die ein Load Balancer abwickelt, die Kosten pro Abfrage erhöhen. Um diese zusätzlichen Kosten zu vermeiden, sollten Sie eine gespeicherte Prozedur implementieren, um die Abfolge von Abfragen zu konsolidieren.

  • Bewerten Sie die Betriebskosten. Berücksichtigen Sie Ressourcenkosten und Betriebskosten, z. B. Wartung, Skalierung und Compliance. Lastenausgleichsregeln können sich erheblich auf Kosten auswirken. Verringern Sie die Anzahl der Regeln, um die Finanz- und Verwaltungskosten zu optimieren.

Empfehlungen

Empfehlung Vorteil
Verwenden Sie den Azure-Preisrechner, um die voraussichtlichen Kosten zu ermitteln. Sie können die erwartete Datenverkehrsnutzung in Kostenschätzungen umwandeln, was die Planung und das Budget erleichtert.
Bewerten Sie die Anzahl der Regeln, und verringern Sie sie, falls möglich.

Bewerten Sie, ob Sie eine Regel verwenden können, um einen Bereich von Ports zusammenzufassen, anstatt mehrere Regeln für einzelne IP-Adressen zu definieren.
Sie können beispielsweise NAT-Regeln für eingehenden Datenverkehr verwenden, um IP-Adressen und Ports einem Back-End-Pool zuzuordnen, anstatt sie einzelnen VMs zuzuordnen.
Konsolidierte Regeln optimieren Kosten und vereinfachen Vorgänge.

Wenn Sie eine Skalierung nach oben oder unten durchführen, können Sie IP-Adressen aus dem Back-End-Pool hinzufügen oder entfernen, ohne dass Regeln geändert werden.

Optimaler Betrieb

„Optimaler Betrieb“ konzentriert sich primär auf Verfahren für Entwicklungsmethoden, Einblick und Releaseverwaltung.

Die Designprinzipien Operational Excellence bieten eine allgemeine Designstrategie, um diese Ziele für die betrieblichen Anforderungen der Arbeitsbelastung zu erreichen.

Prüfliste für den Entwurf

Beginnen Sie Ihre Entwurfsstrategie auf der Grundlage der Prüfliste zur Entwurfsprüfung für optimalen Betrieb, um Prozesse für Einblicke, Tests und die Bereitstellung im Zusammenhang mit Load Balancer zu definieren.

  • Verwenden Sie Infrastructure-as-Code. Bereitstellen und Konfigurieren von Load Balancern zusammen mit anderen Netzwerkkomponenten wie virtuellen Netzwerken, Netzwerk-Peering-Verbindungen, privaten Endpunkten und NSGs. Machen Sie sich mit dem Ressourcentyp „Microsoft.Network loadBalancers“ vertraut.

  • Verwenden Sie die mehrstufige Bereitstellung für Hub-and-Spoke-Architekturen. Stellen Sie zuerst den Hub bereit, da er sich weniger häufig ändert als die Workload, die im Speichennetzwerk bereitgestellt wird. Stellen Sie den Load-Balancer zusammen mit der Workload bereit. Wenn Sie ein einzelnes Lastenausgleichsmodul für mehrere Workloads wiederverwenden, sollten Sie es in Betracht ziehen, es im Hub zu platzieren.

  • Implementieren Sie ein umfassendes Netzwerküberwachungssystem. Implementieren Sie Diagnosefunktionen wie multidimensionale Metriken für Echtzeiteinblicke und Warnungen, Ressourcenprotokolle basierend auf dem Gesundheitsereignisschema sowie das Azure Monitor Insights-Dashboard für eine umfassende Überwachung des Lastenausgleichs.

Empfehlungen

Empfehlung Vorteil
Verwenden Sie mehrdimensionale Metriken.

Um übermäßige Warnungen zu minimieren, legen Sie den Aggregationstyp auf Averagefest, und verwenden Sie ein Fünf-Minuten-Datenfenster mit einem Schwellenwert von 95%. Weitere Informationen finden Sie unter Konfigurieren von Warnungen für multidimensionale Metriken. Sehen Sie sich die Beispiele für die eingehende und ausgehende Verfügbarkeit an.
Umfassende Echtzeiteinblicke und Warnungskonfiguration bieten eine verbesserte Erkennung von Problemen und ermöglichen prompte Antworten.
Erfassen Sie Ressourcenprotokolle. Load Balancer-Einträge hängen vom Ereignisschema für Fehlerfreiheit ab. Protokolle bieten detaillierte Aufzeichnungen von Ereignissen, sodass Sie Probleme schnell identifizieren und beheben können.
Verwenden Sie das integrierte Azure Monitor Insights-Dashboard für den Load Balancer. Die Visualisierung erleichtert fundierte Designentscheidungen und hilft Ihnen, Probleme schnell zu identifizieren, zu diagnostizieren und zu beheben.
Legen Sie bei Wartungsvorgängen den Admin-Status auf Down fest, um eine Back-End-Instanz aus dem Zyklus zu nehmen, ohne vorhandene Verbindungen zu unterbrechen. Diese Konfiguration trägt dazu bei, dass keine neuen Verbindungen an die Back-End-Instanz weitergeleitet werden, während vorhandene Verbindungen ordnungsgemäß beendet werden. Diese Konfiguration des Administratorstatus trägt dazu bei, den Aufwand und die Komplexität zu reduzieren, wenn Sie eine VM für regelmäßige Wartungsarbeiten oder Patches aus der Lastausgleichsrotation herausnehmen.

Als Alternative zur Herausnahme einer Back-End-Instanz aus der Rotation können Sie NSGs anwenden, um den Datenverkehr vom Load Balancer-Integritätstest oder den IP-Adressen und Ports des Clients zu blockieren. Diese Option erhöht die Komplexität.

Effiziente Leistung

Bei der Leistungseffizienz geht es darum, die Benutzererfahrung auch bei steigender Last durch Kapazitätsmanagement aufrechtzuerhalten. Die Strategie umfasst die Skalierung von Ressourcen, die Identifizierung und Optimierung potenzieller Engpässe sowie die Optimierung für Spitzenleistungen.

Die Designprinzipien der Leistungseffizienz bieten eine hochwertige Entwurfsstrategie zur Erreichung dieser Kapazitätsziele im Hinblick auf die erwartete Nutzung.

Prüfliste für den Entwurf

Beginnen Sie Ihre Entwurfsstrategie auf der Grundlage der Prüfliste zur Entwurfsprüfung für Leistungseffizienz, um eine Baseline basierend auf Key Performance Indicators für Load Balancer zu definieren.

  • Ermitteln Sie die Ziele für die Netzwerkleistung. Der Load Balancer hat keine Begrenzung für den Datenverkehr, den es unterstützen kann. Wenn Sie jedoch Leistungsziele definieren und die Kapazität planen, sollten Sie die Netzwerkleistung testen.

    Verwenden Sie Stresstests, um die Bandbreitenanforderungen der Workload zu verstehen. Schließen Sie das Lastenausgleichsmodul in diese Tests ein. Wenn ein einzelner vm-Skalierungssatz mit mehreren virtuellen Computern nicht ausreicht, fügen Sie möglicherweise einen weiteren Skalierungssatz hinzu, indem Sie denselben Lastenausgleich verwenden. Wenn die virtuellen Computer keine Anforderungen schnell genug erhalten, müssen Sie möglicherweise die Netzwerkkomponenten anpassen, z. B. das Hinzufügen weiterer Lastenausgleichsgeräte. Anstatt jedoch das Lastenausgleichsmodul zu ändern, sollten Sie Entwurfsänderungen vornehmen und Ihre Arbeitsauslastung optimieren, um die Last besser zu verarbeiten.

  • Verstehen Sie die Grenzen, wenn Sie Ihre Skalierungsstrategie entwerfen. Um die Leistungsanforderungen zu erfüllen und Ihre Workload zu skalieren, fügen Sie virtuelle Computer aus dem Back-End-Pool hinzu oder entfernen sie. Ein einzelner Back-End-Pool im Standardlastenausgleich kann bis zu 5.000 VMs verarbeiten.

    Load Balancer wendet keine Durchsatzgrenzwerte an. Durchsatzgrenzwerte für virtuelle Computer und virtuelle Netzwerke gelten jedoch weiterhin. Weitere Informationen finden Sie unter Netzwerkbandbreite von VMs.

  • Anfragen schnell bearbeiten. Der Standard-Load-Balancer hat eine Stufe, die den Datenverkehr basierend auf der geografischen Nähe zum Benutzer an Back-End-Endpunkte weiterleitet.

    Load Balancer unterstützt auch die Lastverteilung basierend auf der Sitzungspersistenz. Wenn Sie dieses Feature aktivieren, werden Anforderungen desselben Clients konsistent an denselben Back-End-Server geleitet, der ihre vorherigen Sitzungen verarbeitet hat.

  • Sammeln Sie Daten, um die Leistung zu analysieren. Load Balancer multidimensionale Metriken können die Leistung des Diensts analysieren. Konfigurieren Sie Warnungen, um Leistungsänderungen zu erkennen. Verwenden Sie Tools wie das Azure Monitor Insights-Dashboard, um den Status des Lastenausgleichs zu visualisieren. Stellen Sie sicher, dass das Feature "Ressourcenintegrität" den Integritätsstatus überwacht, und bleiben Sie über Leistungsprobleme und Ausfälle informiert.

  • Optimieren des Netzwerkdatenverkehrs. Verarbeiten Sie dieselben Daten nicht mehrmals in separaten Schritten. Führen Sie stattdessen alle erforderlichen Berechnungen in einem Batch aus, und speichern Sie dann die Daten. Bei diesem Ansatz wird die Latenz reduziert und der Netzwerkdatenverkehr minimiert, wodurch die Gesamtleistung verbessert wird.

Empfehlungen

Empfehlung Vorteil
Wählen Sie die globale stufe in Standard Load Balancer aus, wenn Sie über globale Benutzer verfügen. Der Geo-Näherungsmodus dieser Ebene dient Benutzeranforderungen von Endpunkten in der nächstgelegenen Region, wodurch die Leistung verbessert wird.
Bewerten Sie, ob Sie Sitzungspersistenz aktivieren sollen, wenn Anforderungen vomselben Benutzer an denselben Back-End-Server übergeben werden sollen.

Aus Zuverlässigkeitsperspektive empfehlen wir diesen Ansatz nicht. Wenn Sie diese Option verwenden, sollte sich die Anwendung ordnungsgemäß wiederherstellen können, ohne Benutzersitzungen zu unterbrechen.

Es gibt auch einen Kompromiss beim Lastenausgleich, da die Flexibilität bei der gleichmäßigen Verteilung des Netzwerkverkehrs über mehrere Back-Ends eingeschränkt wird.
Die Sitzungspersistenz kann die Leistung optimieren und die Kontinuität für Benutzersitzungen verwalten, insbesondere wenn Anwendungen auf die lokale Verwaltung von Zustandsinformationen angewiesen sind. Aber es gibt Kompromisse.
Senden Sie bei der horizontalen Skalierung ein Signal für den Ausfall eines Tests, bis die Anwendung vollständig initialisiert und bereit ist, Anforderungen zu bearbeiten.

Senden Sie während der Herunterskalierung ein Signal für den Ausfall eines Tests für neue Verbindungen an den Endpunkt, der herunterskaliert wird. Ausstehende Anforderungen für vorhandene Verbindungen werden weiterhin verarbeitet.
Gesundheitsprüfungen können dabei helfen, Skalierungsvorgänge zu optimieren. Sie stellen sicher, dass die Anwendung während der horizontalen Skalierung die eingehende Last bewältigen kann. Vor einem Skalierungsvorgang ermöglichen sie eine reibungslose Reduzierung von Instanzen, ohne laufende Vorgänge zu unterbrechen.

Azure-Richtlinien

Azure bietet einen umfassenden Satz integrierter Richtlinien im Zusammenhang mit Load Balancer und deren Abhängigkeiten. Einige der vorstehenden Empfehlungen können über Azure Policy überwacht werden. Sie können beispielsweise überprüfen, ob:

  • Lastenausgleichsgeräte, mit Ausnahme von einfachen SKU-Lastenausgleichsmodulen, verfügen über Resilienzfeatures, die für öffentliche IP-Adressen im Front-End aktiviert sind.
  • Ressourcenprotokolle sind aktiviert, um Aktivitäten und Ereignisse, die in Ihren Ressourcen auftreten, nachzuverfolgen und Einblicke in Änderungen zu bieten.

Für umfassende Governance überprüfen Sie die in integrierten Azure Policy-Richtliniendefinitionen für Load Balancer und andere Richtlinien, die sich auf die Sicherheit der Datenverkehrsverteilung auswirken könnten.

Azure Advisor-Empfehlungen

Bei Azure Advisor handelt es sich um einen personalisierten Cloudberater, der Sie mit bewährten Methoden zum Optimieren von Azure-Bereitstellungen unterstützt. Empfehlungen von Beratern sind mit den Säulen des Well-Architected-Frameworks abgestimmt.

Weitere Informationen finden Sie in den Empfehlungen in Azure Advisor.