In diesem Szenario wird veranschaulicht, wie Sie eine Basisarchitektur für Microsoft Azure Kubernetes Service (AKS) entwerfen und implementieren, die auf Azure Local ausgeführt wird.
Dieser Artikel enthält Empfehlungen für Netzwerk, Sicherheit, Identität, Verwaltung und Überwachung des Clusters basierend auf den Geschäftsanforderungen einer Organisation. Er ist Teil eines aus zwei Artikeln bestehenden Leitfadens für die Architekturbaseline. Die Empfehlungen für den Netzwerkentwurf finden Sie hier.
Wichtig
Die Informationen in diesem Artikel gelten für AKS auf Azure Stack HCI, Version 22H2 und AKS-HCI unter Windows Server. Die neueste Version von AKS wird unter Azure Stack HCI, Version 23H2 Betriebssystem, ausgeführt. Weitere Informationen zur neuesten Version finden Sie in der AKS unter Azure Stack HCI OS, Version 23H2-Dokumentation.
Aufbau
Die folgende Abbildung zeigt die Basisarchitektur für Azure Kubernetes-Dienst in Azure Local oder Windows Server 2019/2022 Datacenter-Failoverclustern:
Laden Sie eine Visio-Datei dieser Architektur herunter.
Die Architektur umfasst die folgenden Komponenten und Funktionen:
- Azure Stack HCI, Version 22H2. Eine HCI-Clusterlösung (Hyperconverged Infrastruktur, hyperkonvergente Infrastruktur), mit der virtualisierte Windows- und Linux-Workloads und ihr Speicher in einer lokalen Hybridumgebung gehostet werden. Eine lokale Azure-Instanz wird als 2-8-Knotencluster implementiert.
- Azure Kubernetes Service (AKS) auf azure Local. Eine lokale Implementierung von AKS, die die Ausführung von containerisierten Anwendungen im großen Stil automatisiert.
- Azure Arc ist ein cloudbasierter Dienst, der das auf dem Azure Resource Manager basierende Verwaltungsmodell um Nicht-Azure-Ressourcen erweitert, einschließlich virtueller Computer (VMs), Kubernetes-Cluster und containerisierter Datenbanken.
- Azure Policy. Ein cloudbasierter Dienst, der bei der Erzwingung von Organisationsstandards und Bewertung der Konformität im großen Stil hilft, indem Azure- (einschließlich Arc-fähiger) Ressourcen anhand ihrer Ressourcen in Bezug auf Geschäftsregeln ausgewertet werden. Diese Standards umfassen auch Azure Policy für Kubernetes, womit Richtlinien auf die im Clusters ausgeführten Workloads angewendet werden.
- Azure Monitor: Hierbei handelt es sich um einen cloudbasierten Dienst, der die Verfügbarkeit und Leistung Ihrer Anwendungen und Dienste durch die Bereitstellung einer umfassenden Lösung für das Sammeln, Analysieren und Reagieren auf Telemetriedaten aus Ihren cloudbasierten und lokalen Umgebungen maximiert.
- Microsoft Defender für Cloud: Ein vereinheitlichtes Sicherheitsverwaltungssystem für Infrastrukturen, mit dem der Sicherheitsstatus Ihrer Rechenzentren gestärkt wird und erweiterter Schutz vor Bedrohungen für Ihre Hybridworkloads in der Cloud- und lokalen Umgebung bereitgestellt wird.
- durch Azure Automation Stellt einen cloudbasierten Automatisierungs- und Konfigurationsdienst bereit, der eine einheitliche Verwaltung Ihrer Azure- und Nicht-Azure-Umgebungen unterstützt.
- Velero. Ein Open-Source-Tool, das bedarfsgesteuerte und geplante Sicherungen unterstützt und mit dem alle Objekte im Kubernetes-Cluster wiederhergestellt werden.
- Azure Blob Storage: Ein hochgradig skalierbarer und sicherer Objektspeicher für cloudnative Workloads, Archive, Data Lakes, High Performance Computing und maschinelles Lernen.
Komponenten
- Azure Stack HCI, Version 22H2
- Azure Kubernetes Service (AKS) auf azure Local
- Windows Admin Center
- Ein Azure-Abonnement
- Azure Arc
- Rollenbasierte Zugriffssteuerung in Azure (Azure Role-Based Access Control, Azure RBAC)
- Azure Monitor
- Microsoft Defender für Cloud
Szenariodetails
Mögliche Anwendungsfälle
- Implementieren Sie in einer lokalen Kubernetes-Implementierung von AKS hoch verfügbare, containerbasierte Workloads.
- Automatisieren Sie die Ausführung containerisierter Anwendungen im großen Stil.
- Reduzieren der Gesamtkosten (TCO) durch von Microsoft zertifizierte Lösungen, cloudbasierte Automatisierung, zentralisierte Verwaltung und zentralisierte Überwachung
Zertifizierte Hardware
Verwenden Sie lokal zertifizierte Azure-Hardware, die die Einstellungen für einmaliges Starten, United Extensible Firmware Interface (UEFI) und Trusted Platform Module (TPM) standardmäßig bereitstellt. Die Computeanforderungen sind von Anwendung und Anzahl der Workerknoten abhängig, die in AKS im Cluster ausgeführt werden. Verwenden Sie mehrere physische Knoten für die Bereitstellung von Azure Local oder mindestens einen zwei Knoten Windows Server Datacenter-Failovercluster, um eine hohe Verfügbarkeit zu erzielen. Es ist erforderlich, dass alle Server vom selben Hersteller stammen, dasselbe Modell aufweisen und 64-Bit-Prozessoren der Intel Nehalem-Architektur oder der AMD EPYC-Architektur oder kompatible Prozessoren mit höherer Spezifikation und SLAT (Second-Level Address Translation, Adressübersetzung der zweiten Ebene) verwenden.
Bereitstellungsstrategien für Cluster
AKS vereinfacht die lokale Kubernetes-Bereitstellung, indem Sie Assistenten oder PowerShell-Cmdlets bereitstellen, die Sie zum Einrichten von Kubernetes und wesentlichen lokalen Azure-Add-Ons verwenden können. Ein AKS-Cluster verfügt über die folgenden Komponenten in Azure Local:
- Verwaltungscluster: Stellen Sie den Verwaltungscluster auf einem hoch verfügbaren virtuellen Computer (VM) bereit, der entweder auf Azure Local oder einem Windows Server 2019/2022 Datacenter-Failovercluster ausgeführt wird. Der Verwaltungscluster ist für die Bereitstellung und Verwaltung mehrerer Workloadcluster verantwortlich und umfasst die folgenden Komponenten:
- Der API-Server Interagiert mit den Verwaltungstools.
- Lastenausgleich. Verwaltet Lastenausgleichsregeln für den API-Server des Verwaltungsclusters.
- Workloadcluster. Implementieren Sie hochverfügbare Komponenten auf Steuerungsebene und Workerknotenkomponenten. Containerisierte Anwendungen werden in einem Workloadcluster ausgeführt. Um Anwendungsisolation zu erreichen, können Sie bis zu acht Workloadcluster bereitstellen. Der Workloadcluster besteht aus den folgenden Komponenten:
- Steuerungsebene. Wird in einer Linux-Distribution ausgeführt und enthält API-Serverkomponenten für die Interaktion mit der Kubernetes-API und einen verteilten Schlüssel-Wert-Speicher (etcd) zum Speichern aller Konfigurationen und Daten des Clusters.
- Lastenausgleich. Wird auf einer Linux-VM ausgeführt und stellt Dienste zum Lastenausgleich für den Workloadcluster bereit.
- Workerknoten. Werden unter einem Windows- oder Linux-Betriebssystem ausgeführt, das containerisierte Anwendungen hostet.
- Kubernetes-Ressourcen. Pods stellen eine einzelne Instanz Ihrer Anwendung dar, die in der Regel eine 1:1-Zuordnung zu einem Container aufweisen. Bestimmte Pods können jedoch mehrere Container enthalten. Bereitstellungen stellen einen oder mehrere identische Pods dar. Pods und Bereitstellungen werden logisch in einem Namespace gruppiert, der den Zugriff zur Verwaltung der Ressourcen steuert.
Netzwerkanforderungen
Durch das Verbinden der Kubernetes-Knoten mit dem virtuellen Netzwerk bietet Kubernetes eine Abstraktionsebene für virtuelle Netzwerke. Es bietet auch über die Komponente kube-proxy ein- und ausgehende Konnektivität für Pods. Die lokale Azure-Plattform bietet eine weitere Vereinfachung der Bereitstellung durch Konfigurieren des HAProxy VM zum Lastenausgleich.
Hinweis
Informationen zum Entwerfen und Implementieren von Netzwerkkonzepten für die Bereitstellung von AKS-Knoten auf lokalen Azure- und Windows Server-Clustern finden Sie im zweiten Artikel dieser Reihe Netzwerkarchitektur.
In der Architektur wird ein virtuelles Netzwerk verwendet, das IP-Adressen mithilfe einer der folgenden Netzwerkoptionen zuordnet:
- Netzwerk mit statischen IP-Adressen. Verwendet für alle Objekte in der Bereitstellung einen statischen, festgelegten Adressenpool. Es bietet zusätzliche Vorteile und garantiert, dass Workload und Anwendung stets erreichbar sind. Dies ist die empfohlene Methode.
- DHCP-Netzwerk. Ordnet den Kubernetes-Knoten, zugrunde liegenden VMs und Lastenausgleichsmodulen dynamische IP-Adressen über einen DHCP-Server (Dynamic Host Configuration Protocol) zu.
Ein Pool virtueller IP-Adressen ist ein Bereich reservierter IP-Adressen, der zum Zuordnen von IP-Adressen zum API-Server des Kubernetes-Clusters und für Kubernetes-Dienste verwendet wird.
Über Project Calico für Kubernetes werden Ihnen andere Netzwerkfeatures wie Netzwerkrichtlinien und Flusssteuerung zur Verfügung gestellt.
Speicheranforderungen
Alle Server im Cluster müssen die gleichen Laufwerkstypen mit der gleichen Größe und dem gleichen Modell aufweisen. Azure Local arbeitet mit direct-attached Serial Advanced Technology Attachment (SATA), serial Attached SCSI (SAS), Non-Volatile Memory Express (NVMe) oder persistenten Speicherlaufwerken, die physisch an einen Server angefügt sind. Für Clustervolumes verwendet HCI softwaredefinierte Speichertechnologie (Direkte Speicherplätze), um die physischen Laufwerke im Speicherpool zum Zweck der Fehlertoleranz, Skalierbarkeit und Leistungsoptimierung zu kombinieren. Anwendungen, die in Kubernetes auf Azure Local ausgeführt werden, erwarten häufig die folgenden Speicheroptionen, die ihnen zur Verfügung stehen:
- Volumes: Bieten eine Möglichkeit, Daten während des Lebenszyklus der Anwendung in mehreren Pods zu speichern, abzurufen und beizubehalten.
- Persistente Volumes. Eine von der Kubernetes-API erstellte und verwaltete Speicherressource, die unabhängig von der Lebensdauer eines einzelnen Pods vorhanden sein kann.
Erwägen Sie die Definition von Speicherklassen für verschiedene Ebenen und Standorte, um Kosten und Leistung zu optimieren. Die Speicherklassen unterstützen die dynamische Bereitstellung persistenter Volumes und definieren die Richtlinie reclaimPolicy, um die Aktion der zugrunde liegenden Speicherressource zur Verwaltung persistenter Volumes anzugeben, wenn der Pod gelöscht wird.
Verwalten von AKS auf Azure Local
Sie können AKS auf Azure Local mit den folgenden Verwaltungsoptionen verwalten:
- Windows Admin Center. Bietet eine intuitive Benutzeroberfläche für den Kubernetes-Operator zum Verwalten des Lebenszyklus von Azure Kubernetes-Dienstclustern auf Azure Local.
- PowerShell: Erleichtert das Herunterladen, Konfigurieren und Bereitstellen von AKS auf Azure Local. Das PowerShell-Modul unterstützt auch Bereitstellung und Konfiguration weiterer Workloadcluster und die Neukonfiguration bestehender Cluster.
Active Directory-Anforderungen
Integrieren Sie AKS in Azure Local- oder Windows Server Datacenter-Failovercluster in eine Active Directory Domain Services (AD DS)-Umgebung, um eine optimale Verwaltung zu ermöglichen. Verwenden Sie nach Möglichkeit separate Organisationseinheiten für die Server und Dienste von AKS auf Azure Local, um genauere Steuerung des Zugriffs und der Berechtigungen bereitzustellen. Die Active Directory-Integration in Azure Kubernetes Service auf Azure Local ermöglicht es einem Benutzer auf einem Computer, der einer Windows-Domäne beigetreten ist, eine Verbindung mit dem API-Server (mit Kubectl) mithilfe seiner SSO-Anmeldeinformationen (Single Sign-On) herzustellen.
Empfehlungen
Die folgenden Empfehlungen gelten für die meisten Szenarios. Halten Sie sich an die Empfehlungen, es sei denn, Sie haben eine spezielle Anforderung, die Vorrang hat.
Integrieren von AKS in HCI-Bereitstellungen mit Azure Arc
Integrieren Sie AKS-Bereitstellungen in Azure Arc, um die Gesamtkosten zu minimieren. Ziehen Sie dabei die Nutzung der folgenden Azure-Dienste in Betracht:
- Azure Monitor Container Insights Überwacht die Leistung von Containerworkloads, die in Linux- und Windows-Clustern ausgeführt werden. Das Feature erfasst über die Metrik-API Speicher- und Prozessormetriken von Controllern, Knoten und Containern. Mit Container Insights können Sie die Arbeitsspeicher- und Prozessorauslastung ermitteln, die Gesamtleistung des Pods bestimmen, das Verhalten des Clusters verstehen und für eine proaktive Überwachung Warnungen konfigurieren.
- Möglichkeiten zur Automatisierung. AKS bietet eine vielzahl von Automatisierungsfunktionen, mit Betriebssystemupdates in Kombination mit Vollständigstapel-Updates, einschließlich Firmware und Treibern, die von lokalen Azure-Anbietern und -Partnern bereitgestellt werden. Sie können Windows PowerShell lokal von einem der lokalen Azure-Computer oder remote von einem Verwaltungscomputer ausführen. Die Integration in Azure Automation und Azure Arc ermöglicht für virtualisierte und containerisierte Workloads eine Vielzahl von Automatisierungsszenarien.
- Velero und Azure Blob Storage. Velero ist ein Open-Source-Tool, das bedarfsgesteuerte und geplante Sicherungen sowie die Wiederherstellung aller Objekte im Kubernetes-Cluster für beliebige Ressourcen unterstützt, die in einer etcd-Datenbank als Kubernetes Custom Resource Definition (CRD) definiert und gespeichert sind. Das Tool ermöglicht mithilfe von Namespaces oder Bezeichnungsselektoren die Sicherung von Kubernetes-Ressourcen und -Volumes für einen gesamten Cluster oder einen Teil davon. Sie speichern den mit Velero erstellten Sicherungssatz in einem Azure-Speicherkonto in einem Blobcontainer.
- Azure Arc-fähiges Kubernetes Service. Stellt Azure Resource Manager-Darstellung von AKS in der lokalen Azure-Instanz bereit. Stellen Sie Azure Arc-fähige Agents in einem Kubernetes-Namespace bereit, um Protokolle und Metriken zu sammeln, Clustermetadaten, Clusterversion und Knotenanzahl zu erfassen und sicherzustellen, dass Agents eine optimale Leistung bringen.
- Azure Policy. Mit Azure Policy können Sie integrierte Sicherheitsrichtlinien im AKS-Cluster bereitstellen und erzwingen. Sie können außerdem mithilfe einer benutzerdefinierten Richtliniendefinition GitOps erzwingen, womit Sie den gewünschten Zustand der Kubernetes-Konfiguration (Bereitstellungen, Namespaces usw.) in einem Git-Repository deklarieren.
- Azure Policy für Kubernetes. Verwalten Sie die von Gatekeeper implementierten internen Clusterrichtlinien, stellen Sie die Richtliniendefinition als Einschränkungsvorlage im Cluster bereit, und erstellen Sie Berichte über den Konformitätsstatus Ihrer Kubernetes-Cluster an zentrale Stelle.
- Azure RBAC. Dient zur Rollenzuweisung und Verwaltung des Zugriffs auf Azure Arc-fähiges Kubernetes.
Überlegungen
Diese Überlegungen beruhen auf den Säulen des Azure Well-Architected Frameworks, d. h. einer Reihe von Grundsätzen, mit denen die Qualität von Workloads verbessert werden kann. Weitere Informationen finden Sie unter Microsoft Azure Well-Architected Framework.
Zuverlässigkeit
- Implementieren Sie eine hochverfügbare VM für den Verwaltungscluster und mehrere Hosts im Kubernetes-Cluster, um für Workloads einen Mindestgrad an Verfügbarkeit zu gewährleisten.
- Sichern und Wiederherstellen von Workloadclustern mit Velero und Azure Blob Storage Definieren Sie Verfügbarkeits- und Wiederherstellungsziele, um die geschäftlichen Anforderungen zu erfüllen.
- AKS-Bereitstellungen nutzen Failoverclustering und Livemigration, um Hochverfügbarkeit und Fehlertoleranz zu bieten. Die Livemigration ist eine Hyper-V-Funktion, mit der Sie ausgeführte VMs ohne wahrgenommene Downtime transparent von einem Hyper-V-Host zu einem anderen migrieren können.
- Konfigurieren Sie Bereitstellungen für die Verwendung von Kubernetes-Funktionen wie Deployments, Affinity Mapping und ReplicaSets, um sicherzustellen, dass die Pods bei Störungen resilient sind.
- Stellen Sie sicher, dass die Dienste, auf die im Abschnitt Architektur verwiesen wird, in der Region unterstützt werden, in der Azure Arc bereitgestellt wird.
- Erwägen Sie das Einschränken der Verwendung öffentlicher Containerimages, und ziehen Sie nur Daten aus Containerregistrierungen heran, bei denen Sie die Kontrolle über die SLA haben, wie z. B. ACR.
Sicherheit
Konzentrieren Sie sich auf den gesamten Stapel, indem Sie den Host und die Container schützen.
Sicherheit der Infrastruktur
- Verwenden Sie azure Local certified hardware which provides Secure Boot, UEFI, and TPM settings out of the box. Diese Technologien helfen in Kombination mit der virtualisierungsbasierten Sicherheit (VBS) dabei, sicherheitsrelevante Workloads zu schützen. Besuchen Sie lokalen Azure-Lösungen für überprüfte Lösungen.
- Verwenden Sie das Feature „Sicherer Start“, um zu gewährleisten, dass der Server nur Software startet, die von einem Originalgerätehersteller als vertrauenswürdig eingestuft wurde.
- Steuern Sie den Startvorgang des Servers über UEFI.
- Mit TPM können Sie kryptografische Schlüssel speichern und alle hardwarebasierten, sicherheitsbezogenen Funktionen isolieren.
- Mit der BitLocker-Laufwerkverschlüsselung können Sie Volumes des Typs „Direkte Speicherplätze“ mit ruhenden Daten verschlüsseln.
- Konfigurieren Sie Calico-Netzwerkrichtlinien, um Regeln für die Netzwerkisolation zwischen Containern festzulegen.
- Bei erhöhten Sicherheitsanforderungen sollten Sie die Bereitstellung eines Workloadclusters auf einem dedizierten Windows-Server in Betracht ziehen.
- Mit dem über Windows Admin Center verfügbaren Microsoft Defender for Cloud können Sie die Sicherheitseinstellungen für Server und Clouds zentral verwalten. Das Tool bietet Bedrohungsschutz für Ihre Arc-fähigen Kubernetes-Cluster. Microsoft Defender for Cloud sammelt Daten von Knoten im Cluster und sendet sie zur weiteren Analyse an das Azure Defender for Kubernetes-Back-End in der Cloud.
- Schützen Sie die Kommunikation mit Zertifikaten.
- Rotieren Sie die Verschlüsselungsschlüssel des Kubernetes-Geheimnisspeichers (etcd) mithilfe des KMS-Plug-Ins (Schlüsselverwaltungserver).
Anwendungssicherheit
- Verwenden Sie Azure Key Vault Secrets-Anbietererweiterung auf Ihren AKS auf Azure Local, um Ihre geheimen Schlüssel, die von verschiedenen Anwendungen verwendet werden, weiter zu schützen, indem Sie sie im Azure Key Vault-Dienst speichern.
- Verwenden Sie das Add-On für Open Service Mesh AKS, um die Kommunikation zwischen Diensten zu schützen, indem gegenseitiges TLS (mTLS) aktiviert wird. Sie können mit diesem Add-On auch detailliertere Zugriffssteuerungsrichtlinien für Dienste festlegen und umsetzen.
- Mithilfe von Azure Policy for Kubernetes können Sie Richtlinien für Clustersicherheit erzwingen, wie z. B. für nicht berechtigte Pods.
- Verwenden Sie eine Azure Container Registry-Instanz, die ihr Containerrepository auf Sicherheitsrisiken überprüft.
- Nutzen Sie gruppenverwaltete Sicherheitskonten für Windows-Workloads mit einem nicht in die Domäne eingebundenen Host. (Gilt nur für Windows Server.)
Containersicherheit
- Härten Sie die Host- und Daemonumgebung, indem Sie unnötige Dienste entfernen.
- Schließen Sie Geheimnisse nicht in die Images ein, und binden Sie sie nur über die Engine für die Containerorchestrierung ein.
- Schützen Sie die Images in einer Azure Container Registry-Instanz, die die Überprüfung von Sicherheitsrisiken und RBAC unterstützt.
- Isolieren Sie Container, und vermeiden Sie die Ausführung von Containern im privilegierten Modus, um Angreifer daran zu hindern, ihre Berechtigungen zu erweitern, sollte der Container kompromittiert werden.
Kostenoptimierung
- Mithilfe des Azure-Preisrechners können Sie die Kosten für die in der Architektur verwendeten Dienste schätzen. Weitere bewährte Methoden finden Sie im Abschnitt Grundsätze der Kostenoptimierung in den Artikeln zum Microsoft Azure Well-Architected Framework. Weitere Informationen finden Sie unter Preise.
- Erwägen Sie die Implementierung von Hyperthreading auf Ihrem physischen Computer, um die Kosten zu optimieren, denn die Abrechnungseinheit für AKS ist ein virtueller Kern.
Optimaler Betrieb
- Clustererstellungs-Assistent. Bietet eine vereinfachte Bereitstellung und Verwaltung mithilfe von Windows Admin Center. Der assistent Erstellen von Clustern in Windows Admin Center stellt eine assistentengesteuerte Schnittstelle bereit, die Sie durch das Erstellen einer lokalen Azure-Instanz führt. Der Clustererstellungs-Assistent stellt einen Kompromiss aus Gründen der Vereinfachung gegenüber der Erstellung von Bereitstellungsskripts dar, den Sie zwecks Überwachung und Wiederholbarkeit für mehrere Bereitstellungen mit der Quellcodeverwaltung steuern können. Ebenso vereinfacht Windows Admin Center den Prozess der Verwaltung von lokalen Azure-VMs.
- Azure Arc: Nehmen Sie die Integration in Azure Arc oder in eine Reihe von Azure-Diensten vor, die zusätzliche Verwaltungs-, Wartungs- und Resilienzfunktionen bieten (z. B. Azure Monitor und Log Analytics).
- GitOps. Verwenden Sie anstelle einer manuellen Konfiguration von Kubertnetes-Komponenten automatisierte Tools zum Anwenden von Konfigurationen auf einen Kubernetes-Cluster, da diese Konfigurationen in ein Quellrepository eingecheckt werden. Dieser Ansatz wird häufig als GitOps bezeichnet, und zu den beliebten GitOps-Lösungen für Kubernetes gehören Flux und Argo CD. In dieser Architektur wird empfohlen, die von Microsoft bereitgestellte GitOps-Erweiterung zu verwenden, die auf Flux basiert.
- Azure Arc-fähiges Open Service Mesh (OSM). Ein schlankes, erweiterbares, cloudnatives Dienstmesh, mit dem Benutzer die standardmäßigen Einblickfunktionen für sehr dynamische Microserviceumgebungen einheitlich verwalten, schützen und erhalten können.
Effiziente Leistung
- Verwenden Sie die lokal zertifizierte Azure-Hardware für verbesserte Anwendungsbetriebszeit und -leistung, vereinfachte Verwaltung und Vorgänge sowie niedrigere Gesamtbetriebskosten.
- Grundlegendes zu den AKS für lokale Azure-Grenzwerte. Microsoft unterstützt AKS in Azure Stack-Bereitstellungen mit maximal acht physischen Servern pro Cluster, acht Kubernetes-Clustern und 200 VMs.
- Die Skalierung von AKS auf Azure Local hängt von der Anzahl der Workerknoten und Zielcluster ab. Um die Hardware für die Workerknoten ordnungsgemäß zu dimensionieren, müssen Sie die Anzahl von Pods, Containern und Workerknoten in einem Zielcluster antizipieren. Sie sollten sicherstellen, dass mindestens 15% der lokalen Azure-Kapazität sowohl für geplante als auch für ungeplante Fehler reserviert sind. Nutzen Sie die IT-Ressourcen effizient für die Erfüllung von Systemanforderungen, und halten Sie diese Effizienz aufrecht, wenn sich die Nachfrage ändert und sich Technologien weiterentwickeln. Die allgemeine Regel lautet: Wenn ein Knoten während der Wartung oder bei einem ungeplanten Ausfall offline geschaltet wird, reicht die Kapazität der übrigen Knoten aus, um die erhöhte Last zu bewältigen.
- Erwägen Sie, die Größe der Lastenausgleichs-VM zu erhöhen, wenn Sie in jedem Zielcluster viele Kubernetes-Dienste ausführen.
- AKS auf Azure Local verteilt die Arbeitsknoten für jeden Knotenpool in einem Zielcluster mithilfe der Lokalen Platzierungslogik von Azure.
- Planen Sie IP-Adressreservierungen zum Konfigurieren von AKS-Hosts, Workloadclustern, Cluster-API-Servern, Kubernetes Service-Instanzen und Anwendungsdiensten. Microsoft empfiehlt, mindestens 256 IP-Adressen für die AKS-Bereitstellung in Azure Local zu reservieren.
- Erwägen Sie die Implementierung eines Eingangsdatencontrollers, der auf Layer 7 funktioniert und intelligentere Regeln zum Verteilen von Anwendungsdatenverkehr verwendet.
- Implementieren Sie für die Zuordnung von Bandbreite für Datenverkehr eine Optimierung der Netzwerkleistung.
- Verwenden Sie für umfangreiche Workloads die GPU-Beschleunigung (Graphics Processing Unit).
Beitragende
Dieser Artikel wird von Microsoft gepflegt. Er wurde ursprünglich von folgenden Mitwirkenden geschrieben:
Hauptautoren:
- Lisa DenBeste | Project Management Program Manager
- Kenny Harder | Project Manager
- Mike Kostersitz | Principal Program Manager Lead
- Meg Olsen | Principal
- Nate Waters | Product Marketing Manager
Andere Mitwirkende:
- Walter Oliver | Senior Program Manager