Dela via


Metodtips för distribution och klustertillförlitlighet för Azure Kubernetes Service (AKS)

Den här artikeln innehåller metodtips för klustertillförlitlighet som implementeras både på distributions- och klusternivå för dina Azure Kubernetes Service-arbetsbelastningar (AKS). Artikeln är avsedd för klusteroperatörer och utvecklare som ansvarar för att distribuera och hantera program i AKS.

Metodtipsen i den här artikeln är indelat i följande kategorier:

Kategori Bästa praxis
Metodtips på distributionsnivå Budgetar för poddstörningar (PDB)
Podd-processor- och minnesgränser
Förstoppade krokar
maxUnavailable
Begränsningar för spridning av poddtopologi
Beredskap, livskraft och startavsökningar
Program med flera repliker
Metodtips för kluster- och nodpoolnivå Tillgänglighetszoner
Autoskalning av kluster
Standard Load Balancer
Systemnodpooler
Accelererat nätverk
Bildversioner
Azure CNI för dynamisk IP-allokering
virtuella V5 SKU-datorer
Använd inte virtuella datorer i B-serien
Premium-diskar
Container Insights
Azure Policy

Metodtips på distributionsnivå

Följande metodtips på distributionsnivå hjälper dig att säkerställa hög tillgänglighet och tillförlitlighet för dina AKS-arbetsbelastningar. Dessa metodtips är lokala konfigurationer som du kan implementera i YAML-filerna för dina poddar och distributioner.

Kommentar

Se till att du implementerar dessa metodtips varje gång du distribuerar en uppdatering till ditt program. Annars kan det uppstå problem med programmets tillgänglighet och tillförlitlighet, till exempel oavsiktliga programavbrott.

Budgetar för poddstörningar (PDB)

Vägledning för bästa praxis

Använd POD-avbrottsbudgetar (PDB) för att säkerställa att ett minsta antal poddar förblir tillgängliga under frivilliga avbrott, till exempel uppgraderingsåtgärder eller oavsiktliga poddborttagningar.

Med budgetar för poddstörningar (PDB) kan du definiera hur distributioner eller replikuppsättningar svarar vid frivilliga avbrott, till exempel uppgraderingsåtgärder eller oavsiktliga borttagningar av poddar. Med hjälp av PDF-filer kan du definiera ett minsta eller högsta antal otillgängliga resurser. PDB:er påverkar endast borttagnings-API:et för frivilliga störningar.

Anta till exempel att du måste utföra en klusteruppgradering och redan har definierat en PDB. Innan du utför klusteruppgradering ser Kubernetes-schemaläggaren till att det minsta antalet poddar som definierats i PDB är tillgängliga. Om uppgraderingen skulle leda till att antalet tillgängliga poddar hamnar under det minimum som definierats i PDF-filerna schemalägger schemaläggaren extra poddar på andra noder innan uppgraderingen kan fortsätta. Om du inte anger ett PDB har schemaläggaren inga begränsningar för antalet poddar som kan vara otillgängliga under uppgraderingen, vilket kan leda till brist på resurser och potentiella klusteravbrott.

I följande exempel på PDB-definitionsfilen minAvailable anger fältet det minsta antal poddar som måste vara tillgängliga under frivilliga avbrott. Värdet kan vara ett absolut tal (till exempel 3) eller en procentandel av det önskade antalet poddar (till exempel 10 %).

apiVersion: policy/v1
kind: PodDisruptionBudget
metadata:
   name: mypdb
spec:
   minAvailable: 3 # Minimum number of pods that must remain available during voluntary disruptions
   selector:
    matchLabels:
      app: myapp

Mer information finns i Planera för tillgänglighet med hjälp av PDF-filer och Ange en avbrottsbudget för ditt program.

Processor- och minnesgränser för poddar

Vägledning för bästa praxis

Ange poddernas processor- och minnesgränser för alla poddar för att säkerställa att poddar inte förbrukar alla resurser på en nod och för att ge skydd vid tjänsthot, till exempel DDoS-attacker.

Cpu- och minnesgränser för poddar definierar den maximala mängd cpu och minne som en podd kan använda. När en podd överskrider sina definierade gränser markeras den för borttagning. Mer information finns i CPU-resursenheter i Kubernetes - och Minnesresursenheter i Kubernetes.

Genom att ange cpu- och minnesgränser kan du upprätthålla nodhälsan och minimera påverkan på andra poddar på noden. Undvik att ange en poddgräns som är högre än vad noderna kan stödja. Varje AKS-nod reserverar en viss mängd cpu och minne för kubernetes-kärnkomponenterna. Om du anger en poddgräns som är högre än vad noden kan stödja kan programmet försöka använda för många resurser och påverka andra poddar negativt på noden. Klusteradministratörer måste ange resurskvoter för ett namnområde som kräver att resursbegäranden och gränser anges. Mer information finns i Framtvinga resurskvoter i AKS.

I följande exempel på podddefinitionsfilen resources anger avsnittet cpu- och minnesgränserna för podden:

kind: Pod
apiVersion: v1
metadata:
  name: mypod
spec:
  containers:
  - name: mypod
    image: mcr.microsoft.com/oss/nginx/nginx:1.15.5-alpine
    resources:
      requests:
        cpu: 100m
        memory: 128Mi
      limits:
        cpu: 250m
        memory: 256Mi

Dricks

Du kan använda kubectl describe node kommandot för att visa processor- och minneskapaciteten för dina noder, som du ser i följande exempel:

kubectl describe node <node-name>

# Example output
Capacity:
 cpu:                8
 ephemeral-storage:  129886128Ki
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             32863116Ki
 pods:               110
Allocatable:
 cpu:                7820m
 ephemeral-storage:  119703055367
 hugepages-1Gi:      0
 hugepages-2Mi:      0
 memory:             28362636Ki
 pods:               110

Mer information finns i Tilldela CPU-resurser till containrar och poddar och Tilldela minnesresurser till containrar och poddar.

Förstoppade krokar

Vägledning för bästa praxis

Använd i tillämpliga fall förstoppade krokar för att säkerställa att en container avslutas korrekt.

En PreStop hook anropas omedelbart innan en container avslutas på grund av en API-begäran eller hanteringshändelse, till exempel preemption, resurskonkurrens eller ett liveness-/startavsökningsfel. Ett anrop till kroken PreStop misslyckas om containern redan är i ett avslutat eller slutfört tillstånd, och kroken måste slutföras innan TERM-signalen för att stoppa containern skickas. Nedräkningen av poddens respitperiod för avslutning börjar innan kroken PreStop körs, så containern avslutas så småningom inom respitperioden för uppsägning.

I följande exempel visar podddefinitionsfilen hur du använder en PreStop krok för att säkerställa en korrekt avslutning av en container:

apiVersion: v1
kind: Pod
metadata:
  name: lifecycle-demo
spec:
  containers:
  - name: lifecycle-demo-container
    image: nginx
    lifecycle:
      postStart:
        exec:
          command: ["/bin/sh", "-c", "echo Hello from the postStart handler > /usr/share/message"]
      preStop:
        exec:
          command: ["/bin/sh","-c","nginx -s quit; while killall -0 nginx; do sleep 1; done"]

Mer information finns i Krokar för containerlivscykel och Avslutning av poddar.

maxUnavailable

Vägledning för bästa praxis

Definiera det maximala antalet poddar som kan vara otillgängliga under en löpande uppdatering med hjälp av fältet i distributionen maxUnavailable för att säkerställa att ett minsta antal poddar förblir tillgängliga under uppgraderingen.

Fältet maxUnavailable anger det maximala antalet poddar som kan vara otillgängliga under uppdateringsprocessen. Värdet kan vara ett absolut tal (till exempel 3) eller en procentandel av det önskade antalet poddar (till exempel 10 %). maxUnavailable gäller för borttagnings-API:et, som används under löpande uppdateringar.

Följande exempel på distributionsmanifestet maxAvailable använder fältet för att ange det maximala antalet poddar som kan vara otillgängliga under uppdateringsprocessen:

apiVersion: apps/v1
kind: Deployment
metadata:
 name: nginx-deployment
 labels:
   app: nginx
spec:
 replicas: 3
 selector:
   matchLabels:
     app: nginx
 template:
   metadata:
     labels:
       app: nginx
   spec:
     containers:
     - name: nginx
       image: nginx:1.14.2
       ports:
       - containerPort: 80
 strategy:
   type: RollingUpdate
   rollingUpdate:
     maxUnavailable: 1 # Maximum number of pods that can be unavailable during the upgrade

Mer information finns i Maximalt otillgängligt.

Spridningsbegränsningar för poddtopologi

Vägledning för bästa praxis

Använd begränsningar för poddtopologispridning för att säkerställa att poddar sprids över olika noder eller zoner för att förbättra tillgängligheten och tillförlitligheten.

Du kan använda begränsningar för poddtopologispridning för att styra hur poddar sprids över klustret baserat på nodernas topologi och sprida poddar över olika noder eller zoner för att förbättra tillgängligheten och tillförlitligheten.

I följande exempel visar podddefinitionsfilen hur du använder fältet topologySpreadConstraints för att sprida poddar över olika noder:

apiVersion: v1
kind: Pod
metadata:
  name: example-pod
spec:
  # Configure a topology spread constraint
  topologySpreadConstraints:
    - maxSkew: <integer>
      minDomains: <integer> # optional
      topologyKey: <string>
      whenUnsatisfiable: <string>
      labelSelector: <object>
      matchLabelKeys: <list> # optional
      nodeAffinityPolicy: [Honor|Ignore] # optional
      nodeTaintsPolicy: [Honor|Ignore] # optional

Mer information finns i Begränsningar för spridning av poddtopologi.

Beredskap, livskraft och startavsökningar

Vägledning för bästa praxis

Konfigurera beredskap, liveness och startavsökningar när det är tillämpligt för att förbättra återhämtning vid hög belastning och lägre omstarter av containrar.

Beredskapsavsökningar

I Kubernetes använder kubelet beredskapsavsökningar för att veta när en container är redo att börja acceptera trafik. En podd anses vara klar när alla dess containrar är klara. När en podd inte är klar tas den bort från tjänstens lastbalanserare. Mer information finns i Beredskapsavsökningar i Kubernetes.

Följande exempel på podddefinitionsfilen visar en konfiguration av beredskapsavsökning:

readinessProbe:
  exec:
    command:
    - cat
    - /tmp/healthy
  initialDelaySeconds: 5
  periodSeconds: 5

Mer information finns i Konfigurera beredskapsavsökningar.

Liveness-avsökningar

I Kubernetes använder kubelet liveness-avsökningar för att veta när en container ska startas om. Om en container misslyckas med sin liveness-avsökning startas containern om. Mer information finns i Liveness-avsökningar i Kubernetes.

Följande exempel på en podddefinitionsfil visar en konfiguration av liveness-avsökning:

livenessProbe:
  exec:
    command:
    - cat
    - /tmp/healthy

En annan typ av liveness-avsökning använder en HTTP GET-begäran. I följande exempel på podddefinitionsfilen visas en konfiguration för HTTP GET-begärandeavsökning:

apiVersion: v1
kind: Pod
metadata:
  labels:
    test: liveness
  name: liveness-http
spec:
  containers:
  - name: liveness
    image: registry.k8s.io/liveness
    args:
    - /server
    livenessProbe:
      httpGet:
        path: /healthz
        port: 8080
        httpHeaders:
        - name: Custom-Header
          value: Awesome
      initialDelaySeconds: 3
      periodSeconds: 3

Mer information finns i Konfigurera liveness-avsökningar och Definiera en HTTP-begäran för liveness.

Startavsökningar

I Kubernetes använder kubelet startavsökningar för att veta när ett containerprogram har startats. När du konfigurerar en startavsökning startar inte beredskaps- och liveness-avsökningarna förrän startavsökningen lyckas, vilket säkerställer att beredskaps- och livenessavsökningarna inte stör programstarten. Mer information finns i Startavsökningar i Kubernetes.

Följande exempel på en podddefinitionsfil visar en konfiguration av startavsökning:

startupProbe:
  httpGet:
    path: /healthz
    port: 8080
  failureThreshold: 30
  periodSeconds: 10

Program med flera repliker

Vägledning för bästa praxis

Distribuera minst två repliker av ditt program för att säkerställa hög tillgänglighet och återhämtning i nod-down-scenarier.

I Kubernetes kan du använda fältet replicas i distributionen för att ange hur många poddar du vill köra. Om du kör flera instanser av ditt program kan du säkerställa hög tillgänglighet och återhämtning i scenarier med nod-down. Om du har aktiverat tillgänglighetszoner kan du använda fältet replicas för att ange hur många poddar du vill köra i flera tillgänglighetszoner.

Följande exempel på podddefinitionsfilen visar hur du använder fältet replicas för att ange antalet poddar som du vill köra:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: nginx-deployment
  labels:
    app: nginx
spec:
  replicas: 3
  selector:
    matchLabels:
      app: nginx
  template:
    metadata:
      labels:
        app: nginx
    spec:
      containers:
      - name: nginx
        image: nginx:1.14.2
        ports:
        - containerPort: 80

Mer information finns i Rekommenderad aktiv-aktiv lösning för hög tillgänglighet för AKS och repliker i Distributionsspecifikationer.

Metodtips för kluster- och nodpoolnivå

Följande metodtips på kluster- och nodpoolnivå hjälper dig att säkerställa hög tillgänglighet och tillförlitlighet för dina AKS-kluster. Du kan implementera dessa metodtips när du skapar eller uppdaterar dina AKS-kluster.

Tillgänglighetszoner

Vägledning för bästa praxis

Använd flera tillgänglighetszoner när du skapar ett AKS-kluster för att säkerställa hög tillgänglighet i scenarier med zon ned. Tänk på att du inte kan ändra konfigurationen för tillgänglighetszonen när du har skapat klustret.

Tillgänglighetszoner är avgränsade grupper av datacenter i en region. Dessa zoner är tillräckligt nära för att ha anslutningar med låg latens till varandra, men tillräckligt långt ifrån varandra för att minska sannolikheten för att mer än en zon påverkas av lokala avbrott eller väder. Med hjälp av tillgänglighetszoner kan dina data förbli synkroniserade och tillgängliga i scenarier med zon ned. Mer information finns i Köra i flera zoner.

Autoskalning av kluster

Vägledning för bästa praxis

Använd autoskalning av kluster för att säkerställa att klustret kan hantera ökad belastning och minska kostnaderna vid låg belastning.

Om du vill hänga med i programkraven i AKS kan du behöva justera antalet noder som kör dina arbetsbelastningar. Komponenten autoskalning av kluster söker efter poddar i klustret som inte kan schemaläggas på grund av resursbegränsningar. När autoskalning av kluster identifierar problem skalar den upp antalet noder i nodpoolen för att uppfylla programbehovet. Den kontrollerar också regelbundet noder på grund av brist på poddar som körs och skalar ned antalet noder efter behov. Mer information finns i Autoskalning av kluster i AKS.

Du kan använda parametern --enable-cluster-autoscaler när du skapar ett AKS-kluster för att aktivera klustrets autoskalning, som du ser i följande exempel:

az aks create \
    --resource-group myResourceGroup \
    --name myAKSCluster \
    --node-count 2 \
    --vm-set-type VirtualMachineScaleSets \
    --load-balancer-sku standard \
    --enable-cluster-autoscaler  \
    --min-count 1 \
    --max-count 3 \
    --generate-ssh-keys

Du kan också aktivera autoskalning av kluster i en befintlig nodpool och konfigurera mer detaljerad information om autoskalning av klustret genom att ändra standardvärdena i autoskalningsprofilen för hela klustret.

Mer information finns i Använda autoskalning av kluster i AKS.

Standard Load Balancer

Vägledning för bästa praxis

Använd Standard Load Balancer för att ge bättre tillförlitlighet och resurser, stöd för flera tillgänglighetszoner, HTTP-avsökningar och funktioner i flera datacenter.

I Azure är Standard Load Balancer SKU utformad för att vara utrustad för belastningsutjämning av nätverksskiktstrafik när hög prestanda och låg svarstid behövs. Standard Load Balancer dirigerar trafik inom och mellan regioner och till tillgänglighetszoner för hög återhämtning. Standard-SKU:n är den rekommenderade och standard-SKU:n som ska användas när du skapar ett AKS-kluster.

Viktigt!

Den 30 september 2025 dras Basic Load Balancer tillbaka. Mer information finns i det officiella meddelandet. Vi rekommenderar att du använder Standard Load Balancer för nya distributioner och uppgraderar befintliga distributioner till Standard Load Balancer. Mer information finns i Uppgradera från Basic Load Balancer.

I följande exempel visas ett LoadBalancer tjänstmanifest som använder Standard Load Balancer:

apiVersion: v1
kind: Service
metadata:
  annotations:
    service.beta.kubernetes.io/azure-load-balancer-ipv4 # Service annotation for an IPv4 address
  name: azure-load-balancer
spec:
  type: LoadBalancer
  ports:
  - port: 80
  selector:
    app: azure-load-balancer

Mer information finns i Använda en standardlastbalanserare i AKS.

Dricks

Du kan också använda en ingressstyrenhet eller ett tjänstnät för att hantera nätverkstrafik, där varje alternativ ger olika funktioner.

Systemnodpooler

Använda dedikerade systemnodpooler

Vägledning för bästa praxis

Använd systemnodpooler för att säkerställa att inga andra användarprogram körs på samma noder, vilket kan orsaka resursbrist och påverka systempoddar.

Använd dedikerade systemnodpooler för att säkerställa att inget annat användarprogram körs på samma noder, vilket kan orsaka brist på resurser och potentiella klusteravbrott på grund av konkurrensförhållanden. Om du vill använda en dedikerad systemnodpool kan du använda CriticalAddonsOnly taint i systemnodpoolen. Mer information finns i Använda systemnodpooler i AKS.

Automatisk skalning för systemnodpooler

Vägledning för bästa praxis

Konfigurera autoskalning för systemnodpooler för att ange minsta och högsta skalningsgränser för nodpoolen.

Använd autoskalning på nodpooler för att konfigurera minsta och högsta skalningsgränser för nodpoolen. Systemnodpoolen ska alltid kunna skalas för att uppfylla kraven från systempoddar. Om systemnodpoolen inte kan skalas får klustret slut på resurser för att hantera schemaläggning, skalning och belastningsutjämning, vilket kan leda till ett kluster som inte svarar.

Mer information finns i Använda autoskalning av kluster i nodpooler.

Minst tre noder per systemnodpool

Vägledning för bästa praxis

Se till att systemnodpooler har minst tre noder för att säkerställa återhämtning mot scenarier med frysning/uppgradering, vilket kan leda till att noder startas om eller stängs av.

Systemnodpooler används för att köra systempoddar, till exempel kube-proxy, coredns och Azure CNI-plugin-programmet. Vi rekommenderar att du ser till att systemnodpooler har minst tre noder för att säkerställa återhämtning mot scenarier med frysning/uppgradering, vilket kan leda till att noder startas om eller stängs av. Mer information finns i Hantera systemnodpooler i AKS.

Accelererat nätverk

Vägledning för bästa praxis

Använd Accelererat nätverk för att ge lägre svarstid, minskad jitter och minskad CPU-användning på dina virtuella datorer.

Accelererat nätverk möjliggör enkel rot-I/O-virtualisering (SR-IOV)virtuella datortyper som stöds, vilket avsevärt förbättrar nätverksprestandan.

Följande diagram visar hur två virtuella datorer kommunicerar med och utan accelererat nätverk:

Skärmbild som visar kommunikationen mellan virtuella Azure-datorer med och utan accelererat nätverk.

Mer information finns i Översikt över accelererat nätverk.

Bildversioner

Vägledning för bästa praxis

Bilder bör inte använda taggen latest .

Taggar för containeravbildningar

Att använda taggen latest för containeravbildningar kan leda till oförutsägbart beteende och gör det svårt att spåra vilken version av avbildningen som körs i klustret. Du kan minimera dessa risker genom att integrera och köra genomsöknings- och reparationsverktyg i dina containrar vid kompilering och körning. Mer information finns i Metodtips för hantering av containeravbildningar i AKS.

Uppgraderingar av nodbild

AKS tillhandahåller flera automatiska uppgraderingskanaler för nod-OS-avbildningsuppgraderingar. Du kan använda dessa kanaler för att styra tidpunkten för uppgraderingar. Vi rekommenderar att du ansluter dessa kanaler för automatisk uppgradering för att säkerställa att noderna kör de senaste säkerhetskorrigeringarna och uppdateringarna. Mer information finns i Automatisk uppgradering av nodoperativsystemavbildningar i AKS.

Standardnivå för produktionsarbetsbelastningar

Vägledning för bästa praxis

Använd standardnivån för produktarbetsbelastningar för större klustertillförlitlighet och resurser, stöd för upp till 5 000 noder i ett kluster och Serviceavtal för drifttid aktiverat som standard. Om du behöver LTS kan du överväga att använda Premium-nivån.

Standardnivån för Azure Kubernetes Service (AKS) tillhandahåller ett serviceavtal på 99,9 % drifttid (SLA) för dina produktionsarbetsbelastningar. Standardnivån ger också större klustertillförlitlighet och resurser, stöd för upp till 5 000 noder i ett kluster och serviceavtal för drifttid aktiverat som standard. Mer information finns i Prisnivåer för AKS-klusterhantering.

Azure CNI för dynamisk IP-allokering

Vägledning för bästa praxis

Konfigurera Azure CNI för dynamisk IP-allokering för bättre IP-användning och för att förhindra IP-överbelastning för AKS-kluster.

Funktionen för dynamisk IP-allokering i Azure CNI allokerar podd-IP-adresser från ett undernät som är separat från undernätet som är värd för AKS-klustret och erbjuder följande fördelar:

  • Bättre IP-användning: IP-adresser allokeras dynamiskt till klusterpoddar från poddundernätet. Detta leder till bättre användning av IP-adresser i klustret jämfört med den traditionella CNI-lösningen, som utför statisk allokering av IP-adresser för varje nod.
  • Skalbart och flexibelt: Nod- och poddundernät kan skalas separat. Ett enda poddundernät kan delas mellan flera nodpooler i ett kluster eller över flera AKS-kluster som distribueras i samma virtuella nätverk. Du kan också konfigurera ett separat poddundernät för en nodpool.
  • Höga prestanda: Eftersom podden har tilldelats IP-adresser för virtuella nätverk har de direkt anslutning till andra klusterpoddar och resurser i det virtuella nätverket. Lösningen stöder mycket stora kluster utan försämrad prestanda.
  • Separata VNet-principer för poddar: Eftersom poddar har ett separat undernät kan du konfigurera separata VNet-principer för dem som skiljer sig från nodprinciper. Detta möjliggör många användbara scenarier som att endast tillåta internetanslutning för poddar och inte för noder, åtgärda käll-IP för podden i en nodpool med hjälp av en Azure NAT Gateway och använda NSG:er för att filtrera trafik mellan nodpooler.
  • Kubernetes-nätverksprinciper: Både Azure-nätverksprinciperna och Calico fungerar med den här lösningen.

Mer information finns i Konfigurera Azure CNI-nätverk för dynamisk allokering av IP-adresser och utökat undernätsstöd.

virtuella V5 SKU-datorer

Vägledning för bästa praxis

Använd virtuella V5-SKU:er för att få bättre prestanda under och efter uppdateringar, mindre övergripande påverkan och en mer tillförlitlig anslutning för dina program.

För nodpooler i AKS använder du virtuella V5 SKU-datorer med tillfälliga OS-diskar för att tillhandahålla tillräckligt med beräkningsresurser för kube-systempoddar. Mer information finns i Metodtips för prestanda och skalning av stora arbetsbelastningar i AKS.

Använd inte virtuella datorer i B-serien

Vägledning för bästa praxis

Använd inte virtuella datorer i B-serien för AKS-kluster eftersom de har låga prestanda och inte fungerar bra med AKS.

Virtuella datorer i B-serien har låga prestanda och fungerar inte bra med AKS. I stället rekommenderar vi att du använder virtuella V5 SKU-datorer.

Premium-diskar

Vägledning för bästa praxis

Använd Premium-diskar för att uppnå 99,9 % tillgänglighet på en virtuell dator (VM).

Azure Premium-diskar erbjuder en konsekvent disksvarstid på undermillisekunder och hög IOPS och hela tiden. Premium-diskar är utformade för att ge prestanda med låg svarstid, höga prestanda och konsekventa diskprestanda för virtuella datorer.

Följande YAML-exempelmanifest visar en definition av lagringsklassen för en Premium-disk:

apiVersion: storage.k8s.io/v1
kind: StorageClass
metadata:
   name: premium2-disk-sc
parameters:
   cachingMode: None
   skuName: PremiumV2_LRS
   DiskIOPSReadWrite: "4000"
   DiskMBpsReadWrite: "1000"
provisioner: disk.csi.azure.com
reclaimPolicy: Delete
volumeBindingMode: Immediate
allowVolumeExpansion: true

Mer information finns i Använda Azure Premium SSD v2-diskar på AKS.

Containerinsikter

Vägledning för bästa praxis

Aktivera Container Insights för att övervaka och diagnostisera prestanda för dina containerbaserade program.

Container Insights är en funktion i Azure Monitor som samlar in och analyserar containerloggar från AKS. Du kan analysera insamlade data med en samling vyer och fördefinierade arbetsböcker.

Du kan aktivera Container Insights-övervakning på ditt AKS-kluster med hjälp av olika metoder. I följande exempel visas hur du aktiverar Container Insights-övervakning på ett befintligt kluster med hjälp av Azure CLI:

az aks enable-addons -a monitoring --name myAKSCluster --resource-group myResourceGroup

Mer information finns i Aktivera övervakning för Kubernetes-kluster.

Azure Policy

Vägledning för bästa praxis

Tillämpa och tillämpa säkerhets- och efterlevnadskrav för dina AKS-kluster med hjälp av Azure Policy.

Du kan tillämpa och tillämpa inbyggda säkerhetsprinciper på dina AKS-kluster med hjälp av Azure Policy. Azure Policy hjälper till att framtvinga organisationsstandarder och utvärdera efterlevnad i stor skala. När du har installerat Azure Policy-tillägget för AKS kan du använda enskilda principdefinitioner eller grupper av principdefinitioner som kallas initiativ för dina kluster.

Mer information finns i Skydda dina AKS-kluster med Azure Policy.

Nästa steg

Den här artikeln fokuserar på metodtips för distribution och klustertillförlitlighet för AKS-kluster (Azure Kubernetes Service). Mer metodtips finns i följande artiklar: