Empfehlungen zur Leistung
Anhand der Empfehlungen zur Leistung in Azure Advisor können Sie die Geschwindigkeit und Reaktionszeit Ihrer unternehmenskritischen Anwendungen verbessern. Empfehlungen des Advisor zur Leistung erhalten Sie auf dem Advisor-Dashboard auf der Registerkarte Leistung.
Melden Sie sich am Azure-Portal an.
Suchen Sie auf einer beliebigen Seite nach dem Eintrag Advisor, und wählen Sie ihn aus.
Wählen Sie im Advisor-Dashboard die Registerkarte Leistung aus.
KI und Machine Learning
429 Drosselung auf dieser Ressource erkannt
Wir haben festgestellt, dass innerhalb eines Tageszeitraums 1.000 oder mehr 429 Drosselungsfehler für diese Ressource aufgetreten sind. Erwägen Sie, die automatische Skalierung zu aktivieren, um höhere Anrufvolumina besser zu bewältigen und die Anzahl der 429-Fehler zu reduzieren.
Weitere Informationen finden Sie unter Automatische Skalierung von Azure KI-Diensten.
Einstellung der veralteten Textanalyse-Modellversion
Führen Sie ein Upgrade der Modellversion auf eine neuere oder die neueste Modellversion durch, um die neuesten und hochwertigsten Modelle zu verwenden.
Hier erfahren Sie mehr über Cognitive Service – TAUpgradeToLatestModelVersion (Einstellung der Textanalyse-Modellversion).
Einstellung der veralteten Textanalyse-Modellversion
Führen Sie ein Upgrade der Modellversion auf eine neuere oder die neueste Modellversion durch, um die neuesten und hochwertigsten Modelle zu verwenden.
Hier erfahren Sie mehr über Cognitive Service – TAUpgradeModelVersiontoLatest (Einstellung der Textanalyse-Modellversion).
Upgrade auf die aktuelle Version der Textanalyse-API für Cognitive Services
Führen Sie ein Upgrade auf die aktuelle API-Version durch, um die besten Ergebnisse in Bezug auf die Modellqualität, Leistung und Dienstverfügbarkeit zu erzielen. Darüber hinaus sind neue Features für neue Endpunkte verfügbar (ab V3.0), z. B. Erkennung von personenbezogenen Informationen, Entitätserkennung und Entitätsverknüpfung (als separate Endpunkte). Änderungen für Vorschauversionen von Endpunkten: Opinion Mining für Software Assurance-Endpunkt, Eigenschaft für bearbeiteten Text für den Endpunkt für personenbezogene Informationen
Weitere Informationen finden Sie unter Cognitive Services: UpgradeToLatestAPI (Upgrade auf die aktuelle Version der Textanalyse-API für Cognitive Services).
Upgrade auf die neueste API-Version von Azure Cognitive Service für Sprache
Führen Sie ein Upgrade auf die aktuelle API-Version durch, um die besten Ergebnisse in Bezug auf die Modellqualität, Leistung und Dienstverfügbarkeit zu erzielen.
Weitere Informationen finden Sie unter Cognitive Services: UpgradeToLatestAPILanguage (Upgrade auf die neueste API-Version von Azure Cognitive Service für Language).
Upgrade auf die aktuelle Version des Textanalyse-SDK für Cognitive Services
Führen Sie ein Upgrade auf die aktuelle SDK-Version durch, um die besten Ergebnisse in Bezug auf die Modellqualität, Leistung und Dienstverfügbarkeit zu erzielen. Darüber hinaus sind neue Features für neue Endpunkte verfügbar (ab V3.0), z. B. Erkennung von personenbezogenen Informationen, Entitätserkennung und Entitätsverknüpfung (als separate Endpunkte). Änderungen für Vorschauversionen von Endpunkten: Opinion Mining für Software Assurance-Endpunkt, Eigenschaft für bearbeiteten Text für den Endpunkt für personenbezogene Informationen
Weitere Informationen finden Sie unter Cognitive Services: UpgradeToLatestSDK (Upgrade auf die aktuelle Version des Textanalyse-SDK für Cognitive Services).
Upgrade auf die aktuelle Version des Sprach-SDK für Cognitive Services
Führen Sie ein Upgrade auf die aktuelle SDK-Version durch, um die besten Ergebnisse in Bezug auf die Modellqualität, Leistung und Dienstverfügbarkeit zu erzielen.
Weitere Informationen finden Sie unter Cognitive Services: UpgradeToLatestSDKLanguage (Upgrade auf die aktuelle Version des Sprach-SDK für Cognitive Services).
Upgrade auf die neueste SDK-Version von Azure KI Language
Führen Sie ein Upgrade auf die aktuelle SDK-Version durch, um die besten Ergebnisse in Bezug auf die Modellqualität, Leistung und Dienstverfügbarkeit zu erzielen. Darüber hinaus sind neue Features für neue Endpunkte verfügbar (ab V3.0), z. B. Erkennung von personenbezogenen Informationen, Entitätserkennung und Entitätsverknüpfung (als separate Endpunkte). Änderungen für Vorschauversionen von Endpunkten: Opinion Mining für Software Assurance-Endpunkt, Eigenschaft für bearbeiteten Text für den Endpunkt für personenbezogene Informationen
Weitere Informationen finden Sie unter Azure KI Language.
Analyse
Legen Sie für Data Explorer-Ressourcen die richtige Größe für eine optimale Leistung fest.
Mit dieser Empfehlung werden alle Data Explorer-Ressourcen ermittelt, bei denen die empfohlene Datenkapazität (80 Prozent) überschritten wird. Zur Verbesserung der Leistung wird eine Skalierung auf die gezeigte empfohlene Konfiguration empfohlen.
Weitere Informationen finden Sie unter Data Explorer-Ressource: Richtiges Dimensionieren von ADX-Ressourcen (Legen Sie für Data Explorer-Ressourcen die richtige Größe für eine optimale Leistung fest.).
Überprüfen von Tabellencacherichtlinien auf Data Explorer-Tabellen
Bei dieser Empfehlung werden Data Explorer-Tabellen mit einer hohen Zahl von Abfragen ermittelt, die über den konfigurierten Cachezeitraum (Richtlinie) hinausgehen. Es werden die obersten zehn Tabellen nach Abfrageprozentsatz angezeigt, von denen auf Daten außerhalb des Caches zugegriffen wird. Die empfohlene Aktion zum Verbessern der Leistung lautet: Beschränken Sie die Abfragen für diese Tabelle auf den erforderlichen Mindestzeitbereich (innerhalb der definierten Richtlinie). Falls Daten des gesamten Zeitbereichs erforderlich sind, können Sie als Alternative den Cachezeitraum auch auf den empfohlenen Wert erhöhen.
Weitere Informationen finden Sie unter Data Explorer-Ressource: UpdateCachePoliciesForAdxTables (Überprüfen von Tabellencacherichtlinien für Data Explorer-Tabellen).
Bessere Leistung durch Reduzieren der Data Explorer-Tabellencacherichtlinie
Durch Reduzieren der Tabellencacherichtlinie werden nicht genutzte Daten aus dem Cache der Ressource freigegeben, wodurch die Leistung verbessert wird.
Weitere Informationen finden Sie unter Data Explorer-Ressource: ReduceCacheForAzureDataExplorerTablesToImprovePerformance (Bessere Leistung durch Reduzieren der Data Explorer-Tabellencacherichtlinie).
Erhöhen des Caches in der Cacherichtlinie
Aktualisieren Sie basierend auf Ihrer tatsächlichen Nutzung im letzten Monat die Cacherichtlinie, um den Cache für heiße Daten für die Tabelle zu erhöhen. Der Aufbewahrungszeitraum muss immer größer als die Zwischenspeicherungsdauer sein. Wenn Sie den Cache erhöhen und der Aufbewahrungszeitraum niedriger als die Zwischenspeicherungsdauer ist, aktualisieren Sie die Aufbewahrungsrichtlinie. Die Analyse basiert nur auf Benutzerabfragen, die Daten überprüft haben.
Weitere Informationen finden Sie unter Data Explorer-Ressource – IncreaseCacheForAzureDataExplorerTablesToImprovePerformance (Erhöhen des Caches in der Cacherichtlinie).
Aktivieren der optimierten Autoskalierung für Data Explorer-Ressourcen
Es sieht so aus, als wäre ihre Ressource möglicherweise automatisch skaliert worden, um die Leistung zu verbessern (basierend auf Ihrer tatsächlichen Nutzung in der letzten Woche, der Cache-Auslastung, der Erfassungsauslastung, der CPU- und Streaming-Erfassungsauslastung). Um Kosten und Leistung zu optimieren, empfiehlt es sich, die optimierte Autoskalierung zu aktivieren.
Weitere Informationen finden Sie unter Data Explorer-Ressource: PerformanceEnableOptimizedAutoscaleAzureDataExplorer (Aktivieren der optimierten Autoskalierung für Data Explorer-Ressourcen).
Lesevorgänge für die aktuellsten Daten
Mehr als 75 % Ihrer Leseanforderungen erfolgen im MemStore. Das weist darauf hin, dass die Lesevorgänge in erster Linie für aktuelle Daten ausgeführt werden. Lesevorgänge für aktuelle Daten weisen darauf hin, dass auch im Falle einer Leerung im MemStore auf die zuletzt verwendete Datei zugegriffen und diese im Cache platziert werden muss.
Weitere Informationen finden Sie unter HDInsight-Cluster: HBaseMemstoreReadPercentage (Lesevorgänge für die aktuellsten Daten).
Verwenden Sie zum Verbessern der Clusterleistung ggf. beschleunigte Schreibvorgänge in Ihrem HBase-Cluster.
Diese Advisor-Empfehlung wird angezeigt, da das Systemprotokoll des HDInsight-Teams anzeigt, dass in den letzten 7 Tagen in Ihrem Cluster die folgenden Szenarien aufgetreten sind:
Hohe Latenz bei der WAL-Synchronisierung
Hohe Anzahl von Schreibanforderungen (mindestens 3 Ein-Stunden-Fenster mit mehr als 1.000 avg_write_requests/s/Knoten)
Diese Umstände sind Hinweise darauf, dass der Cluster eine hohe Schreiblatenz aufweist. Der Grund dafür kann eine hohe Arbeitsauslastung in Ihrem Cluster sein.
Um die Leistung Ihres Clusters zu verbessern, erwägen Sie, die von Azure HDInsight HBase angebotenen beschleunigten Schreibvorgänge zu verwenden. Mit der Funktion für beschleunigte Schreibvorgänge für HDInsight-Apache HBase-Cluster werden jedem RegionServer (Workerknoten) verwaltete SSD Premium-Datenträger hinzugefügt, anstatt auf Cloudspeicher zurückzugreifen. Dies führt zu einer niedrigen Schreiblatenz und höherer Resilienz für Ihre Anwendungen.
Weitere Informationen zu diesem Feature finden Sie unter dem folgenden Link:
Weitere Informationen finden Sie unter HDInsight-Cluster: AccWriteCandidate (Verwenden Sie zum Verbessern der Clusterleistung ggf. beschleunigte Schreibvorgänge in Ihrem HBase-Cluster.).
Bei mehr als 75 % Ihrer Abfragen handelt es sich um vollständige Überprüfungsabfragen.
Für mehr als 75 % der Überprüfungsabfragen in Ihrem Cluster wird eine vollständige Regions- bzw. Tabellenüberprüfung durchgeführt. Ändern Sie Ihre Überprüfungsabfragen, um vollständige Regions- bzw. Tabellenüberprüfungen zu vermeiden.
Weitere Informationen finden Sie unter HDInsight-Cluster: ScanQueryTuningcandidate (Bei mehr als 75 % Ihrer Abfragen handelt es sich um vollständige Überprüfungsabfragen.).
Überprüfen Sie die Regionsanzahl, wenn Aktualisierungen blockiert werden.
Die Regionsanzahl muss angepasst werden, um zu verhindern, dass Aktualisierungen blockiert werden. Möglicherweise muss der Cluster zentral hochskaliert werden, indem neue Knoten hinzugefügt werden.
Weitere Informationen finden Sie unter HDInsight-Cluster: RegionCountCandidate (Überprüfen Sie die Regionsanzahl, wenn Aktualisierungen blockiert werden.).
Ggf. Erhöhen der Threads für Leerungen
Die Leerungswarteschlange Ihrer Regionsserver ist größer als 100, oder es werden häufig Aktualisierungen blockiert. Es wird empfohlen, den Leerungshandler zu optimieren.
Weitere Informationen finden Sie unter HDInsight-Cluster: FlushQueueCandidate (Ggf. Erhöhen der Threads für Leerungen).
Erwägen Sie, eine Erhöhung für Ihre Komprimierungsthreads durchzuführen, damit Komprimierungsvorgänge schneller abgeschlossen werden.
Der Wert für die Komprimierungswarteschlange auf Ihren Regionsservern beträgt mehr als 2000. Dies ist ein Hinweis darauf, dass eine größere Menge von Daten komprimiert werden muss. Langsamere Komprimierungsvorgänge können sich auf die Leseleistung auswirken, da eine größere Zahl von Dateien gelesen werden muss. Wenn eine höhere Zahl von Dateien nicht komprimiert ist, kann dies auch die Heapnutzung dahingehend beeinträchtigen, wie Dateien mit dem Azure-Dateisystem interagieren.
Weitere Informationen finden Sie unter HDInsight-Cluster: CompactionQueueCandidate (Erwägen Sie, eine Erhöhung für Ihre Komprimierungsthreads durchzuführen, damit Komprimierungsvorgänge schneller abgeschlossen werden.).
Tabellen mit gruppierten Columnstore-Indizes (Clustered Columnstore Indexes, CCI) mit weniger als 60 Millionen Zeilen
Gruppierte Columnstore-Tabellen sind in Daten in Segmenten angeordnet. Eine hohe Segmentqualität ist entscheidend, um für eine Columnstore-Tabelle eine optimale Abfrageleistung zu erzielen. Sie können die Segmentqualität anhand der Anzahl von Zeilen in einer komprimierten Zeilengruppe messen.
Weitere Informationen finden Sie unter Synapse-Arbeitsbereich: SynapseCCIGuidance (Tabellen mit gruppierten Columnstore-Indizes (Clustered Columnstore Indexes, CCI) mit weniger als 60 Millionen Zeilen).
Aktualisieren der Version des SynapseManagementClient SDK
Für den neuen SynapseManagementClient wird .NET SDK-Version 4.0 oder höher verwendet.
Weitere Informationen finden Sie unter Synapse-Arbeitsbereich: UpgradeSynapseManagementClientSDK (Aktualisieren der Version des SynapseManagementClient SDK).
Compute
Auslastung der vSAN-Kapazität hat kritischen Schwellenwert überschritten
Die Auslastung der vSAN-Kapazität hat bei Ihnen 75 % erreicht. Zur Sicherstellung der SLA-Konformität muss die Auslastung des Clusters unterhalb des kritischen Schwellenwerts von 75 % liegen. Fügen Sie dem vSphere-Cluster neue Knoten hinzu, um die Kapazität zu erhöhen, oder löschen Sie VMs, um den Verbrauch zu reduzieren oder VM-Workloads anzupassen.
Weitere Informationen finden Sie unter Private Azure VMware Solution-Cloud: vSANCapacity (Auslastung der vSAN-Kapazität hat kritischen Schwellenwert überschritten).
Aktualisieren von Automanage auf die neueste API-Version
Wir haben für Ressourcen unter diesem Abonnement SDK-Aufrufe von einer veralteten API identifiziert. Es wird empfohlen, auf die neueste SDK-Version umzustellen, um die neuesten Features und Leistungsverbesserungen sicherzustellen.
Weitere Informationen finden Sie unter Virtueller Computer – UpdateToLatestApi (Aktualisieren von Automanage auf die neueste API-Version).
Verbessern Sie die Benutzerfreundlichkeit und die Konnektivität, indem Sie virtuelle Computer näher am Standort des Benutzers bereitstellen.
Wir haben festgestellt, dass sich Ihre virtuellen Computer nicht in der Region befinden, von der aus Ihre Benutzer*innen eine Verbindung mit Azure Virtual Desktop herstellen, oder dass Ihre virtuellen Computer weit von dieser Region entfernt sind. Entfernte Benutzerregionen kann zu längeren Verbindungsreaktionszeiten führen und beeinträchtigen insgesamt die Benutzerfreundlichkeit.
Weitere Informationen finden Sie unter VM: RegionProximitySessionHosts (Verbessern Sie die Benutzerfreundlichkeit und die Konnektivität, indem Sie VMs näher am Standort des Benutzers bereitstellen.).
Verwenden von Managed Disks zum Verhindern einer Datenträger-E/A-Drosselung
Ihre VM-Datenträger gehören zu einem Speicherkonto, bei dem das Skalierbarkeitsziel erreicht wurde. Dadurch sind sie anfällig für eine E/A-Drosselung. Verwenden Sie Managed Disks, um Ihren virtuellen Computer vor einer Leistungsbeeinträchtigung zu schützen und die Speicherverwaltung zu vereinfachen.
Weitere Informationen finden Sie unter VM: ManagedDisksStorageAccount (Verwenden von Managed Disks zum Verhindern einer Datenträger-E/A-Drosselung).
Konvertieren von Managed Disks von HDD Standard in SSD Premium zur Steigerung der Leistung
Wir haben ermittelt, dass Ihr HDD Standard-Datenträger die Grenze der Leistungsziele erreicht. Azure SSD Premium verfügt über Datenträgerunterstützung mit hoher Leistung und geringer Wartezeit für virtuelle Computer mit E/A-intensiven Workloads. Verbessern Sie die Datenträgerleistung, indem Sie für Ihren Datenträger ein Upgrade von HDD Standard auf SSD Premium durchführen. Für das Upgrade ist ein Neustart der VM erforderlich. Dieser Vorgang dauert drei bis fünf Minuten.
Weitere Informationen finden Sie unter Datenträger: MDHDDtoPremiumForPerformance (Konvertieren von Managed Disks von HDD Standard in SSD Premium zur Steigerung der Leistung).
Aktivieren des beschleunigten Netzwerkbetriebs zur Verbesserung der Netzwerkleistung und -latenz
Wir haben erkannt, dass der beschleunigte Netzwerkbetrieb für VM-Ressourcen Ihrer vorhandenen Bereitstellung, von denen dieses Feature ggf. unterstützt wird, nicht aktiviert ist. Wenn Ihr VM-Betriebssystemimage den beschleunigten Netzwerkbetrieb wie in der Dokumentation angegeben unterstützt, sollten Sie sicherstellen, dass Sie dieses kostenlose Feature auf den VMs aktivieren. Auf diese Weise können Sie die Leistung und Latenz Ihrer Netzwerkworkloads in der Cloud verbessern.
Weitere Informationen finden Sie unter VM: AccelNetConfiguration (Aktivieren des beschleunigten Netzwerkbetriebs zur Verbesserung der Netzwerkleistung und -latenz).
Verwenden von SSD-Datenträgern für Produktionsworkloads
Wir haben bemerkt, dass Sie zusätzlich zu HDD Standard-Datenträgern auch SSD-Datenträger auf derselben VM verwenden. Verwaltete HDD Standard-Datenträger werden für DevTest und Sicherungen empfohlen. SSD Premium- oder SSD Standard-Datenträger werden für die Produktion empfohlen. SSD Premium-Datenträger verfügen über Datenträgerunterstützung mit hoher Leistung und kurzer Wartezeit für virtuelle Computer mit E/A-intensiven Workloads. SSD Standard-Datenträger bieten konsistente und kürzere Wartezeiten. Aktualisieren Sie Ihre Datenträgerkonfiguration noch heute, um eine bessere Latenz, Zuverlässigkeit und Verfügbarkeit zu erzielen. Für das Upgrade ist ein Neustart der VM erforderlich. Dieser Vorgang dauert drei bis fünf Minuten.
Weitere Informationen finden Sie unter VM: MixedDiskTypeToSSDPublic (Verwenden von SSD-Datenträgern für Produktionsworkloads).
Abstimmen von virtuellen Produktionscomputern mit Produktionsdatenträgern für konsistente Leistung und bessere Latenz
Für Produktions-VMs sind Produktionsdatenträger erforderlich, wenn Sie die beste Leistung erzielen möchten. Wir sehen, dass Sie einen virtuellen Computer auf Produktionsebene ausführen – Sie verwenden jedoch einen Datenträger mit geringer Leistung mit HDD Standard. Ein Upgrade der an Ihre Produktionsdatenträger angefügten Datenträger auf SSD Standard oder SSD Premium bietet eine konsistentere Benutzerumgebung und geringere Latenz.
Weitere Informationen finden Sie unter VM: MatchProdVMProdDisks (Abstimmen von virtuellen Produktionscomputern mit Produktionsdatenträgern für konsistente Leistung und bessere Latenz).
Virtueller Computer muss für beschleunigten Netzwerkbetrieb ggf. beendet und wieder gestartet werden.
Wir haben festgestellt, dass der beschleunigte Netzwerkbetrieb für VM-Ressourcen in Ihrer vorhandenen Bereitstellung nicht aktiviert ist, obwohl das Feature angefordert wurde. In seltenen Fällen wie diesem ist es ggf. erforderlich, den virtuellen Computer zu einem für Sie günstigen Zeitpunkt zu beenden und wieder zu starten, um „AccelNet“ zu reaktivieren.
Weitere Informationen finden Sie unter VM: AccelNetDisengaged (VM muss für beschleunigten Netzwerkbetrieb ggf. beendet und wieder gestartet werden).
Nutzen der geringen Wartezeit von Disk Ultra für Ihre Protokolldatenträger, um die Leistung Ihrer Datenbankworkloads zu verbessern
Disk Ultra ist in der gleichen Region verfügbar wie Ihre Datenbankworkload. Disk Ultra bietet hohen Durchsatz, hohe IOPS und konsistenten Datenträgerspeicher mit geringer Wartezeit für Ihre Datenbankworkloads: Mit Disk Ultra können Sie für Oracle DB-Instanzen jetzt je nach Oracle DB-Version entweder 4K oder 512E als Sektorgröße verwenden. Bei SQL Server lässt sich durch die Nutzung von Disk Ultra für Ihren Protokolldatenträger ggf. die Leistung für Ihre Datenbank steigern. Machen Sie sich hier mit der Vorgehensweise zum Migrieren Ihres Protokolldatenträgers zu Disk Ultra vertraut.
Weitere Informationen finden Sie unter VM: AzureStorageVmUltraDisk (Nutzen der geringen Wartezeit von Disk Ultra für Ihre Protokolldatenträger, um die Leistung Ihrer Datenbankworkloads zu verbessern).
Aktualisieren der Größe Ihrer aktivsten virtuellen Computer, um Ressourcenauslastung zu vermeiden und die Leistung zu verbessern
Wir haben die Daten der letzten sieben Tage analysiert und virtuelle Computer (VMs) mit hoher Auslastung in verschiedenen Metriken (d. h. CPU, Arbeitsspeicher und VM-E/A) identifiziert. Bei diesen VMs können Leistungsprobleme auftreten, da sie sich den Grenzwerten ihrer SKU nähern oder diese erreichen. Erwägen Sie ein Upgrade der SKU, um die Leistung zu verbessern.
Weitere Informationen finden Sie unter VM: UpgradeSizeHighVMUtilV0 (Aktualisieren der Größe Ihrer aktivsten virtuellen Computer, um Ressourcenauslastung zu vermeiden und die Leistung zu verbessern).
Container
Nicht unterstützte Kubernetes-Version erkannt
Es wurde eine nicht unterstützte Kubernetes-Version erkannt. Stellen Sie sicher, dass der Kubernetes-Cluster mit einer unterstützten Version ausgeführt wird.
Weitere Informationen finden Sie unter Kubernetes Service: UnsupportedKubernetesVersionIsDetected (Nicht unterstützte Kubernetes-Version erkannt).
Nicht unterstützte Kubernetes-Version erkannt
Es wurde eine nicht unterstützte Kubernetes-Version erkannt. Stellen Sie sicher, dass der Kubernetes-Cluster mit einer unterstützten Version ausgeführt wird.
Weitere Informationen finden Sie unter HDInsight Cluster Pool – UnsupportedHiloAKSVersionIsDetected (Nicht unterstützte Kubernetes-Version erkannt).
Cluster mit einem einzelnen Knotenpool
Es wird empfohlen, einen oder mehrere Knotenpools hinzuzufügen, anstatt einen einzelnen Knotenpool zu verwenden. Mehrere Pools helfen dabei, kritische Systempods von Ihrer Anwendung zu isolieren, um zu verhindern, dass falsch konfigurierte oder nicht autorisierte Anwendungspods versehentlich Systempods beenden.
Weitere Informationen finden Sie unter Kubernetes-Dienst – ClustersWithASingleNodePool (Cluster mit einem einzelnen Knotenpool).
Aktualisieren der Flotten-API auf die aktuelle Version
Wir haben für Ressourcen unter Ihrem Abonnement SDK-Aufrufe von einer veralteten Flotten-API identifiziert. Es wird empfohlen, auf die neueste SDK-Version umzustellen. Damit wird sichergestellt, dass Sie die neuesten Features und Leistungsverbesserungen erhalten.
Erfahren Sie mehr über Kubernetes Fleet Manager | PREVIEW – UpdateToLatestFleetApi (Aktualisieren der Flotten-API auf die aktuelle Version).
Datenbanken
Festlegen der Azure Cosmos DB-Abfrageseitengröße (MaxItemCount) auf „-1“
Sie verwenden eine Abfrageseitengröße von 100 für Abfragen für Ihren Azure Cosmos DB-Container. Zur schnelleren Überprüfung wird empfohlen, eine Seitengröße von -1 zu verwenden.
Weitere Informationen finden Sie unter Azure Cosmos DB-Konto – CosmosDBQueryPageSize (Festlegen der Azure Cosmos DB-Abfrageseitengröße (MaxItemCount) auf „-1“).
Hinzufügen zusammengesetzter Indizes zu Ihrem Azure Cosmos DB-Container
Von Ihren Azure Cosmos DB-Containern werden ORDER BY-Abfragen ausgeführt, die hohe Kosten für Anforderungseinheiten (Request Units, RUs) zur Folge haben. Es empfiehlt sich, der Indizierungsrichtlinie Ihrer Container zusammengesetzte Indizes hinzuzufügen, um den RU-Verbrauch zu optimieren und die Wartezeit bei diesen Abfragen zu verringern.
Weitere Informationen finden Sie unter Azure Cosmos DB-Konto – CosmosDBOrderByHighRUCharge (Hinzufügen zusammengesetzter Indizes zu Ihrem Azure Cosmos DB-Container).
Optimieren Ihrer Azure Cosmos DB-Indizierungsrichtlinie auf den benötigten Indizierungsumfang
Für Ihre Azure Cosmos DB-Container wird die Standardindizierungsrichtlinie verwendet, mit der jede Eigenschaft in Ihren Dokumenten indiziert wird. Da Sie große Dokumente speichern, wird eine große Zahl von Eigenschaften indiziert, und dies führt zu einem hohen Verbrauch an Anforderungseinheiten und einer hohen Schreiblatenz. Zur Optimierung der Schreibleistung empfehlen wir Ihnen, die Standardindizierungsrichtlinie außer Kraft zu setzen, um nur die in Ihren Abfragen verwendeten Eigenschaften zu indizieren.
Weitere Informationen finden Sie unter Azure Cosmos DB-Konto – CosmosDBDefaultIndexingWithManyPaths (Optimieren Ihrer Azure Cosmos DB-Indizierungsrichtlinie auf den benötigten Indizierungsumfang).
Verwenden hierarchischer Partitionsschlüssel für eine optimale Datenverteilung
Ihr Konto verfügt über eine benutzerdefinierte Einstellung, die die Überschreitung des Grenzwerts von 20 GB für die Größe der logischen Partition in einem Container ermöglicht. Diese Einstellung wurde vom Azure Cosmos DB-Team als temporäre Maßnahme angewendet, damit Sie Ihre Anwendung mit einem anderen Partitionsschlüssel umgestalten können. Sie sollte nicht als langfristige Lösung verwendet werden, da SLA-Garantien nicht gelten, wenn der Grenzwert erhöht wird. Sie können jetzt hierarchische Partitionsschlüssel (Vorschau) verwenden, um Ihre Anwendung umzugestalten. Das Feature ermöglicht Ihnen die Überschreitung des Grenzwerts von 20 GB durch Festlegen von bis zu drei Partitionsschlüsseln und eignet sich somit perfekt für Szenarien mit mehreren Mandanten oder für Workloads mit synthetischen Schlüsseln.
Weitere Informationen finden Sie unter Azure Cosmos DB-Konto – CosmosDBHierarchicalPartitionKey (Verwenden hierarchischer Partitionsschlüssel für eine optimale Datenverteilung).
Konfigurieren Ihrer Azure Cosmos DB-Anwendungen für die Verwendung der direkten Konnektivität im SDK
Wir haben festgestellt, dass Ihre Azure Cosmos DB-Anwendungen den Gatewaymodus über Azure Cosmos DB .NET oder Java SDKs verwenden. Für niedrigere Latenz und höhere Skalierbarkeit wird empfohlen, zur direkten Konnektivität zu wechseln.
Weitere Informationen finden Sie unter Azure Cosmos DB-Konto – CosmosDBGatewayMode (Konfigurieren Ihrer Azure Cosmos DB-Anwendungen für die Verwendung direkter Verbindungen im SDK).
Verbessern der Leistung durch Hochskalieren für optimale Ressourcennutzung
Die Maximierung der Effizienz der Systemressourcen ist für die Aufrechterhaltung erstklassiger Leistung von entscheidender Bedeutung. Unser System überwacht die CPU-Auslastung genau, und wenn es den Schwellenwert von 90 % über einen Zeitraum von 12 Stunden überschreitet, wird eine proaktive Warnung ausgelöst. Diese Warnung informiert nicht nur Azure Cosmos DB for MongoDB-vCore-Benutzer über den erhöhten CPU-Verbrauch, sondern bietet auch wertvolle Anleitungen zum Hochskalieren auf eine höhere Ebene. Durch das Upgrade auf einen robusteren Tarif können Sie eine verbesserte Leistung erzielen und sicherstellen, dass Ihr System mit dem höchsten Potenzial arbeitet.
Weitere Informationen dazu finden Sie unter Skalieren und Konfigurieren Ihres Azure Cosmos DB for MongoDB-Clusters mit virtuellem Kern.
PerformanceBoostervCore
Wenn die CPU-Auslastung innerhalb eines Zeitraums von 12 Stunden 90 % überschreitet, werden die Benutzer über die hohe Auslastung informiert. Darüber hinaus wird empfohlen, sie auf eine höhere Ebene zu skalieren, um eine bessere Leistung zu erzielen.
Weitere Informationen finden Sie unter Cosmos DB account – ScaleUpvCoreRecommendation (PerformanceBoostervCore).
Skalieren des Speicherlimits für MariaDB-Server
Unser System zeigt, dass der Server ggf. eingeschränkt ist, weil für den derzeit bereitgestellten Speicher in Kürze die Grenzwerte erreicht werden. Die Annäherung an die Speichergrenzwerte kann zu Leistungseinbußen oder dazu führen, dass der Server in den schreibgeschützten Modus versetzt wird. Zur Sicherstellung der Leistung empfehlen wir Ihnen, die Menge des bereitgestellten Speichers zu erhöhen oder das Feature „Automatische Vergrößerung“ auf „EIN“ festzulegen, damit die Speichermenge automatisch erhöht wird.
Weitere Informationen finden Sie unter MariaDB-Server: OrcasMariaDbStorageLimit (Skalieren des Speicherlimits für MariaDB-Server).
Erhöhen der Anzahl von virtuellen Kernen für MariaDB-Server
Unser System zeigt, dass für die CPU in den letzten sieben Tagen längere Zeiten mit hoher Auslastung zu beobachten waren. Eine hohe CPU-Auslastung kann zu einer niedrigen Abfrageleistung führen. Es wird empfohlen, die Umstellung auf eine höhere Computegröße durchzuführen, um die Leistung zu verbessern.
Weitere Informationen finden Sie unter MariaDB-Server: OrcasMariaDbCpuOverlaod (Erhöhen der Anzahl von virtuellen Kernen für MariaDB-Server).
Skalieren des MariaDB-Servers auf eine höhere SKU
Unser System zeigt, dass der Server die Verbindungsanforderungen aufgrund der maximalen unterstützten Verbindungen für die angegebene SKU möglicherweise nicht unterstützen kann. Dies kann zu einer großen Anzahl fehlerhafter Verbindungsanforderungen führen, was sich negativ auf die Leistung auswirkt. Zur Verbesserung der Leistung empfehlen wir Ihnen, die Umstellung auf eine SKU mit mehr Arbeitsspeicher durchzuführen, indem Sie die Anzahl von virtuellen Kernen erhöhen oder zu speicheroptimierten SKUs wechseln.
Weitere Informationen finden Sie unter MariaDB-Server: OrcasMariaDbConcurrentConnection (Skalieren des MariaDB-Servers auf eine höhere SKU).
Verschieben Ihres MariaDB-Servers in eine arbeitsspeicheroptimierte SKU
Unser System zeigt, dass im Pufferpool für diesen Server ein hoher Churn besteht. Dies kann zu einer niedrigeren Abfrageleistung und einer IOPS-Steigerung führen. Überprüfen Sie Ihre Workloadabfragen, um Möglichkeiten zur Verringerung des verbrauchten Arbeitsspeichers zu ermitteln und so die Leistung zu verbessern. Falls keine Möglichkeit gefunden wird, empfehlen wir Ihnen die Umstellung auf eine höhere SKU mit mehr Arbeitsspeicher oder die Erhöhung der Speichermenge, um eine IOPS-Steigerung zu erzielen.
Weitere Informationen finden Sie unter MariaDB-Server: OrcasMariaDbMemoryCache (Verschieben Ihres MariaDB-Servers in eine arbeitsspeicheroptimierte SKU).
Erhöhen der Zuverlässigkeit von Überwachungsprotokollen
Unser System zeigt, dass die Überwachungsprotokolle des Servers im Verlauf des letzten Tags ggf. verloren gegangen sind. Dies kann passieren, wenn Ihr Server über eine hohe CPU-Auslastung verfügt oder ein Server innerhalb eines kurzen Zeitraums eine hohe Zahl von Überwachungsprotokollen generiert. Wir empfehlen Ihnen, nur die benötigten Ereignisse zu protokollieren, die für Ihre Überwachungszwecke erforderlich sind. Verwenden Sie hierfür die folgenden Serverparameter: audit_log_events, audit_log_exclude_users, audit_log_include_users. Wenn Ihr Server aufgrund Ihrer Workload eine hohe CPU-Auslastung aufweist, empfehlen wir Ihnen, zur Verbesserung der Leistung die Anzahl von V-Kernen des Servers zu erhöhen.
Weitere Informationen finden Sie unter MariaDB-Server: OrcasMariaDBAuditLog (Erhöhen der Zuverlässigkeit von Überwachungsprotokollen).
Skalieren des Speicherlimits für MySQL-Server
Unser System zeigt, dass der Server ggf. eingeschränkt ist, weil für den derzeit bereitgestellten Speicher in Kürze die Grenzwerte erreicht werden. Die Annäherung an die Speichergrenzwerte kann zu Leistungseinbußen oder dazu führen, dass der Server in den schreibgeschützten Modus versetzt wird. Zur Sicherstellung der Leistung empfehlen wir Ihnen, die Menge des bereitgestellten Speichers zu erhöhen oder das Feature „Automatische Vergrößerung“ auf „EIN“ festzulegen, damit die Speichermenge automatisch erhöht wird.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySQLStorageLimit (Skalieren des Speicherlimits für MySQL-Server).
Skalieren des MySQL-Servers auf eine höhere SKU
Unser System zeigt, dass der Server die Verbindungsanforderungen aufgrund der maximalen unterstützten Verbindungen für die angegebene SKU möglicherweise nicht unterstützen kann. Dies kann zu einer großen Anzahl fehlerhafter Verbindungsanforderungen führen, was sich negativ auf die Leistung auswirkt. Zur Verbesserung der Leistung empfehlen wir Ihnen, die Umstellung auf eine SKU mit mehr Arbeitsspeicher durchzuführen, indem Sie die Anzahl von virtuellen Kernen erhöhen oder zu speicheroptimierten SKUs wechseln.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySQLConcurrentConnection (Skalieren des MySQL-Servers auf eine höhere SKU).
Erhöhen der Anzahl von virtuellen Kernen für MySQL-Server
Unser System zeigt, dass für die CPU in den letzten sieben Tagen längere Zeiten mit hoher Auslastung zu beobachten waren. Eine hohe CPU-Auslastung kann zu einer niedrigen Abfrageleistung führen. Es wird empfohlen, die Umstellung auf eine höhere Computegröße durchzuführen, um die Leistung zu verbessern.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySQLCpuOverload (Erhöhen der Anzahl von virtuellen Kernen für MySQL-Server).
Verschieben Ihres MySQL-Servers in eine arbeitsspeicheroptimierte SKU
Unser System zeigt, dass im Pufferpool für diesen Server ein hoher Churn besteht. Dies kann zu einer niedrigeren Abfrageleistung und einer IOPS-Steigerung führen. Überprüfen Sie Ihre Workloadabfragen, um Möglichkeiten zur Verringerung des verbrauchten Arbeitsspeichers zu ermitteln und so die Leistung zu verbessern. Falls keine Möglichkeit gefunden wird, empfehlen wir Ihnen die Umstellung auf eine höhere SKU mit mehr Arbeitsspeicher oder die Erhöhung der Speichermenge, um eine IOPS-Steigerung zu erzielen.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySQLMemoryCache (Verschieben Ihres MySQL-Servers in eine arbeitsspeicheroptimierte SKU).
Hinzufügen eines MySQL-Lesereplikatservers
Unser System zeigt, dass Sie ggf. eine leseintensive Workload ausführen. Dies führt zu einem Ressourcenkonflikt für diesen Server. Ein Ressourcenkonflikt kann zu einer Verlangsamung der Abfrageleistung für den Server führen. Wir empfehlen Ihnen, zur Verbesserung der Leistung ein Lesereplikat hinzuzufügen und einige Ihrer Leseworkloads auf das Replikat zu verlagern.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySQLReadReplica (Hinzufügen eines MySQL-Lesereplikatservers).
Verbessern der MySQL-Verbindungsverwaltung
Unser System zeigt, dass Ihre Anwendung, die eine Verbindung mit dem MySQL-Server herstellt, Verbindungen möglicherweise ineffizient verwaltet. Dies kann zu unnötigem Ressourcenverbrauch und insgesamt einer höheren Anwendungswartezeit führen. Zur Verbesserung der Verbindungsverwaltung empfehlen wir, die Anzahl kurzlebiger Verbindungen zu verringern und unnötige Leerlaufverbindungen zu beseitigen. Hierzu können Sie eine serverseitige Verbindungspoollösung wie ProxySQL konfigurieren.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySQLConnectionPooling (Verbessern der MySQL-Verbindungsverwaltung).
Erhöhen der Zuverlässigkeit von Überwachungsprotokollen
Unser System zeigt, dass die Überwachungsprotokolle des Servers im Verlauf des letzten Tags ggf. verloren gegangen sind. Dies kann passieren, wenn Ihr Server über eine hohe CPU-Auslastung verfügt oder ein Server innerhalb eines kurzen Zeitraums eine hohe Zahl von Überwachungsprotokollen generiert. Wir empfehlen Ihnen, nur die benötigten Ereignisse zu protokollieren, die für Ihre Überwachungszwecke erforderlich sind. Verwenden Sie hierfür die folgenden Serverparameter: audit_log_events, audit_log_exclude_users, audit_log_include_users. Wenn Ihr Server aufgrund Ihrer Workload eine hohe CPU-Auslastung aufweist, empfehlen wir Ihnen, zur Verbesserung der Leistung die Anzahl von V-Kernen des Servers zu erhöhen.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySQLAuditLog (Erhöhen der Zuverlässigkeit von Überwachungsprotokollen).
Verbessern der Leistung durch Optimierung der Größenanpassung für die temporäre MySQL-Tabelle
Unser System zeigt, dass es für Ihren MySQL-Server ggf. zu unnötigem E/A-Mehraufwand kommt, weil die Parametereinstellungen für temporäre Tabellen zu niedrig sind. Dies kann zu unnötigen Datenträgertransaktionen und einer verringerten Leistung führen. Wir empfehlen Ihnen, die Parameterwerte „tmp_table_size“ und „max_heap_table_size“ zu erhöhen, um die Anzahl von Datenträgertransaktionen zu reduzieren.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySqlTmpTables (Verbessern der Leistung durch Optimierung der Größenanpassung für die temporäre MySQL-Tabelle).
Verbessern der MySQL-Verbindungslatenz
Unser System zeigt, dass Ihre Anwendung, die eine Verbindung mit dem MySQL-Server herstellt, möglicherweise Verbindungen ineffizient verwaltet. Dies kann zu einer höheren Anwendungswartezeit führen. Wir empfehlen Ihnen, zur Verbesserung der Verbindungslatenz die Verbindungsumleitung zu aktivieren. Hierfür können Sie das Feature „Verbindungsumleitung“ des PHP-Treibers aktivieren.
Weitere Informationen finden Sie unter MySQL-Server: OrcasMySQLConnectionRedirection (Verbessern der MySQL-Verbindungslatenz).
Erhöhen der Speicherbegrenzung für MySQL Flexible Server
Unser System zeigt, dass der Server ggf. eingeschränkt ist, weil für den derzeit bereitgestellten Speicher in Kürze die Grenzwerte erreicht werden. Die Annäherung an die Speichergrenzwerte kann zu Leistungseinbußen oder dazu führen, dass der Server in den schreibgeschützten Modus versetzt wird. Wir empfehlen Ihnen, die Menge des bereitgestellten Speichers zu erhöhen, damit dauerhaft für eine gute Leistung gesorgt ist.
Erfahren Sie mehr über Azure Database for MySQL Flexible Server – OrcasMeruMySqlStorageUpsell (Erhöhen des Speicherlimits für MySQL Flexible Server).
Skalieren von MySQL Flexible Server auf eine höhere SKU
Unser System zeigt, dass Ihr flexibler Server die mit Ihrer aktuellen SKU verknüpften Verbindungslimits überschreitet. Eine große Anzahl fehlgeschlagener Verbindungsanforderungen kann sich negativ auf die Serverleistung auswirken. Zur Verbesserung der Leistung empfehlen wir, die Anzahl der virtuellen Kerne zu erhöhen oder zu einer höheren SKU zu wechseln.
Erfahren Sie mehr über Azure Database for MySQL Flexible Server – OrcasMeruMysqlConnectionUpsell (Skalieren von MySQL Flexible Server auf eine höhere SKU).
Erhöhen Sie die virtuellen Kerne des flexiblen MySQL-Servers.
Unser System zeigt, dass für die CPU in den letzten sieben Tagen längere Zeiten mit hoher Auslastung zu beobachten waren. Eine hohe CPU-Auslastung kann zu einer niedrigen Abfrageleistung führen. Es wird empfohlen, die Umstellung auf eine höhere Computegröße durchzuführen, um die Leistung zu verbessern.
Erfahren Sie mehr über Azure Database for MySQL Flexible Server – OrcasMeruMysqlCpuUpcell (Erhöhen der Anzahl von virtuellen Kernen für MySQL Flexible Server).
Verbessern Sie die Leistung durch Optimierung der Größenanpassung für die temporäre MySQL-Tabelle.
Unser System zeigt, dass es für Ihren MySQL-Server ggf. zu unnötigem E/A-Mehraufwand kommt, weil die Parametereinstellungen für temporäre Tabellen zu niedrig sind. Unnötiger E/A-Mehraufwand kann zu unnötigen Datenträgertransaktionen und einer verringerten Leistung führen. Wir empfehlen Ihnen, die Parameterwerte „tmp_table_size“ und „max_heap_table_size“ zu erhöhen, um die Anzahl von Datenträgertransaktionen zu reduzieren.
Erfahren Sie mehr über Azure Database for MySQL Flexible Server – OrcasMeruMysqlTmpTable (Verbessern der Leistung durch Optimieren der Größe von temporären MySQL-Tabellen).
Verschieben Ihres MySQL-Servers in eine arbeitsspeicheroptimierte SKU
Unser System zeigt, dass dieser Server eine hohe Speicherauslastung aufweist. Dies kann zu einer niedrigeren Abfrageleistung und einer IOPS-Steigerung führen. Überprüfen Sie Ihre Workloadabfragen, um Möglichkeiten zur Verringerung des verbrauchten Arbeitsspeichers zu ermitteln und so die Leistung zu verbessern. Falls keine Möglichkeit gefunden wird, empfehlen wir Ihnen die Umstellung auf eine höhere SKU mit mehr Arbeitsspeicher oder die Erhöhung der Speichermenge, um eine IOPS-Steigerung zu erzielen.
Erfahren Sie mehr über Azure Database for MySQL Flexible Server – OrcasMeruMysqlMemoryUpsell (Verlagern Ihrer MySQL Server-Instanz in eine arbeitsspeicheroptimierte SKU).
Hinzufügen eines MySQL-Lesereplikatservers
Unser System zeigt, dass Sie ggf. eine leseintensive Workload ausführen. Dies führt zu einem Ressourcenkonflikt für diesen Server. Das Ergebnis kann eine Verlangsamung der Abfrageleistung für den Server sein. Wir empfehlen Ihnen, zur Verbesserung der Leistung ein Lesereplikat hinzuzufügen und einige Ihrer Leseworkloads auf das Replikat zu verlagern.
Erfahren Sie mehr über Azure Database for MySQL Flexible Server – OrcasMeruMysqlReadReplicaUpsell (Hinzufügen eines MySQL-Lesereplikatservers).
Erhöhen von „work_mem“, um übermäßigen Datenträgerüberlauf für Sortier- und Hashvorgänge zu vermeiden
Unser System zeigt, dass der konfigurierte „work_mem“-Wert zu klein für Ihren PostgreSQL-Server ist. Dies führt zu einem Datenträgerüberlauf und einer Beeinträchtigung der Leistung. Zur Verbesserung dieser Situation empfehlen wir Ihnen eine Erhöhung des „work_mem“-Limits für den Server. Hierdurch lassen sich die Szenarien reduzieren, in denen der Sortier- oder Hashvorgang auf dem Datenträger erfolgt, sowie die gesamte Abfrageleistung verbessern.
Weitere Informationen finden Sie unter PostgreSQL-Server: OrcasPostgreSqlWorkMem (Erhöhen von „work_mem“, um übermäßigen Datenträgerüberlauf für Sortier- und Hashvorgänge zu vermeiden).
Steigern Ihrer Workloadleistung um 30 % mit der neuen Ev5-Computehardware
Mit der neuen Ev5-Computehardware können Sie die Workloadleistung bei höherer Parallelität und besserem Durchsatz um 30 % steigern. Navigieren Sie im Azure-Portal zur Option „Compute + Speicher“, und wechseln Sie ohne zusätzliche Kosten zu „Ev5 Compute“. „Ev5 Compute“ bietet die beste Leistung unter anderen VM-Serien in Bezug auf QPS und Latenz.
Weitere Informationen finden Sie unter Azure Database for MySQL – Flexibler Server: OrcasMeruMySqlComputeSeriesUpgradeEv5 (Steigern Ihrer Workloadleistung um 30 % mit der neuen Ev5-Computehardware).
Erhöhen des Speicherlimits für eine Hyperscale (Citus)-Servergruppe
Unser System zeigt, dass mindestens ein Knoten in der Servergruppe ggf. eingeschränkt ist, weil für den derzeit bereitgestellten Speicher in Kürze die Grenzwerte erreicht werden. Dies kann zu Leistungseinbußen oder dazu führen, dass der Server in den schreibgeschützten Modus versetzt wird. Wir empfehlen Ihnen, die Menge des bereitgestellten Speicherplatzes zu erhöhen, damit dauerhaft für eine gute Leistung gesorgt ist.
Weitere Informationen finden Sie unter PostgreSQL-Server: OrcasPostgreSqlCitusStorageLimitHyperscaleCitus (Erhöhen des Speicherlimits für eine Hyperscale (Citus)-Servergruppe).
Erhöhen der Anzahl von virtuellen Kernen für PostgreSQL-Server
Über 7 Tage betrug die CPU-Auslastung mindestens eine der folgenden: Über 90 % für 2 oder mehr Stunden, über 50 % der Zeit für 50 % der Zeit, bei maximaler Auslastung für 20 % der Zeit. Eine hohe CPU-Auslastung kann zu einer niedrigen Abfrageleistung führen. Um die Leistung zu verbessern, empfehlen wir, Ihren Server auf eine größere SKU mit höheren Grenzwerten für Compute zu verschieben. Weitere Informationen finden Sie unter Computeoptionen in Azure Database for PostgreSQL: Flexible Server: Hochskalieren der Server-SKU für PostgreSQL auf Azure-Datenbank.
Optimieren der Einstellungen für „log_statement“ für die PostgreSQL-Datenbank in Azure
Unser System zeigt, dass Sie „log_statement“ aktiviert haben. Legen Sie die Einstellung auf NONE fest, um eine bessere Leistung zu erzielen.
Weitere Informationen finden Sie unter Protokolle in Azure Database for PostgreSQL: Flexible Server: Optimieren der Einstellungen für „log_statement“ für die PostgreSQL-Datenbank in Azure.
Optimieren der Einstellungen für „log_duration“ für die PostgreSQL-Datenbank in Azure
Möglicherweise treten aufgrund von Protokollierungseinstellungen potenzielle Leistungsbeeinträchtigungen auf. Um diese Einstellungen zu optimieren, legen Sie den log_duration-Serverparameter auf OFF fest.
Weitere Informationen finden Sie unter Protokolle in Azure Database for PostgreSQL: Flexible Server: Optimieren der Einstellungen für „log_duration“ für die PostgreSQL-Datenbank in Azure.
Optimieren der Einstellungen für „log_min_duration“ für die PostgreSQL-Datenbank in Azure
Ihr Serverparameter „log_min_duration“ ist auf weniger als 60.000 ms (1 Minute) festgelegt, was zu einer potenziellen Leistungsbeeinträchtigung führen kann. Sie können die Protokollierungseinstellungen optimieren, indem Sie den Parameter „log_min_duration_statement“ auf -1 festlegen.
Weitere Informationen finden Sie unter Protokolle in Azure Database for PostgreSQL: Flexible Server: Optimieren der Einstellungen für „log_min_duration“ für die PostgreSQL-Datenbank in Azure.
Optimieren der Einstellungen für „log_error_verbosity“ für die PostgreSQL-Datenbank in Azure
Ihr Server ist für die Ausgabe AUSFÜHRLICHER Fehlerprotokolle konfiguriert. Dies kann für die Problembehandlung Ihrer Datenbank hilfreich sein, aber auch mit einer Beeinträchtigung der Datenbankleistung einhergehen. Zur Verbesserung der Leistung empfiehlt es sich, den Serverparameter „log_error_verbosity“ auf die Standardeinstellung (DEFAULT) festzulegen.
Weitere Informationen finden Sie unter Protokolle in Azure Database for PostgreSQL: Flexible Server: Optimieren der Einstellungen für „log_error_verbosity“ für die PostgreSQL-Datenbank in Azure.
Identifizieren Sie, ob Prüfpunkte zu häufig ausgeführt werden, um die Leistung von PostgreSQL (Flexible Server) zu verbessern.
Auf Ihren Server treten häufig Prüfpunkte auf. Um das Problem zu beheben, wird empfohlen, den Serverparameter „max_wal_size“ zu erhöhen.
Weitere Informationen finden Sie unter Azure DB for PostgreSQL (Flexible Server): Erhöhen von max_wal_size.
Identifizieren von inaktiven logischen Replikationsslots zum Verbessern der Leistung von PostgreSQL – Flexible Server
Ihr Server hat eventuell inaktive logische Replikationsslots, die zu einer beeinträchtigten Leistung und Verfügbarkeit des Servers führen können. Es empfiehlt sich, die inaktiven Replikationsslots zu löschen oder die Änderungen aus den Slots zu nutzen, damit die Protokollfolgenummer (LSN) der aktuellen LSN des Servers näher kommt.
Weitere Informationen finden Sie 8nter Autovacuum-Optimierung in Azure Database for PostgreSQL – Flexibler Server: Nicht verwendete Replikationsslots.
Identifizieren langer Transaktionen zur Verbesserung der Leistung von PostgreSQL (Flexible Server)
Es gibt Transaktionen, deren Ausführung mehr als 24 Stunden dauert. Sehen Sie sich den Abschnitt „Hohe CPU-Auslastung > Zeitintensive Transaktionen“ in den Leitfäden zur Problembehandlung an, um das Problem zu identifizieren und zu lösen.
Weitere Informationen finden Sie unter Azure DB for PostgreSQL (Flexible Server): Zeitintensive Transaktionen mit den Leitfäden für Problembehandlung.
Identifizieren verwaister vorbereiteter Transaktionen zur Verbesserung der Leistung von PostgreSQL (Flexible Server)
Es gibt verwaiste vorbereitete Transaktionen. Nehmen Sie ein Rollback/Commit der vorbereiteten Transaktion vor. Die Empfehlungen sind im Abschnitt „Autovacuum-Hindernisse > Autovacuum-Hindernisse“ in den Leitfäden zur Problembehandlung aufgeführt.
Weitere Informationen finden Sie unter Azure DB for PostgreSQL (Flexible Server): Verwaiste vorbereitetet Transaktionen mit den Leitfäden für Problembehandlung.
Identifizieren von Transaktionsumbrüchen zur Verbesserung der Leistung von PostgreSQL (Flexible Server)
Der Server hat den Umbruchgrenzwert von 50 % überschritten und verfügt über 1 Milliarde Transaktionen. Weitere Informationen finden Sie in den Empfehlungen, die im Abschnitt „Autovacuum-Hindernisse > Notfall-Autovacuum und Wraparound“ der Anleitungen zur Problembehandlung freigegeben wurden.
Weitere Informationen finden Sie unter Azure DB for PostgreSQL (Flexible Server): Wraparound für Transaktionen mit den Leitfäden für Problembehandlung.
Ermitteln des hohen Bloat-Verhältnisses zur Verbesserung der Leistung von PostgreSQL (Flexible Server)
Der Server verfügt über ein bloat_ratio (tote Tupel/(lebende Tupel + tote Tupel) > 80 %). Weitere Informationen finden Sie in den Empfehlungen im Abschnitt „Autovacuum-Überwachung“ der Leitfäden zur Problembehandlung.
Weitere Informationen finden Sie unter Azure DB for PostgreSQL (Flexible Server): Hohes Bloat-Verhältnis mit den Leitfäden für Problembehandlung.
Erhöhen des Speicherlimits für eine Hyperscale (Citus)-Servergruppe
Unser System zeigt, dass mindestens ein Knoten in der Servergruppe ggf. eingeschränkt ist, weil für den derzeit bereitgestellten Speicher in Kürze die Grenzwerte erreicht werden. Dies kann zu Leistungseinbußen oder dazu führen, dass der Server in den schreibgeschützten Modus versetzt wird. Wir empfehlen Ihnen, die Menge des bereitgestellten Speicherplatzes zu erhöhen, damit dauerhaft für eine gute Leistung gesorgt ist.
Weitere Informationen finden Sie unter Hyperscale (Citus)-Servergruppe: MarlinStorageLimitRecommendation (Erhöhen des Speicherlimits für eine Hyperscale (Citus)-Servergruppe).
Migrieren Ihrer Datenbank von SSPG zu FSPG
Beachten Sie unser neues Angebot für Azure Database for PostgreSQL – Flexibler Server, das umfangreichere Funktionen wie zonenresistente Hochverfügbarkeit, vorhersagbare Leistung, maximale Kontrolle, benutzerdefinierte Wartungsfenster, Steuerungen zur Kostenoptimierung und eine vereinfachte Entwicklererfahrung bietet.
Weitere Informationen finden Sie unter Flexibler Azure Database for PostgreSQL-Server: OrcasPostgreSqlMeruMigration (Migrieren Ihrer Datenbank von SSPG zu FSPG).
Verbessern Ihrer Cache- und Anwendungsleistung bei der Ausführung mit hoher Netzwerkbandbreite
Cache-Instanzen funktionieren am besten, wenn sie nicht mit hoher Netzwerkbandbreite ausgeführt werden. Hohe Netzwerkbandbreite kann dazu führen, dass die Instanzen nicht mehr reagieren oder nicht mehr verfügbar sind oder dass Daten verloren gehen. Wenden Sie bewährte Methode an, um die Netzwerkbandbreite zu verringern oder auf eine andere Größe oder SKU mit mehr Kapazität zu skalieren.
Weitere Informationen finden Sie unter Redis Cache-Server: RedisCacheNetworkBandwidth (Cache- und Anwendungsleistung bei Ausführung mit hoher Netzwerkbandbreitenauslastung verbessern).
Verbessern Ihrer Cache- und Anwendungsleistung bei der Ausführung mit vielen verbundenen Clients
Cache-Instanzen funktionieren am besten, wenn sie nicht mit hoher Netzwerkbandbreite ausgeführt werden. Hohe Netzwerkbandbreite kann dazu führen, dass die Instanzen nicht mehr reagieren oder nicht mehr verfügbar sind oder dass Daten verloren gehen. Wenden Sie bewährte Methode an, um die Serverauslastung zu reduzieren oder auf eine andere Größe oder SKU mit mehr Kapazität zu skalieren.
Weitere Informationen finden Sie unter Redis Cache-Server: RedisCacheConnectedClients (Cache- und Anwendungsleistung bei Ausführung mit zahlreichen verbundenen Clients verbessern).
Verbessern Ihrer Cache- und Anwendungsleistung bei der Ausführung mit vielen verbundenen Clients
Cache-Instanzen funktionieren am besten, wenn sie nicht mit hoher Netzwerkbandbreite ausgeführt werden. Hohe Netzwerkbandbreite kann dazu führen, dass die Instanzen nicht mehr reagieren oder nicht mehr verfügbar sind oder dass Daten verloren gehen. Wenden Sie bewährte Methode an, um die Serverauslastung zu reduzieren oder auf eine andere Größe oder SKU mit mehr Kapazität zu skalieren.
Erfahren Sie mehr über Redis Cache-Server – RedisCacheConnectedClientsHigh (Verbessern der Cache- und Anwendungsleistung bei Ausführung mit zahlreichen verbundenen Clients).
Verbessern Ihrer Cache- und Anwendungsleistung bei der Ausführung mit hoher Serverauslastung
Cache-Instanzen funktionieren am besten, wenn sie nicht mit hoher Netzwerkbandbreite ausgeführt werden. Hohe Netzwerkbandbreite kann dazu führen, dass die Instanzen nicht mehr reagieren oder nicht mehr verfügbar sind oder dass Daten verloren gehen. Wenden Sie bewährte Methode an, um die Serverauslastung zu reduzieren oder auf eine andere Größe oder SKU mit mehr Kapazität zu skalieren.
Weitere Informationen finden Sie unter Redis Cache-Server: RedisCacheServerLoad (Cache- und Anwendungsleistung bei Ausführung mit hoher Serverlast verbessern).
Verbessern Ihrer Cache- und Anwendungsleistung bei der Ausführung mit hoher Serverauslastung
Cache-Instanzen funktionieren am besten, wenn sie nicht mit hoher Netzwerkbandbreite ausgeführt werden. Hohe Netzwerkbandbreite kann dazu führen, dass die Instanzen nicht mehr reagieren oder nicht mehr verfügbar sind oder dass Daten verloren gehen. Wenden Sie bewährte Methode an, um die Serverauslastung zu reduzieren oder auf eine andere Größe oder SKU mit mehr Kapazität zu skalieren.
Erfahren Sie mehr über Redis Cache-Server – RedisCacheServerLoadHigh (Verbessern der Cache- und Anwendungsleistung bei Ausführung mit hoher Serverlast).
Verbessern Ihrer Cache- und Anwendungsleistung bei der Ausführung mit hoher Arbeitsspeicherauslastung
Cache-Instanzen funktionieren am besten, wenn sie nicht mit hoher Netzwerkbandbreite ausgeführt werden. Hohe Netzwerkbandbreite kann dazu führen, dass die Instanzen nicht mehr reagieren oder nicht mehr verfügbar sind oder dass Daten verloren gehen. Wenden Sie bewährte Methode an, um den verwendeten Arbeitsspeicher zu reduzieren oder auf eine andere Größe oder SKU mit mehr Kapazität zu skalieren.
Weitere Informationen finden Sie unter Redis Cache-Server: RedisCacheUsedMemory (Cache- und Anwendungsleistung bei Ausführung mit hoher Arbeitsspeicherauslastung verbessern).
Verbessern Sie die Cache- und Anwendungsleistung, wenn die Arbeitsspeicher-RSS-Auslastung hoch ist.
Cache-Instanzen funktionieren am besten, wenn sie nicht mit hoher Netzwerkbandbreite ausgeführt werden. Hohe Netzwerkbandbreite kann dazu führen, dass die Instanzen nicht mehr reagieren oder nicht mehr verfügbar sind oder dass Daten verloren gehen. Wenden Sie bewährte Methode an, um den verwendeten Arbeitsspeicher zu reduzieren oder auf eine andere Größe oder SKU mit mehr Kapazität zu skalieren.
Erfahren Sie mehr über Redis Cache Server – RedisCacheUsedMemoryRSS (Verbessern der Cache- und Anwendungsleistung bei hoher RSS-Nutzung im Arbeitsspeicher).
Cache-Instanzen funktionieren am besten, wenn die Hostcomputer, auf denen die Clientanwendung ausgeführt wird, mit Antworten aus dem Cache mithalten können.
Cache-Instanzen funktionieren am besten, wenn die Hostcomputer, auf denen die Clientanwendung ausgeführt wird, mit Antworten aus dem Cache mithalten können. Wenn der Clienthostcomputer in Bezug auf Arbeitsspeicher, CPU oder Netzwerkbandbreite stark ausgelastet ist, erreichen die Cacheantworten Ihre Anwendung nicht schnell genug und können zu einer höheren Latenz führen.
Erfahren Sie mehr über Redis Cache Server – UnresponsiveClient (Cache-Instanzen bieten die beste Leistung, wenn die Hostcomputer, auf denen die Clientanwendung ausgeführt wird, mit den Antworten aus dem Cache mithalten können).
DevOps
Aktualisieren auf die neueste Version der AMS-API
Wir haben Aufrufe einer Version der AMS-API (Azure Media Services) erkannt, die nicht empfohlen wird. Es wird empfohlen, auf die neueste Version der AMS-API umzustellen, um unterbrechungsfreien Zugriff auf AMS, die neuesten Features und Leistungsverbesserungen sicherzustellen.
Weitere Informationen finden Sie unter Monitor – UpdateToLatestAMSApiVersion (Aktualisieren auf die neueste Version der AMS-API).
Upgrade auf die neueste Version des Workloads SDK
Führen Sie ein Upgrade auf die neueste Version des Workloads SDK durch, um die besten Ergebnisse in Bezug auf Modellqualität, Leistung und Dienstverfügbarkeit zu erzielen.
Weitere Informationen finden Sie unter Monitor – UpgradeToLatestAMSSdkVersion (Upgrade auf die neueste Version des Workloads SDK).
Integration
Upgrade Ihrer API Management-Ressource auf eine alternative Version
Ihr Abonnement wird auf Versionen ausgeführt, deren Unterstützung demnächst eingestellt wird. Am 30. September 2023 wurden alle API-Versionen für Azure API Management-Dienst vor 2021-08-01 eingestellt, und API-Aufrufe schlagen fehl. Führen Sie ein Upgrade auf eine neuere Version durch, um Störungen bei Ihren Diensten vorzubeugen.
Weitere Informationen finden Sie unter API Management – apimgmtdeprecation (Upgrade Ihrer API Management-Ressource auf eine alternative Version).
Mobil
Verwenden der empfohlenen Version des Chat SDK
Das Chat SDK von Azure Communication Services kann verwendet werden, um Ihren Anwendungen umfassende Echtzeit-Chatfunktionen hinzuzufügen. Führen Sie ein Update auf die empfohlene Version des Chat SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind.
Weitere Informationen finden Sie unter Communication Services: UpgradeChatSdk (Verwenden der empfohlenen Version des Chat SDK).
Verwenden der empfohlenen Version des Resource Manager SDK
Das Resource Manager SDK kann verwendet werden, um Azure Communication Services-Ressourcen zu erstellen und zu verwalten. Führen Sie ein Update auf die empfohlene Version des Resource Manager SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind.
Weitere Informationen finden Sie unter Communication Services: UpgradeResourceManagerSdk (Verwenden der empfohlenen Version des Resource Manager SDK).
Verwenden der empfohlenen Version des Identity SDK
Das Identity SDK von Azure Communication Services kann verwendet werden, um Identitäten, Benutzer und Zugriffstoken zu verwalten. Führen Sie ein Update auf die empfohlene Version des Identity SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind.
Weitere Informationen finden Sie unter Communication Services: UpgradeIdentitySdk (Verwenden der empfohlenen Version des Identity SDK).
Verwenden der empfohlenen Version des SMS SDK
Das SMS SDK von Azure Communication Services kann verwendet werden, um SMS-Nachrichten zu senden und zu empfangen. Führen Sie ein Update auf die empfohlene Version des SMS SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind.
Weitere Informationen finden Sie unter Communication Services: UpgradeSmsSdk (Verwenden der empfohlenen Version des SMS SDK).
Verwenden der empfohlenen Version des Phone Numbers SDK
Das Phone Numbers SDK von Azure Communication Services kann verwendet werden, um Telefonnummern zu beschaffen und zu verwalten. Führen Sie ein Update auf die empfohlene Version des Phone Numbers SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind.
Weitere Informationen finden Sie unter Communication Services: UpgradePhoneNumbersSdk (Verwenden der empfohlenen Version des Phone Numbers SDK).
Verwenden der empfohlenen Version des Calling SDK
Das Calling SDK von Azure Communication Services kann verwendet werden, um die Kommunikation per Sprache, Video, Bildschirmfreigabe und mit anderen Echtzeitverfahren zu ermöglichen. Führen Sie ein Update auf die empfohlene Version des Calling SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind.
Weitere Informationen finden Sie unter Communication Services: UpgradeCallingSdk (Verwenden der empfohlenen Version des Calling SDK).
Verwenden der empfohlenen Version des Call Automation SDK
Das Call Automation SDK von Azure Communication Services kann verwendet werden, um Anrufe zu tätigen und zu verwalten, Audiodaten wiederzugeben und die Aufzeichnung zu konfigurieren. Führen Sie ein Update auf die empfohlene Version des Call Automation SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind.
Weitere Informationen finden Sie unter Communication Services: UpgradeServerCallingSdk (Verwenden der empfohlenen Version des Call Automation SDK).
Verwenden der empfohlenen Version des Network Traversal SDK
Das Network Traversal SDK von Azure Communication Services kann verwendet werden, um für den Datentransport auf niedriger Ebene auf TURN-Server zuzugreifen. Führen Sie ein Update auf die empfohlene Version des Network Traversal SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind.
Weitere Informationen finden Sie unter Communication Services: UpgradeTurnSdk (Verwenden der empfohlenen Version des Network Traversal SDK).
Verwenden der empfohlenen Version von Rooms SDK
Azure Communication Services Rooms SDK kann verwendet werden, um zu steuern, wer an einem Anruf teilnehmen kann, wann man sich treffen kann und wie man zusammenarbeiten kann. Führen Sie ein Update auf die empfohlene Version des Rooms SDK durch, um sicherzustellen, dass die neuesten Fehlerbehebungen und Features vorhanden sind. In den letzten 48-60 Stunden wurde eine nicht empfohlene Version erkannt.
Weitere Informationen finden Sie unter Communication Services: UpgradeRoomsSdk (Verwenden der empfohlenen Version von Rooms SDK).
Netzwerk
Empfehlung zur Aktualisierung der Version des SDK
Die neueste Version der Azure Front Door Standard- und Premium-Client-Bibliothek bzw. des SDK enthält Korrekturen für Probleme, die von Kunden gemeldet und durch unseren QA-Prozess proaktiv identifiziert wurden. Darüber hinaus bietet die neueste Version neben Zuverlässigkeits- und Leistungsoptimierungen auch neue Features, die Azure Front Door Standard und Premium noch benutzerfreundlicher machen.
Erfahren Sie mehr über Front Door-Profil – UpgradeCDNToLatestSDKLanguage (Empfehlung zum Upgrade der SDK-Version).
Empfehlung zur Aktualisierung der Version des SDK
Die neueste Version des Azure Traffic Collector-SDK enthält Korrekturen für Probleme, die proaktiv durch unseren QA-Prozess erkannt wurden, unterstützt das neueste Ressourcenmodell und verfügt über Zuverlässigkeits- und Leistungsoptimierungen, die Ihre allgemeine Erfahrung bei der Verwendung von ATC verbessern können.
Erfahren Sie mehr über Azure Traffic Collector – UpgradeATCToLatestSDKLanguage (Empfehlung zum Upgrade der SDK-Version).
Durchführen eines Upgrades der Bandbreite Ihrer ExpressRoute-Verbindung, um Ihre Bandbreitenanforderungen zu erfüllen
Sie haben in letzter Zeit mehr als 90 % Ihrer bereitgestellten Leitungsbandbreite genutzt. Wenn Sie die zugeordnete Bandbreite überschreiten, werden vermehrt Pakete verworfen, die per ExpressRoute gesendet werden. Führen Sie ein Upgrade für Ihre Leitungsbandbreite durch, um für eine ausreichende Leistung zu sorgen, falls die Bandbreitenanforderungen weiterhin hoch sind.
Weitere Informationen finden Sie unter ExpressRoute-Leitung UpgradeERCircuitBandwidth (Durchführen eines Upgrades der Bandbreite Ihrer ExpressRoute-Verbindung, um Ihre Bandbreitenanforderungen zu erfüllen).
Erfahrung mit besser vorhersagbarer, konsistenter Latenz mit einer privaten Verbindung mit Azure
Verbessern Sie Leistung, Datenschutz und Zuverlässigkeit Ihrer unternehmenskritischen Apps, indem Sie Ihre lokalen Netzwerke mit Azure ExpressRoute auf Azure erweitern. Richten Sie private ExpressRoute-Verbindungen direkt über Ihr WAN, über eine Cloud Exchange-Einrichtung oder über POP- und IPVPN-Verbindungen ein.
Erfahren Sie mehr über Abonnement – AzureExpressRoute (vorhersehbarere, konsistentere Latenz bei privaten Verbindungen mit Azure).
Upgrade der Workloads-API auf die neueste Version (Azure Center for SAP Solutions-API)
Wir haben Aufrufe einer veralteten Workloads-API-Version für Ressourcen unter dieser Ressourcengruppe identifiziert. Es wird empfohlen, zur neuesten Workloads-API-Version zu wechseln, um unterbrechungsfreien Zugriff auf die neuesten Features und Leistungsverbesserungen in Azure Center for SAP Solutions sicherzustellen. Wenn in der Empfehlung mehrere VIS-Instanzen (Virtual Instance for SAP solutions) angezeigt werden, stellen Sie sicher, dass Sie die API-Version für alle VIS-Ressourcen aktualisieren.
Erfahren Sie mehr über Abonnement – UpdateToLatestWaasApiVersionAtSub (Upgrade der Workloads-API auf die neueste Version (Azure Center for SAP solutions-API)).
Upgrade des Workloads-SDK auf die neueste Version (Azure Center for SAP Solutions-SDK)
Wir haben Aufrufe einer veralteten Workloads-SDK-Version von Ressourcen in dieser Ressourcengruppe identifiziert. Führen Sie ein Upgrade auf die neueste Version des Workloads SDK durch, um die neuesten Features und besten Ergebnisse in Bezug auf Modellqualität, Leistung und Dienstverfügbarkeit für Azure Center for SAP solutions zu erzielen. Wenn in der Empfehlung mehrere VIS-Instanzen (Virtual Instance for SAP solutions) angezeigt werden, stellen Sie sicher, dass Sie die SDK-Version für alle VIS-Ressourcen aktualisieren.
Weitere Informationen finden Sie unter Abonnement – UpgradeToLatestWaasSdkVersionAtSub (Upgrade des Workloads SDK auf die neueste Version (Azure Center for SAP solutions SDK)).
Konfigurieren einer DNS-Gültigkeitsdauer (TTL) von 60 Sekunden
Die Gültigkeitsdauer (TTL) beeinflusst, wie aktuell die Antwort ist, die ein Client erhält, wenn er eine Anforderung an Azure Traffic Manager stellt. Wenn Sie den TTL-Wert verringern, wird der Client im Falle eines Failovers schneller an einen funktionierenden Endpunkt weitergeleitet. Konfigurieren Sie die Gültigkeitsdauer auf 60 Sekunden, um Datenverkehr so schnell wie möglich an einen Integritätsendpunkt weiterzuleiten
Weitere Informationen finden Sie unter Traffic Manager-Profil: ProfileTTL (Konfigurieren einer DNS-Gültigkeitsdauer (TTL) von 60 Sekunden).
Konfigurieren einer DNS-Gültigkeitsdauer (TTL) von 20 Sekunden
Die Gültigkeitsdauer (TTL) beeinflusst, wie aktuell die Antwort ist, die ein Client erhält, wenn er eine Anforderung an Azure Traffic Manager stellt. Wenn Sie den TTL-Wert verringern, wird der Client im Falle eines Failovers schneller an einen funktionierenden Endpunkt weitergeleitet. Konfigurieren Sie die Gültigkeitsdauer auf 20 Sekunden, um Datenverkehr so schnell wie möglich an einen Integritätsendpunkt weiterzuleiten
Weitere Informationen finden Sie unter Traffic Manager-Profil: FastFailOverTTL (Konfigurieren einer DNS-Gültigkeitsdauer (TTL) von 20 Sekunden).
Konfigurieren einer DNS-Gültigkeitsdauer (TTL) von 60 Sekunden
Die Gültigkeitsdauer (TTL) beeinflusst, wie aktuell die Antwort ist, die ein Client erhält, wenn er eine Anforderung an Azure Traffic Manager stellt. Wenn Sie den TTL-Wert verringern, wird der Client im Falle eines Failovers schneller an einen funktionierenden Endpunkt weitergeleitet. Konfigurieren Sie die Gültigkeitsdauer auf 60 Sekunden, um Datenverkehr so schnell wie möglich an einen Integritätsendpunkt weiterzuleiten
Weitere Informationen finden Sie unter Traffic Manager-Profil: ProfileTTL (Konfigurieren einer DNS-Gültigkeitsdauer (TTL) von 60 Sekunden).
Erwägen Sie, die Größe Ihrer VNET-Gateway-SKU zu erhöhen, um eine konsistent hohe CPU-Auslastung zu behandeln.
Bei hohem Datenverkehr kann das VPN-Gateway Pakete aufgrund hoher CPU-Auslastung verwerfen.
Weitere Informationen finden Sie unter VNET-Gateway: HighCPUVNetGateway (Erwägen Sie, die Größe Ihrer VNET-Gateway-SKU zu erhöhen, um eine konsistent hohe CPU-Auslastung zu behandeln.).
Erwägen Sie, die Größe Ihrer VNET-Gateway-SKU zu erhöhen, um eine hohe P2S-Auslastung zu behandeln.
Jede Gateway-SKU kann nur eine vorgegebene Anzahl gleichzeitiger P2S-Verbindungen unterstützen. Wenn Ihre Verbindungsanzahl den Grenzwert Ihres Gateways fast erreicht hat, können möglicherweise keine weiteren Verbindungen hergestellt werden.
Weitere Informationen finden Sie unter Gateway des virtuellen Netzwerks: HighP2SConnectionsVNetGateway (Erwägen Sie, die Größe Ihrer VNet Gateway-SKU zu erhöhen, um eine intensive P2S-Nutzung zu unterstützen.).
Stellen Sie sicher, dass Sie auf Ihrer Application Gateway-Instanz über genügend Instanzen zur Unterstützung Ihres Datenverkehrs verfügen.
Ihre Application Gateway-Instanz wurde in letzter Zeit mit hoher Auslastung und Last ausgeführt. Aus diesem Grund kann es zu Datenverkehrsverlust oder erhöhter Latenz kommen. Es ist wichtig, dass Sie Ihre Application Gateway-Instanz entsprechend skalieren und einen Puffer hinzufügen, damit Sie auf Datenverkehrsspitzen vorbereitet sind und die Auswirkungen minimieren, die sie auf Ihre Servicequalität haben könnten. Für die Application Gateway v1-SKU (Standard/WAF) wird die manuelle Skalierung unterstützt und für die v2-SKU (Standard_v2/WAF_v2) die manuelle und die automatische Skalierung. Erhöhen Sie bei manueller Skalierung die Anzahl der Instanzen. Stellen Sie bei aktivierter automatischer Skalierung sicher, dass die maximale Anzahl der Instanzen auf einen höheren Wert festgelegt ist, damit Application Gateway aufskaliert werden kann, wenn der Datenverkehr zunimmt.
Weitere Informationen finden Sie unter Application Gateway: HotAppGateway (Stellen Sie sicher, dass Sie auf Ihrer Application Gateway-Instanz über genügend Instanzen zur Unterstützung Ihres Datenverkehrs verfügen.).
Verwenden von HEAD-Integritätstests
Integritätstests können entweder die GET- oder HEAD HTTP-Methode verwenden. Es empfiehlt sich, die HEAD-Methode für Integritätstests zu verwenden, wodurch die Anzahl der Datenverkehrslasten für Ihre Ursprünge reduziert wird.
Weitere Informationen zu Die Verwendung von HEAD-Integritätstests in Azure Front Door.
SAP für Azure
Verringern des Werts von „can_queue“ im Betriebssystem des virtuellen App-Computers in SAP-Workloads, um Soft-Lockups im Mellanox-Treiber zu vermeiden
Um sporadische Soft-Lockups im Mellanox-Treiber zu vermeiden, verringern Sie den Wert von „can_queue“ im Betriebssystem. Der Wert kann nicht direkt festgelegt werden. Fügen Sie die folgenden Kernel-Startzeilenoptionen hinzu, um das gleiche Ergebnis zu erzielen: „hv_storvsc.storvsc_ringbuffer_size=131072 hv_storvsc.storvsc_vcpus_per_sub_channel=1024“
Weitere Informationen finden Sie unter App-Serverinstanz – AppSoftLockup (Verringern des Werts von „can_queue“ im Betriebssystem des virtuellen App-Computers in SAP-Workloads, um Soft-Lockups im Mellanox-Treiber zu vermeiden).
Verringern des Werts von „can_queue“ im Betriebssystem des virtuellen ASCS-Computers in SAP-Workloads, um Soft-Lockups im Mellanox-Treiber zu vermeiden
Um sporadische Soft-Lockups im Mellanox-Treiber zu vermeiden, verringern Sie den Wert von „can_queue“ im Betriebssystem. Der Wert kann nicht direkt festgelegt werden. Fügen Sie die folgenden Kernel-Startzeilenoptionen hinzu, um das gleiche Ergebnis zu erzielen: „hv_storvsc.storvsc_ringbuffer_size=131072 hv_storvsc.storvsc_vcpus_per_sub_channel=1024“
Weitere Informationen finden Sie unter Zentrale Serverinstanz – AscsoftLockup (Verringern des Werts von „can_queue“ im Betriebssystem des virtuellen ASCS-Computers in SAP-Workloads, um Soft-Lockups im Mellanox-Treiber zu vermeiden).
Verringern des Werts von „can_queue“ im Betriebssystem des virtuellen Datenbankcomputers in SAP-Workloads, um Soft-Lockups im Mellanox-Treiber zu vermeiden
Um sporadische Soft-Lockups im Mellanox-Treiber zu vermeiden, verringern Sie den Wert von „can_queue“ im Betriebssystem. Der Wert kann nicht direkt festgelegt werden. Fügen Sie die folgenden Kernel-Startzeilenoptionen hinzu, um das gleiche Ergebnis zu erzielen: „hv_storvsc.storvsc_ringbuffer_size=131072 hv_storvsc.storvsc_vcpus_per_sub_channel=1024“
Weitere Informationen finden Sie unter Datenbankinstanz – DBSoftLockup (Verringern des Werts von „can_queue“ im Betriebssystem des virtuellen DB-Computers in SAP-Workloads, um Soft-Lockups im Mellanox-Treiber zu vermeiden).
Optimieren Sie den Betriebssystemparameter „tcp_wmem“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen.
Der Parameter „net.ipv4.tcp_wmem“ gibt die minimale, standardmäßige und maximale Sendepuffergröße an, die für einen TCP-Socket verwendet wird. Legen Sie den Parameter gemäß SAP-Hinweis 302436 fest, um HANA DB für die Ausführung mit ANF zu zertifizieren und die Leistung des Dateisystems zu verbessern. Der Maximalwert darf den Parameter „net.core.wmem_max“ nicht überschreiten.
Weitere Informationen finden Sie unter Datenbankinstanz – WriteBuffersAllocated (Optimieren Sie den Betriebssystemparameter „tcp_wmem“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen).
Optimieren Sie den Betriebssystemparameter „tcp_rmem“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen.
Der Parameter „net.ipv4.tcp_rmem“ gibt die minimale, standardmäßige und maximale Empfangspuffergröße an, die für einen TCP-Socket verwendet wird. Legen Sie den Parameter gemäß SAP-Hinweis 3024346 fest, um HANA DB für die Ausführung mit ANF zu zertifizieren und die Leistung des Dateisystems zu verbessern. Der Maximalwert darf den Parameter „net.core.rmem_max“ nicht überschreiten.
Weitere Informationen finden Sie unter Datenbankinstanz – OptimiseReadTcp (Optimieren Sie den Betriebssystemparameter „tcp_rmem“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen).
Optimieren Sie den Betriebssystemparameter „wmem_max“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen.
Beim Speichertyp „HANA DB mit ANF“ muss der maximale Schreibsocketpuffer, der durch den Parameter „net.core.wmem_max“ definiert wird, groß genug sein, um ausgehende Netzwerkpakete zu behandeln. Die Konfiguration von „net.core.wmem_max“ zertifiziert HANA DB für die Ausführung mit ANF und verbessert die Leistung des Dateisystems. Weitere Informationen finden Sie im SAP-Hinweis 3024346.
Weitere Informationen finden Sie unter Datenbankinstanz – MaxWriteBuffer (Optimieren Sie den Betriebssystemparameter „wmem_max“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen).
Optimieren Sie den Betriebssystemparameter „tcp_rmem“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen.
Der Parameter „net.ipv4.tcp_rmem“ gibt die minimale, standardmäßige und maximale Empfangspuffergröße an, die für einen TCP-Socket verwendet wird. Legen Sie den Parameter gemäß SAP-Hinweis 3024346 fest, um HANA DB für die Ausführung mit ANF zu zertifizieren und die Leistung des Dateisystems zu verbessern. Der Maximalwert darf den Parameter „net.core.rmem_max“ nicht überschreiten.
Weitere Informationen finden Sie unter Datenbankinstanz – OptimizeReadTcp (Optimieren Sie den Betriebssystemparameter „tcp_rmem“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen).
Optimieren Sie den Betriebssystemparameter „rmem_max“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen.
Beim Speichertyp „HANA DB mit ANF“ muss der maximale Lesesocketpuffer, der durch den Parameter „net.core.rmem_max“ definiert wird, groß genug sein, um eingehende Netzwerkpakete zu verarbeiten. Die Konfiguration von „net.core.rmem_max“ zertifiziert HANA DB für die Ausführung mit ANF und verbessert die Leistung des Dateisystems. Weitere Informationen finden Sie im SAP-Hinweis 3024346.
Weitere Informationen finden Sie unter Datenbankinstanz – MaxReadBuffer (Optimieren Sie den Betriebssystemparameter „rmem_max“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen).
Legen Sie für eine verbesserte Dateisystemleistung in HANA DB mit ANF die Größe der Empfängerrückstandswarteschlange auf 300000 fest
Der Parameter „net.core.netdev_max_backlog“ gibt die Größe der Empfänger-Backlog-Warteschlange an, die verwendet wird, wenn eine Netzwerkschnittstelle Pakete schneller empfängt, als der Kernel verarbeiten kann. Setzen Sie den Parameter gemäß SAP-Hinweis: 3024346. Die Konfiguration von „net.core.netdev_max“ zertifiziert HANA DB für die Ausführung mit ANF und verbessert die Leistung des Dateisystems.
Weitere Informationen finden Sie unter Datenbankinstanz – BacklogQueueSize (Legen Sie für eine verbesserte Dateisystemleistung in HANA DB mit ANF die Größe der Empfängerrückstandswarteschlange auf 300000 fest).
Um die Leistung des Dateisystems in HANA DB mit ANF zu verbessern, aktivieren Sie den Betriebssystemparameter TCP-Fensterskalierung
Aktivieren Sie den TCP-Fensterskalierungsparameter gemäß SAP-Hinweis: 302436. Die Konfiguration der TCP-Fensterskalierung zertifiziert HANA DB für die Ausführung mit ANF und verbessert die Dateisystemleistung in HANA DB mit ANF in SAP-Workloads
Weitere Informationen finden Sie unter Datenbankinstanz – EnableTCPWindowScaling (Um die Leistung des Dateisystems in HANA DB mit ANF zu verbessern, aktivieren Sie den Betriebssystemparameter für die TCP-Fensterskalierung).
Deaktivieren Sie für eine verbesserte Dateisystemleistung in HANA DB mit ANF das IPv6-Protokoll im Betriebssystem
Deaktivieren Sie IPv6 gemäß der Empfehlung für SAP in Azure für HANA DB mit ANF, um die Leistung des Dateisystems zu verbessern
Weitere Informationen finden Sie unter Datenbankinstanz – DisableIPv6Protocol (Deaktivieren Sie für eine verbesserte Dateisystemleistung in HANA DB mit ANF das IPv6-Protokoll im Betriebssystem).
Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, deaktivieren Sie den Parameter für langsamen Start nach Leerlauf
Durch den Parameter „net.ipv4.tcp_slow_start_after_idle“ muss die TCP-Fenstergröße für TCP-Verbindungen, die für einige Zeit im Leerlauf waren, nicht inkrementell hochskaliert werden. Indem Sie diesen Parameter gemäß SAP-Hinweis: 302436 auf Null setzen, wird die maximale Geschwindigkeit von Anfang an für zuvor inaktive TCP-Verbindungen verwendet
Weitere Informationen finden Sie unter Datenbankinstanz – ParamterSlowStart (Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, deaktivieren Sie den Parameter für langsamen Start nach Leerlauf).
Für eine verbesserte Dateisystemleistung in HANA DB mit ANF optimieren Sie den Betriebssystemparameter „tcp_max_syn_backlog“
Um zu verhindern, dass der Kernel SYN-Cookies verwendet, wenn in kurzer Zeit viele Verbindungsanfragen gesendet werden, und um eine Warnung vor einem potenziellen SYN-Floodingangriff im Systemprotokoll zu verhindern, muss die Größe des SYN-Rückstands auf einen angemessenen Wert eingestellt werden hochwertig. Weitere Informationen finden Sie im SAP-Hinweis 2382421.
Weitere Informationen finden Sie unter Datenbankinstanz – TCPMaxSynBacklog (Für eine verbesserte Dateisystemleistung in HANA DB mit ANF optimieren Sie den Betriebssystemparameter „tcp_max_syn_backlog“).
Aktivieren Sie für eine verbesserte Dateisystemleistung in HANA DB mit ANF den tcp_sack OS-Parameter
Aktivieren Sie den Parameter tcp_sack gemäß SAP-Hinweis: 302436. Die Konfiguration von „tcp_sack“ zertifiziert HANA DB für die Ausführung mit ANF und verbessert die Dateisystemleistung in HANA DB mit ANF in SAP-Workloads
Weitere Informationen finden Sie unter Datenbankinstanz – TCPSackParameter (Optimieren Sie den Betriebssystemparameter „tcp_sack“, um eine bessere Dateisystemleistung in HANA DB mit ANF zu erzielen).
Deaktivieren Sie im Hochverfügbarkeitsszenario für HANA DB mit ANF den Betriebssystemparameter „tcp_timestamps“.
Deaktivieren Sie den Parameter tcp_timestamps gemäß SAP-Hinweis: 302436. Die Konfiguration von „tcp_timestamps“ zertifiziert HANA DB für die Ausführung mit ANF und verbessert die Dateisystemleistung in Hochverfügbarkeitsszenarien für HANA DB mit ANF in SAP-Workloads
Weitere Informationen finden Sie unter Datenbankinstanz – DisableTCPTimestamps (Deaktivieren Sie im Hochverfügbarkeitsszenario für HANA DB mit ANF den Betriebssystemparameter „tcp_timestamps“).
Aktivieren Sie für eine verbesserte Dateisystemleistung in HANA DB mit ANF den Betriebssystemparameter tcp_timestamps
Aktivieren Sie den Parameter tcp_timestamps gemäß SAP-Hinweis: 302436. Die Konfiguration von „tcp_timestamps“ zertifiziert HANA DB für die Ausführung mit ANF und verbessert die Dateisystemleistung in HANA DB mit ANF in SAP-Workloads
Weitere Informationen finden Sie unter Datenbankinstanz – EnableTCPTimestamps (Aktivieren Sie für eine verbesserte Dateisystemleistung in HANA DB mit ANF den Betriebssystemparameter „tcp_timestamps“).
Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, aktivieren Sie die automatische Optimierung der TCP-Empfangspuffergröße
Der Parameter „net.ipv4.tcp_moderate_rcvbuf“ ermöglicht es TCP, eine automatische Optimierung des Puffers durchzuführen, um den Puffer automatisch zu dimensionieren (nicht größer als „tcp_rmem“, um der Größe zu entsprechen, die der Pfad für den vollen Durchsatz erfordert. Aktivieren Sie diesen Parameter gemäß SAP-Hinweis 302436 für eine verbesserte Dateisystemleistung
Weitere Informationen finden Sie unter Datenbankinstanz – EnableAutoTuning (Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, aktivieren Sie die automatische Optimierung der TCP-Empfangspuffergröße).
Für eine verbesserte Dateisystemleistung in HANA DB mit ANF optimieren Sie „net.ipv4.ip_local_port_range“
Da HANA eine beträchtliche Anzahl von Verbindungen für die interne Kommunikation verwendet, ist es sinnvoll, möglichst viele Client-Ports für diesen Zweck zur Verfügung zu haben. Legen Sie den Betriebssystemparameter net.ipv4.ip_local_port_range gemäß SAP-Hinweis 2382421 fest, um eine optimale interne HANA-Kommunikation sicherzustellen.
Weitere Informationen finden Sie unter Datenbankinstanz – IPV4LocalPortRange (Für eine verbesserte Dateisystemleistung in HANA DB mit ANF optimieren Sie „net.ipv4.ip_local_port_range“).
Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, optimieren Sie „sunrpc.tcp_slot_table_entries“
Legen Sie den Parameter „sunrpc.tcp_slot_table_entries“ gemäß der Empfehlung für eine verbesserte Dateisystemleistung in HANA DB mit ANF in SAP-Workloads auf 128 fest
Weitere Informationen finden Sie unter Datenbankinstanz – TCPSlotTableEntries (Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, optimieren Sie „sunrpc.tcp_slot_table_entries“).
Alle Datenträger in LVM für das Volume „/hana/data“ müssen vom gleichen Typ sein, um eine hohe Leistung in HANA DB zu gewährleisten
Wenn im Volume /hana/data mehrere Datenträgertypen ausgewählt sind, wird die Leistung von HANA DB in SAP-Workloads möglicherweise eingeschränkt. Stellen Sie sicher, dass alle Volumedatenträger für HANA-Daten vom gleichen Typ sind und gemäß der Empfehlung für SAP in Azure konfiguriert sind
Weitere Informationen finden Sie unter Datenbankinstanz – HanaDataDiskTypeSame (Alle Datenträger in LVM für das Volume „/hana/data“ müssen vom gleichen Typ sein, um eine hohe Leistung in HANA DB zu gewährleisten).
Die Stripegröße für „/hana/data“ muss 256 KB betragen, um die Leistung von HANA DB in SAP-Workloads zu verbessern
Wenn Sie LVM oder mdadm verwenden, um Stripesets über mehrere Azure Premium-Datenträger hinweg zu erstellen, müssen Sie Stripegrößen definieren. Basierend auf Erfahrungen mit neueren Linux-Versionen empfiehlt Azure die Verwendung einer Stripegröße von 256 KB für das Dateisystem „/hana/data“, um die Leistung von HANA DB zu verbessern
Weitere Informationen finden Sie unter Datenbankinstanz – HanaDataStripeSize (Die Stripegröße für „/hana/data“ muss 256 KB betragen, um die Leistung von HANA DB in SAP-Workloads zu verbessern).
Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, optimieren Sie den Parameter „vm.swappiness“
Legen Sie den Betriebssystemparameter „vm.swappiness“ gemäß der Empfehlung für eine verbesserte Dateisystemleistung in HANA DB mit ANF in SAP-Workloads auf 10 fest
Weitere Informationen finden Sie unter Datenbankinstanz – VmSwappiness (Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, optimieren Sie den Parameter „vm.swappiness“).
Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, deaktivieren Sie net.ipv4.conf.all.rp_filter
Deaktivieren Sie den Linux-Betriebssystemparameter zum Filtern nach umgekehrten Pfaden „net.ipv4.conf.all.rp_filter“ gemäß der Empfehlung für eine verbesserte Dateisystemleistung in HANA DB mit ANF in SAP-Workloads
Weitere Informationen finden Sie unter Datenbankinstanz – DisableIPV4Conf (Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, deaktivieren Sie „net.ipv4.conf.all.rp_filter“).
Bei Verwendung von Ultradisk muss der IOPS-Wert für das Volume „/hana/data“ >=7000 sein, um eine bessere HANA-DB-Leistung zu erzielen
Bei Verwendung von Ultradisk werden für SAP-Workloads mindestens 7000 IOPS im /hana/data-Volume empfohlen. Wählen Sie den Datenträgertyp für das Volume „/hana/data“ gemäß dieser Anforderung aus, um eine hohe Leistung der DB sicherzustellen
Weitere Informationen finden Sie unter Datenbankinstanz – HanaDataIOPS (Bei Verwendung von Ultradisk muss der IOPS-Wert für das Volume „/hana/data“ >=7000 sein, um eine bessere HANA-DB-Leistung zu erzielen).
Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, ändern Sie den Parameter tcp_max_slot_table_entries
Legen Sie den Betriebssystemparameter „tcp_max_slot_table_entries“ gemäß SAP-Hinweis: 302436 für verbesserte Dateiübertragungsleistung in HANA DB mit ANF in SAP-Workloads auf 128 fest
Weitere Informationen finden Sie unter Datenbankinstanz – OptimizeTCPMaxSlotTableEntries (Um die Dateisystemleistung in HANA DB mit ANF zu verbessern, ändern Sie den Parameter „tcp_max_slot_table_entries“).
Stellen Sie sicher, dass die Leseleistung des Volumes „/hana/data“ >=400 MB/s beträgt, um eine bessere Leistung in HANA DB zu erzielen
Für SAP-Workloads in Azure wird eine Leseaktivität von mindestens 400 MB/s für /hana/data für E/A-Größen von 16 MB und 64 MB empfohlen. Wählen Sie den Datenträgertyp für „/hana/data“ gemäß dieser Anforderung aus, um eine hohe Leistung der Datenbank sicherzustellen und die Mindestspeicheranforderungen für SAP HANA zu erfüllen
Weitere Informationen finden Sie unter Datenbankinstanz – HanaDataVolumePerformance (Stellen Sie sicher, dass die Leseleistung des Volumes „/hana/data“ >=400 MB/s beträgt, um eine bessere Leistung in HANA DB zu erzielen).
Die Lese-/Schreibleistung des Volumes „/hana/log“ muss für eine bessere Leistung in HANA DB >=250 MB/s betragen
Für SAP-Workloads in Azure wird eine Lese-/Schreibaktivität von mindestens 250 MB/s für /hana/log für eine E/A-Größe von 1 MB empfohlen. Wählen Sie den Datenträgertyp für das Volume „/hana/log“ gemäß dieser Anforderung aus, um eine hohe Leistung der Datenbank sicherzustellen und die Mindestspeicheranforderungen für SAP HANA zu erfüllen
Weitere Informationen finden Sie unter Datenbankinstanz – HanaLogReadWriteVolume (Die Lese-/Schreibleistung des Volumes „/hana/log“ muss für eine bessere Leistung in HANA DB >=250 MB/s betragen).
Bei Verwendung von Ultradisk muss der IOPS-Wert für das Volume „/hana/log“ >=2000 sein, um eine bessere Leistung in HANA DB zu erzielen
Bei Verwendung von Ultradisk werden für SAP-Workloads mindestens 2000 IOPS im /hana/log-Volume empfohlen. Wählen Sie den Datenträgertyp für das Volume „/hana/log“ gemäß dieser Anforderung aus, um eine hohe Leistung der Datenbank sicherzustellen
Weitere Informationen finden Sie unter Datenbankinstanz – HanaLogIOPS (Bei Verwendung von Ultradisk muss der IOPS-Wert für das Volume „/hana/log“ >=2000 sein, um eine bessere Leistung in HANA DB zu erzielen).
Alle Datenträger in LVM für das Volume „/hana/log“ müssen vom gleichen Typ sein, um eine hohe Leistung in HANA DB zu gewährleisten
Wenn im Volume /hana/log mehrere Datenträgertypen ausgewählt sind, wird die Leistung von HANA DB in SAP-Workloads möglicherweise eingeschränkt. Stellen Sie sicher, dass alle Volumedatenträger für HANA-Daten vom gleichen Typ sind und gemäß der Empfehlung für SAP in Azure konfiguriert sind
Weitere Informationen finden Sie unter Datenbankinstanz – HanaDiskLogVolumeSameType (Alle Datenträger in LVM für das Volume „/hana/log“ müssen vom gleichen Typ sein, um eine hohe Leistung in HANA DB zu gewährleisten).
Aktivieren Sie die Schreibbeschleunigung auf dem Volume „/hana/log“ mit dem Premium-Datenträger, um die Schreiblatenz in HANA DB zu verbessern
Die Azure-Schreibbeschleunigung ist eine Funktion für VMs der Azure M-Serie. Es verbessert die E/A-Latenz von Schreibvorgängen für Azure Premium Storage. Für SAP HANA darf die Schreibbeschleunigung nur für das Volume /hana/log verwendet werden.
Weitere Informationen finden Sie unter Datenbankinstanz – WriteAcceleratorEnabled (Aktivieren Sie die Schreibbeschleunigung auf dem Volume „/hana/log“ mit dem Premium-Datenträger, um die Schreiblatenz in HANA DB zu verbessern).
Die Stripegröße für „/hana/log“ muss 64 KB betragen, um die Leistung von HANA DB in SAP-Workloads zu verbessern
Wenn Sie LVM oder mdadm verwenden, um Stripesets über mehrere Azure Premium-Datenträger hinweg zu erstellen, müssen Sie Stripegrößen definieren. Um mit höheren E/A-Größen genügend Durchsatz zu erzielen, empfiehlt Azure die Verwendung einer Stripegröße von 64 KB für das Dateisystem „/hana/log“, um die Leistung von HANA DB zu verbessern
Weitere Informationen finden Sie unter Datenbankinstanz – HanaLogStripeSize (Die Stripegröße für „/hana/log“ muss 64 KB betragen, um die Leistung von HANA DB in SAP-Workloads zu verbessern).
Sicherheit
Aktualisieren der Version der Attestation-API
Wir haben API-Aufrufe aus einer veralteten Attestation-API für Ressourcen unter diesem Abonnement identifiziert. Es wird empfohlen, zu den neuesten Versionen der Attestation-API zu wechseln. Sie müssen Ihren vorhandenen Code aktualisieren, um die neueste API-Version zu verwenden. Durch die Verwendung der neuesten API-Version wird sichergestellt, dass Sie die neuesten Features und Leistungsverbesserungen erhalten.
Weitere Informationen finden Sie unter Nachweisanbieter: UpgradeAttestationAPI (Aktualisieren der Version der Attestation-API).
Aktualisieren der Key Vault SDK-Version
Neue Key Vault-Clientbibliotheken werden in Schlüssel-, Geheimnis- und Zertifikat-SDKs aufgeteilt. Diese sind in die empfohlene Azure-Identitätsbibliothek integriert, um eine nahtlose Authentifizierung bei Key Vault in allen Sprachen und Umgebungen zu ermöglichen. Darin werden verschiedene Leistungsprobleme behoben, die von Kunden gemeldet oder proaktiv im Rahmen unseres Qualitätssicherungsprozesses erkannt wurden. Verwerfen Sie die Empfehlung, wenn Key Vault in Azure Storage, Data Box Disk oder andere Azure-Dienste integriert ist, für die das alte Key Vault SDK verwendet werden kann, und wenn für Ihre gesamten benutzerdefinierten Anwendungen .NET SDK 4.0 oder höher genutzt wird.
Weitere Informationen finden Sie unter Key Vault: UpgradeKeyVaultSDK (Aktualisieren der Key Vault SDK-Version).
Aktualisieren der Key Vault SDK-Version
Neue Key Vault-Clientbibliotheken werden in Schlüssel-, Geheimnis- und Zertifikat-SDKs aufgeteilt. Diese sind in die empfohlene Azure-Identitätsbibliothek integriert, um eine nahtlose Authentifizierung bei Key Vault in allen Sprachen und Umgebungen zu ermöglichen. Darin werden verschiedene Leistungsprobleme behoben, die von Kunden gemeldet oder proaktiv im Rahmen unseres Qualitätssicherungsprozesses erkannt wurden.
Wichtig
Beachten Sie, dass Sie Empfehlungen nur für benutzerdefinierte Anwendungen umsetzen können, auf die Sie Zugriff haben. Empfehlungen werden möglicherweise aufgrund der Integration in andere Azure-Dienste (z. B. Storage und Datenträgerverschlüsselung) angezeigt, die gerade auf eine neue Version des SDK aktualisiert werden. Verwerfen Sie die Empfehlung, wenn Sie in all Ihren Anwendungen .NET 4.0 verwenden.
Weitere Informationen finden Sie unter Verwalteter HSMS-Dienst: UpgradeKeyVaultMHSMSDK (Aktualisieren der Key Vault SDK-Version).
Storage
Verwenden von „Put Blob“ für Blobs mit einer Größe von weniger als 256 MB
Beim Schreiben eines Blockblobs mit einer Größe von maximal 256 MB (64 MB für Anforderungen mit REST-Versionen vor 2016-05-31) können Sie diesen vollständig hochladen, indem Sie nur einen Schreibvorgang per „Put Blob“ verwenden. Anhand Ihrer aggregierten Metriken besteht unserer Meinung nach die Möglichkeit, die Schreibvorgänge Ihres Speicherkontos zu optimieren.
Erfahren Sie mehr über Speicherkonto – StorageCallPutBlob (Verwenden von „Put Blob“ für Blobs mit einer Größe von weniger als 256 MB).
Erhöhen der bereitgestellten Größe der Premium-Dateifreigabe, um eine Drosselung von Anforderungen zu vermeiden
Ihre Anforderungen für Premium-Dateifreigaben werden gedrosselt, da die E/A-Vorgänge pro Sekunde (IOPS) oder Durchsatzgrenzwerte für die Dateifreigabe erreicht sind. Um zu verhindern, dass Ihre Anfragen gedrosselt werden, erhöhen Sie die Größe der Premium-Dateifreigabe.
Weitere Informationen finden Sie unter Speicherkonto – AzureStorageAdvisorAvoidThrottlingPremiumFiles (Erhöhen der bereitgestellten Größe der Premium-Dateifreigabe, um eine Drosselung von Anforderungen zu vermeiden).
Erstellen von Statistiken für Tabellenspalten
Wir haben ermittelt, dass bei Ihnen Tabellenstatistiken fehlen, die sich auf die Abfrageleistung auswirken können. Der Abfrageoptimierer verwendet Statistiken zur Schätzung der Kardinalität oder Zeilenanzahl im Abfrageergebnis und ermöglicht somit dem Optimierer, einen Abfrageplan von hoher Qualität zu erstellen.
Weitere Informationen finden Sie unter SQL Data Warehouse: CreateTableStatisticsSqlDW (Erstellen von Statistiken für Tabellenspalten).
Beseitigen einer vorliegenden Datenschiefe, um die Abfrageleistung zu erhöhen
Es wurde eine Verteilungsdatenschiefe von mehr als 15 % festgestellt. Dies kann zu teuren Leistungsengpässen führen.
Weitere Informationen finden Sie unter SQL Data Warehouse: DataSkewSqlDW (Beseitigen einer vorliegenden Datenschiefe, um die Abfrageleistung zu erhöhen).
Aktualisieren der Statistik für Tabellenspalten
Wir haben ermittelt, dass Sie keine aktuellen Tabellenstatistiken haben. Dies kann sich auf die Abfrageleistung auswirken. Der Abfrageoptimierer verwendet aktuelle Statistiken zur Schätzung der Kardinalität oder Zeilenanzahl im Abfrageergebnis und ermöglicht somit dem Abfrageoptimierer, einen Abfrageplan von hoher Qualität zu erstellen.
Weitere Informationen finden Sie unter SQL Data Warehouse: UpdateTableStatisticsSqlDW (Aktualisieren der Statistik für Tabellenspalten).
Hochskalieren, um die Cacheauslastung mit SQL Data Warehouse zu optimieren
Es wurde festgestellt, dass Sie eine hohe prozentuale Cacheauslastung mit einem niedrigen Prozentsatz an Treffern hatten. Dies weist auf eine hohe Anzahl an Cacheentfernungen hin, die sich auf die Leistung Ihrer Workload auswirken kann.
Weitere Informationen finden Sie unter SQL Data Warehouse: SqlDwIncreaseCacheCapacity (Hochskalieren, um die Cacheauslastung mit SQL Data Warehouse zu optimieren).
Hochskalieren oder Aktualisieren der Ressourcenklasse, um tempdb-Konflikte mit SQL Data Warehouse zu reduzieren
Wir haben für Sie eine hohe tempdb-Auslastung ermittelt. Dies kann sich auf die Leistung Ihrer Workload auswirken.
Weitere Informationen finden Sie unter SQL Data Warehouse: SqlDwReduceTempdbContention (Hochskalieren oder Aktualisieren der Ressourcenklasse, um tempdb-Konflikte mit SQL Data Warehouse zu reduzieren).
Konvertieren von Tabellen mit SQL Data Warehouse in replizierte Tabellen
Wir haben ermittelt, dass Sie von der Verwendung von replizierten Tabellen profitieren können. Replizierte Tabellen vermeiden teure Datenverschiebungsvorgänge und steigern die Leistung Ihrer Workload erheblich.
Weitere Informationen finden Sie unter SQL Data Warehouse: SqlDwReplicateTable (Konvertieren von Tabellen mit SQL Data Warehouse in replizierte Tabellen).
Aufteilen von Stagingdateien im Speicherkonto, um die Leistung beim Laden zu steigern
Wir haben festgestellt, dass Sie den Durchsatz beim Laden steigern können, indem Sie Ihre komprimierten Stagingdateien in Ihrem Speicherkonto aufteilen. Es empfiehlt sich, komprimierte Dateien auf mindestens 60 Dateien aufzuteilen, um die Parallelität Ihrer Last zu maximieren.
Weitere Informationen finden Sie unter SQL Data Warehouse: FileSplittingGuidance (Aufteilen von Stagingdateien im Speicherkonto, um die Leistung beim Laden zu steigern).
Vergrößern der Batchgröße beim Laden, um den Durchsatz, die Datenkomprimierung und die Abfrageleistung zu verbessern
Wir haben ermittelt, dass Sie die Leistung und den Durchsatz beim Ladevorgang verbessern können, indem Sie die Größe der Batches erhöhen, die bei Ladevorgängen für Ihre Datenbank verwendet werden. Erwägen Sie die COPY-Anweisung. Falls die COPY-Anweisung nicht möglich sein sollte, erwägen Sie bei Nutzung von Ladehilfsprogrammen wie der SQLBulkCopy-API oder BCP, die Batchgröße zu erhöhen. Empfohlen wird eine Batchgröße im Bereich von 100.000 bis 1 Mio. Zeilen.
Weitere Informationen finden Sie unter SQL Data Warehouse: LoadBatchSizeGuidance (Erhöhen der Batchgröße beim Laden, um Durchsatz, Datenkomprimierung und Abfrageleistung zu verbessern).
Bereitstellen des Speicherkontos in derselben Region, um die Wartezeit beim Laden zu minimieren
Wir haben festgestellt, dass Sie Daten aus einer anderen Region als der Ihres SQL-Pools laden. Erwägen Sie, Daten aus einem Speicherkonto zu laden, das sich in derselben Region wie der SQL-Pool befindet, um die Wartezeit beim Laden zu minimieren.
Weitere Informationen finden Sie unter SQL Data Warehouse: ColocateStorageAccount (Bereitstellen des Speicherkontos in derselben Region, um die Wartezeit beim Laden zu minimieren).
Verbessern der Zuverlässigkeit und der Leistung durch Upgraden Ihrer Speicherclientbibliothek auf die neueste Version
In der neuesten Version der Speicherclientbibliothek/des SDK werden Probleme behoben, die von Kunden gemeldet oder proaktiv im Rahmen unseres Qualitätssicherungsprozesses erkannt werden. Darüber hinaus bietet die neueste Version neben Zuverlässigkeits- und Leistungsoptimierungen auch neue Features, die Azure Storage noch benutzerfreundlicher machen.
Weitere Informationen finden Sie unter Speicherkonto: UpdateStorageSDK (Verbessern der Zuverlässigkeit und der Leistung durch Upgraden Ihrer Speicherclientbibliothek auf die neueste Version).
Verbessern der Zuverlässigkeit und der Leistung durch Upgraden Ihrer Speicherclientbibliothek auf die neueste Version
In der neuesten Version der Speicherclientbibliothek/des SDK werden Probleme behoben, die von Kunden gemeldet oder proaktiv im Rahmen unseres Qualitätssicherungsprozesses erkannt werden. Darüber hinaus bietet die neueste Version neben Zuverlässigkeits- und Leistungsoptimierungen auch neue Features, die Azure Storage noch benutzerfreundlicher machen.
Weitere Informationen finden Sie unter Speicherkonto: UpdateStorageDataMovementSDK (Verbessern der Zuverlässigkeit und der Leistung durch Upgraden Ihrer Speicherclientbibliothek auf die neueste Version).
Upgrade auf SSD Standard-Datenträger zur Erzielung einer konstanten und verbesserten Leistung
Sie führen IaaS-VM-Workloads auf verwalteten HDD Standard-Datenträgern aus. Berücksichtigen Sie daher, dass für alle Azure-VM-Typen jetzt die Option „SSD Standard-Datenträger“ verfügbar ist. SSD Standard-Datenträger stellen eine kostengünstige Speichermöglichkeit dar, die für Unternehmensworkloads optimiert ist, für die eine konstante Leistung benötigt wird. Aktualisieren Sie Ihre Datenträgerkonfiguration noch heute, um eine bessere Latenz, Zuverlässigkeit und Verfügbarkeit zu erzielen. Für das Upgrade ist ein Neustart der VM erforderlich. Dieser Vorgang dauert drei bis fünf Minuten.
Weitere Informationen finden Sie unter Speicherkonto: StandardSSDForNonPremVM (Upgrade auf SSD Standard-Datenträger zur Erzielung einer konstanten und verbesserten Leistung).
Verwenden von Blockblobspeicher mit Premium-Leistung
Mindestens eines Ihrer Speicherkonten weist eine hohe Transaktionsrate pro GB gespeicherter Blockblobdaten auf. Verwenden Sie für Workloads, die kurze Speicherantwortzeiten und/oder hohe Transaktionsraten erfordern, Blockblobspeicher mit Premium-Leistung anstelle von Speicher mit Standardleistung, und senken Sie ggf. Ihre Speicherkosten.
Weitere Informationen finden Sie unter Speicherkonto: PremiumBlobStorageAccount (Verwenden von Blockblobspeicher mit Premium-Leistung).
Konvertieren nicht verwalteter Datenträger von HDD Standard in SSD Premium zur Steigerung der Leistung
Wir haben ermittelt, dass Ihr nicht verwalteter HDD-Datenträger die Grenze der Leistungsziele erreicht. Azure SSD Premium verfügt über Datenträgerunterstützung mit hoher Leistung und geringer Wartezeit für virtuelle Computer mit E/A-intensiven Workloads. Verbessern Sie die Datenträgerleistung, indem Sie für Ihren Datenträger ein Upgrade von HDD Standard auf SSD Premium durchführen. Für das Upgrade ist ein Neustart der VM erforderlich. Dieser Vorgang dauert drei bis fünf Minuten.
Weitere Informationen finden Sie unter Speicherkonto: UMDHDDtoPremiumForPerformance (Konvertieren nicht verwalteter Datenträger von HDD Standard in SSD Premium zur Steigerung der Leistung).
Verteilen der Daten in einer Servergruppe, um eine Workload auf Knoten zu verteilen
Die Daten werden anscheinend nicht in dieser Servergruppe verteilt, sondern bleiben auf dem Koordinatorknoten. Um bestmöglich von Hyperscale (Citus) profitieren zu können, müssen die Daten auf Workerknoten in der Servergruppe verteilt werden.
Weitere Informationen finden Sie unter Hyperscale (Citus)-Servergruppe: OrcasPostgreSqlCitusDistributeData (Verteilen der Daten in einer Servergruppe, um eine Workload auf Knoten zu verteilen).
Ausgleichen von Daten in Hyperscale (Citus)-Servergruppe zum gleichmäßigeren Verteilen der Workload auf Workerknoten
Anscheinend sind die Daten nicht gut auf die Workerknoten dieser Hyperscale (Citus)-Servergruppe verteilt. Sie sollten die Daten für die Servergruppe so verteilen, dass jeder Workerknoten der Hyperscale (Citus)-Servergruppe möglichst gut genutzt wird.
Weitere Informationen finden Sie unter Hyperscale (Citus)-Servergruppe: OrcasPostgreSqlCitusRebalanceData (Ausgleichen von Daten in Hyperscale (Citus)-Servergruppe zum gleichmäßigeren Verteilen der Workload auf Workerknoten).
Virtuelle Desktopinfrastruktur
Verbessern Sie die Benutzerfreundlichkeit und die Konnektivität, indem Sie virtuelle Computer näher am Standort der Benutzer*innen bereitstellen.
Wir haben festgestellt, dass sich Ihre virtuellen Computer in einer anderen Region oder weit entfernt von der Region befinden, in der Ihre Benutzer*innen eine Verbindung mit Azure Virtual Desktop herstellen. Das kann zu längeren Verbindungsreaktionszeiten führen und die allgemeine Benutzererfahrung beeinträchtigen. Verwenden Sie bei der Erstellung virtueller Computer für Ihre Hostpools nach Möglichkeit eine Region, die sich näher bei den Benutzer*innen befindet. Eine geringe Entfernung verbessert die Zufriedenheit mit dem Azure Virtual Desktop-Dienst sowie die allgemeine Benutzerfreundlichkeit.
Weitere Informationen finden Sie unter Hostpool: RegionProximityHostPools (Verbessern Sie die Benutzerfreundlichkeit und die Konnektivität, indem Sie VMs näher am Standort des Benutzers bereitstellen.).
Ändern der maximalen Anzahl von Sitzungen für Ihren Hostpool mit tiefenorientiertem Lastenausgleich, um die VM-Leistung zu verbessern
Beim tiefenorientierten Lastenausgleich wird die Option für die maximale Anzahl von Sitzungen verwendet, um die maximale Anzahl von Benutzern zu bestimmen, für die gleichzeitige Sitzungen auf einem einzelnen Sitzungshost vorhanden sein können. Ist die maximale Anzahl von Sitzungen zu hoch, werden alle Benutzersitzungen an denselben Sitzungshost weitergeleitet, was die Leistung und Zuverlässigkeit beeinträchtigen kann. Wenn Sie also einen Hostpool mit tiefenorientiertem Lastenausgleich konfigurieren, legen Sie auch eine geeignete maximale Anzahl von Sitzungen fest. Orientieren Sie sich hierbei an der Konfiguration Ihrer Bereitstellung und an der Kapazität Ihrer VMs. Öffnen Sie zur Behebung dieses Problems die Eigenschaften des Hostpools, und ändern Sie den Wert neben der Einstellung „Maximale Anzahl von Sitzungen“.
Weitere Informationen finden Sie unter Hostpool: ChangeMaxSessionLimitForDepthFirstHostPool (Ändern der maximalen Anzahl von Sitzungen für Ihren Hostpool mit tiefenorientiertem Lastenausgleich, um die VM-Leistung zu verbessern).
Web
Umstellen Ihres App Service-Plans auf Premium V2 zur Steigerung der Leistung
Ihre App hat in den letzten drei Tagen mehr als 1.000 Anforderungen pro Tag bereitgestellt. Unter Umständen profitiert Ihre App von der leistungsstärkeren Infrastruktur des App Service-Tarifs „Premium V2“. Im Tarif „Premium V2“ werden VMs der Dv2-Serie mit schnelleren Prozessoren, SSD-Speicher und einem doppelten Arbeitsspeicher/Kern-Verhältnis gegenüber den vorherigen Instanzen bereitgestellt. Informieren Sie sich in unserer Dokumentation weiter über das Upgrade auf „Premium V2“.
Weitere Informationen finden Sie unter App Service: AppServiceMoveToPremiumV2 (Umstellen Ihres App Service-Plans auf Premium V2 zur Steigerung der Leistung).
Überprüfen von ausgehenden Verbindungen von Ihrer App Service-Ressource
Für Ihre App wurden zu viele TCP/IP-Socketverbindungen geöffnet. Wenn der Grenzwert für kurzlebige TCP/IP-Portverbindungslimits überschritten wird, kann es für Ihre Apps zu unerwarteten Konnektivitätsproblemen kommen.
Weitere Informationen finden Sie unter App Service: AppServiceOutboundConnections (Überprüfen von ausgehenden Verbindungen von Ihrer App Service-Ressource).
Nächste Schritte
Erfahren Sie mehr über Effiziente Leistung: Microsoft Azure Well-Architected Framework.