Speicher für Azure HPC-Workloads
Der Zugriff auf den Speicher ist ein entscheidender Faktor, den Sie berücksichtigen sollten, wenn Sie die Leistung von HPC-Workloads (High-Performance Computing) planen. Große HPC-Workloads in bestimmten Umgebungen können Anforderungen an die Datenspeicherung und den Zugriff erzeugen, die die Funktionen herkömmlicher Cloud-Dateisysteme überschreiten. Dieser Artikel enthält Empfehlungen, die Ihnen bei der Auswahl des richtigen Speichers für Ihre Azure HPC-Workloads helfen. Außerdem werden Empfehlungen zur Speicherung von HPC-Workloads in den Energie-, Finanz- und Fertigungsindustrien bereitgestellt.
Berücksichtigen Sie die folgenden Faktoren im Zusammenhang mit Ihren Anwendungsanforderungen, um zu entscheiden, welche Speicherlösung verwendet werden soll:
- Latenz
- Eingabe-/Ausgabevorgänge pro Sekunde (IOPS)
- Durchsatz
- Dateigrößen und Anzahl
- Auftragslaufzeit
- Kosten
- Speicherort – lokal im Vergleich zu Azure
Weitere Informationen finden Sie unter Grundlegendes zu Faktoren, die die Auswahl von HPC-Speicher in Azure beeinflussen.
Das folgende Diagramm zeigt eine Entscheidungsstruktur, die für eine bestimmte HPC-Speichersystemauswahl vorgesehen ist.
Überlegungen im Zusammenhang mit HPC
Öl- und Gasunternehmen müssen in der Lage sein, Exabyte von seismischen Daten, Bohrungsdaten, Karten und Pachtverträgen effektiv zu verwalten und zu speichern. Um diese Daten zu verwenden, benötigen sie eine hochleistungsfähige Infrastruktur, die Echtzeitanalysen verarbeiten und liefern kann, um die Produktion zu optimieren, Umweltrisiken zu reduzieren und die Betriebssicherheit zu verbessern.
Datenspeicher und Zugriffsanforderungen variieren je nach Workloadskala stark. Azure unterstützt mehrere Ansätze zur Verwaltung der Geschwindigkeit und Kapazität von HPC-Anwendungen.
Große Batch- und HPC-Workloads in der Energieindustrie haben Anforderungen an die Datenspeicherung und den Zugriff, die die Funktionen herkömmlicher Cloud-Dateisysteme überschreiten. Die Eingabe/Ausgabe-Hochleistungsanforderungen (E/A) und die massiven Skalierbarkeitsbedürfnisse von HPC stellen einzigartige Herausforderungen für Datenspeicherung und Datenzugriff dar.
HPC löst komplexe Probleme wie seismische und Reservoirsimulationen und Modellierungen, die nicht praktisch oder kosteneffizient mit herkömmlichen Rechentechniken zu bewältigen sind. HPC löst diese Probleme durch eine Kombination aus paralleler Verarbeitung und massiver Skalierbarkeit, um große und komplizierte Rechenaufgaben schnell, effizient und zuverlässig durchzuführen.
In Azure HPC-Clustern sind Computeknoten virtuelle Computer (VMs), die Sie schnell erstellen können, um Aufträge auszuführen, die dem Cluster zugewiesen sind. Diese Knoten verteilen Berechnungsaufgaben über den Cluster hinweg. Diese Verteilung trägt dazu bei, die hochleistungsreiche parallele Verarbeitung zu erzielen, die zum Lösen komplexer HPC-Probleme erforderlich ist. Computeknoten müssen Lese- und Schreibvorgänge auf gemeinschaftlich genutztem Speicherplatz ausführen, wenn sie Aufträge bearbeiten. Knoten greifen auf diesen Speicher in einer Reihe von Szenarien zu, die zwischen den folgenden beiden Extremen liegen:
Ein Dataset für viele Computeknoten. In diesem Szenario gibt es eine einzelne Datenquelle im Netzwerk, auf die alle Computeknoten für Arbeitsdaten zugreifen. Obwohl sie strukturell einfach sind, schränkt die E/A-Kapazität des Speicherorts die E/A-Vorgänge ein.
Viele Datasets für viele Computeknoten. In diesem Szenario gibt es viele Datenquellen im Netzwerk, auf die alle Computeknoten für Arbeitsdaten zugreifen. Obwohl sie strukturell einfach sind, schränkt die E/A-Kapazität des Speicherorts die E/A-Vorgänge ein.
Empfehlungen für den Entwurf von HPC
Wählen Sie die Lösung aus, die für Ihre individuellen E/A- und Kapazitätsanforderungen am besten geeignet ist.
Netzwerkdateisystem
NFS wird häufig verwendet, um den Zugriff auf freigegebene Speicherorte zu ermöglichen. Eine Server-VM, die NFS verwendet, teilt ihr lokales Dateisystem. In Azure wird dieses Dateisystem auf einer oder mehreren virtuellen Festplatten (VHDs) gespeichert, die in Azure Storage gehostet werden. Clients können dann die freigegebenen Dateien des Servers einbinden und direkt auf den freigegebenen Speicherort zugreifen.
NFS wird häufig für Heimverzeichnisse und Projektbereiche verwendet, die einen Zugriff auf alle Nodes erfordern. Sie kann einen Raum für Forschungsgruppen bereitstellen, die Daten freigeben. Im Allgemeinen sind die Durchsatz-Arbeitslasten horizontal skalierbar und weisen nur geringe Abhängigkeiten zwischen den einzelnen Aufgaben auf. Auftragsplaner verteilen die Arbeit knotenübergreifend und koordinieren die Aktivität. NFS ist der typische, knotenübergreifend freigegebene Speicher, auf den über TCP/IP-Netzwerke zugegriffen wird.
NFS hat den Vorteil, einfach einzurichten und zu warten und wird sowohl auf Linux- als auch auf Windows-Betriebssystemen unterstützt. Mehrere NFS-Server können verwendet werden, um den Speicher über ein Netzwerk zu verteilen, aber einzelne Dateien können nur über einen einzelnen Server zugänglich sein.
Erwägen Sie für Workloads mit geringem Umfang die Ausführung des NFS auf dem Hauptknoten, indem Sie in Abhängigkeit von Ihren Anforderungen eine für Datenspeicher optimierte VM mit großen kurzlebigen Datenträgern oder VMs der D-Serie mit Azure Storage Premium verwenden. Diese Lösung passt zu Workloads mit 500 Kernen oder weniger.
In HPC-Szenarien kann der Dateiserver häufig als Engpass dienen, der die Gesamtleistung drosselt. Versuche, auf nicht zwischengespeicherte Daten von einem einzelnen NFS-Server mit einer höheren Geschwindigkeit als die dokumentierten maximalen IOPS und Durchsatz pro VM zuzugreifen, führen zu einer Bandbreitendrosselung.
In einem Szenario, in dem Dutzende von Clients versuchen, an Daten zu arbeiten, die auf einem einzelnen NFS-Server gespeichert sind, können Sie diese Grenzwerte problemlos erreichen. Diese Grenzwerte können dazu führen, dass die Leistung Ihrer gesamten Anwendung beeinträchtigt wird. Je näher die Verwendung Ihrer HPC-Anwendung einem reinen 1:n-Szenario kommt, desto früher werden Sie mit diesen Einschränkungen konfrontiert.
Parallele Dateisysteme in Azure
Parallele Dateisysteme verteilen den Speicher auf Blockebene über mehrere Netzwerkspeicherknoten. Dateidaten werden unter diesen Knoten verteilt, was bedeutet, dass Dateidaten auf mehreren Speichergeräten verteilt werden. Diese Verteilung bündelt alle individuellen Speicher-E/A-Anfragen über mehrere Speicherknoten, die über einen gemeinsamen Namespace zugänglich sind.
Mehrere Speichergeräte und mehrere Datenpfade werden verwendet, um einen hohen Grad an Parallelität bereitzustellen. Dieser Ansatz reduziert die Anzahl der Engpässe, die dadurch auferlegt werden, dass jeweils nur auf einen einzigen Knoten zugegriffen wird. Parallele E/A-Vorgänge lassen sich jedoch möglicherweise schwierig koordinieren und optimieren, wenn direkt auf API-Ebene oder der Ebene der POSIX-E/A-Schnittstelle gearbeitet wird. Durch die Einführung von Zwischendatenzugriffs- und Koordinationsebenen bieten parallele Dateisysteme Anwendungsentwicklern eine hochrangige Schnittstelle zwischen der Anwendungsschicht und der I/O-Schicht.
MPI-Workloads (Messaging Passing Interface) im Energiesektor haben einzigartige Anforderungen mit der Notwendigkeit einer Kommunikation mit geringen Wartezeiten zwischen Knoten. Die Knoten sind über eine Hochgeschwindigkeitsverbindung verbunden und lassen sich nicht problemlos mit anderen Workloads teilen. MPI-Anwendungen nutzen die gesamten Hochleistungsverbindungen über den Passthrough-Modus in virtualisierten Umgebungen. Speicher für MPI-Knoten ist in der Regel ein paralleles Dateisystem wie Lustre, auf das auch über die Hochgeschwindigkeitsverbindung zugegriffen wird. Lustre und BeeGFS werden typischerweise verwendet, um den hohen Durchsatzanforderungen der seismischen Verarbeitung gerecht zu werden. In geringerem Maße werden sie auch für die Reservoirsimulation verwendet.
Parallele Dateisysteme wie Lustre werden für HPC-Energieworkloads verwendet, die Zugriff auf große Dateien, gleichzeitigen Zugriff von mehreren Computeknoten und massive Datenmengen erfordern. Die Implementierung paralleler Dateisysteme erleichtert die Skalierung in Bezug auf Funktionalität und Leistung. Diese Dateisysteme nutzen Übertragungen über Remotezugriff auf den direkten Speicher mit großer Bandbreite und geringerer CPU-Auslastung. Das parallele Dateisystem wird häufig als temporärer Speicherbereich verwendet und ist für Arbeiten vorgesehen, die optimierte E/A-Vorgänge erfordern. Beispiele hierfür sind Workload-Setup, Vorverarbeitung, Ausführung und Nachbearbeitung.
Ein koordinierter paralleler Dateidienst wie Azure Managed Lustre funktioniert für 50.000 oder mehr Kerne mit Lese-/Schreibraten von bis zu 500 GBps und 2,5-PB-Speicher. Weitere Informationen finden Sie unter Parallele virtuelle Dateisysteme auf Microsoft Azure.
HPC-Komponenten
Azure NetApp Files und lokale Datenträger werden in der Regel verwendet, um die latenz- und IOPS-sensiblen Workloads zu verarbeiten, z. B. seismische Interpretation, Modellvorbereitung und Visualisierung. Erwägen Sie die Verwendung von Azure NetApp Files für Workloads von bis zu 4.000 Kernen mit einem Durchsatz von bis zu 6,5 GiBps und Workloads, die von multiprotocol NFS und Server Message Block (SMB)-Zugriff auf denselben Datensatz profitieren oder erfordern.
Managed Lustre bietet schnelleren Speicher mit höherer Kapazität für HPC-Workloads. Diese Lösung funktioniert für mittlere bis große Workloads und kann 50.000 oder mehr Kerne mit Durchsatz bis zu 500 GBps und Speicherkapazität bis zu 2,5 PiB unterstützen.
Standard oder Premium Azure Blob Storage ist kosteneffizient, da es sich um das kostengünstigste Cloudangebot handelt. Dieser Dienst bietet Exabyte-Skalierung, hoher Durchsatz, ggf. latenzarmer Zugriff, ein vertrautes Dateisystem und Zugriff über mehrere Protokolle (REST, HDFS, NFS). Sie können NFS v3.0 am Blob-Dienstendpunkt für Workloads mit hohem Durchsatz und leseintensive Workloads verwenden. Sie können Die Kosten optimieren, indem Sie zu kühleren Lagerstufen wechseln. Dieser Ansatz ermöglicht die Lebenszyklusverwaltung basierend auf der letzten Aktualisierung oder Zugriffsgeschwindigkeit sowie intelligentes Tiering mit anpassbaren Richtlinien.
Öl- und Gasenergielasten könnten erfordern, dass Sie große Datenmengen und Volumina zwischen lokalen Systemen und der Cloud übertragen. Bei der Offlinemigration werden gerätebasierte Dienste wie Azure Data Box verwendet. Die Onlinemigration verwendet netzwerkbasierte Dienste wie Azure ExpressRoute.
Die folgende Tabelle enthält einen Vergleich von Blob Storage, Azure Files, Managed Lustre und Azure NetApp Files.
Kategorie | Blob Storage | Azure Files | Managed Lustre | Azure NetApp-Dateien |
---|---|---|---|---|
Anwendungsfälle | Eignet sich am besten für umfangreiche Workloads mit vielen Lesevorgängen und seriellem Zugriff, wobei Daten einmal erfasst und nur minimal geändert werden. Niedrige Gesamtbetriebskosten, wenn nur leichte Wartung erforderlich ist. Einige Beispielszenarien umfassen umfangreiche Analysedaten, Durchsatz sensibles High-Performance Computing, Backup und Archiv, autonomes Fahren, Medienrendering und genomische Sequenzierung. |
Ein hochverwendbarer Dienst, der am besten für Workloads mit wahlfreiem Zugriff geeignet ist. Für NFS-Freigaben bietet Azure Files vollständige POSIX-Dateisystemunterstützung. Der integrierte CSI-Treiber ermöglicht eine einfache Nutzung auf VM-basierten Plattformen und Containerplattformen wie Azure Container Instances und Azure Kubernetes Service (AKS). Einige Beispielszenarien umfassen freigegebene Dateien, Datenbanken, Heimverzeichnisse, herkömmliche Anwendungen, ERP, CMS, NAS-Migrationen, die keine erweiterte Verwaltung erfordern, sowie benutzerdefinierte Anwendungen, die eine skalierbare Dateispeicherung erfordern. |
Managed Lustre ist ein vollständig verwaltetes paralleles Dateisystem, das am besten für mittlere bis große HPC-Workloads geeignet ist. Ermöglicht HPC-Anwendungen in der Cloud, ohne die Anwendungskompatibilität zu unterbrechen, indem Lustre bekannte parallele Dateisystemfunktionen, Verhaltensweisen und Leistung bereitgestellt werden. Dieser Dienst trägt dazu bei, langfristige Anwendungsinvestitionen zu sichern. |
Ein vollständig verwalteter Dateidienst in der Cloud, unterstützt von NetApp, mit erweiterten Verwaltungsfunktionen. Azure NetApp Files ist für Workloads geeignet, die zufälligen Zugriff erfordern. Sie bietet umfassende Protokollunterstützung und verbesserten Datenschutz. Einige Beispielsszenarien sind unter anderem lokale NAS-Migration für Unternehmen, die umfassende Verwaltungsfunktionen erfordert, wartezeitempfindliche Workloads wie SAP HANA, wartezeitempfindliches oder IOPS-intensives High Performance Computing oder Workloads, die gleichzeitigen Zugriff mit mehreren Protokollen erfordern. |
Verfügbare Protokolle | NFS 3.0 REST Azure Data Lake Storage |
SMB NFS 4.1 (Keine Interoperabilität zwischen beiden Protokollen) |
Lustre | NFS 3.0 und 4.1 SMB |
Wichtige Features | Integriert in Azure HPC-Cache für Workloads mit geringer Latenz. Integrierte Verwaltung, einschließlich Lebenszyklusverwaltung, unveränderliche Blobs, Datenfailover und Metadatenindex. |
Zonenredundant für Hochverfügbarkeit. Konsistente einstellige Millisekundenlatenz. Vorhersehbare Leistung und Kosten, die im Einklang mit der Kapazität skalieren. |
Hohe Speicherkapazität bis zu 2,5 PB. Geringe Latenz, ca. 2 ms. Erstellen Sie neue Cluster in Minuten. Unterstützt Container-Workloads mit AKS. |
Äußerst niedrige Latenz, so niedrig wie eine Submillisekunde. Umfangreiche NetApp-ONTAP-Verwaltungsfunktionen wie SnapMirror Cloud. Einheitliche Hybrid-Cloud-Erfahrung. |
Leistung (pro Volumen) | Bis zu 20.000 IOPS. Bis zu 100 GiBps-Durchsatz. | Bis zu 100.000 IOPS. Bis zu 80 GiBps Durchsatz. | Bis zu 100.000 IOPS. Bis zu 500 GiBps-Durchsatz. | Bis zu 460.000 IOPS. Bis zu 36 GiBps-Durchsatz. |
Skalierung | Bis zu 2 PiB für ein einzelnes Volume. So viel wie etwa 4,75 TiB für eine einzelne Datei. Keine Mindestkapazitätsanforderungen. |
Bis zu 100 TiB für ein einzelnes Volume. So viel wie 4 TiB für eine einzelne Datei. 100-GiB-Mindestkapazität. |
Bis zu 2,5 PiB für ein einzelnes Volume. Bis zu 32 PB für eine einzelne Datei. 4-TiB-Mindestkapazität. |
Bis zu 100 TiB für ein einzelnes Volume. So viel wie 16 TiB für eine einzelne Datei. Einheitliche Hybrid-Cloud-Erfahrung. |
Preisgestaltung | Preise für Blob Storage | Azure Files-Preise | Preise für Managed Lustre | Preise für Azure NetApp Files |
Designempfehlungen für Finanzen
Verwenden Sie Standard- oder Premium-Blob Storage für hohen Durchsatz und latenzarmen Speicher. Es bietet die folgenden Vorteile:
Es bietet Exabyte-Skalierung, hoher Durchsatz, latenzarmer Zugriff, ein vertrautes Dateisystem und Zugriff über mehrere Protokolle (REST, HDFS, NFS).
Es ist kosteneffektiv.
Sie können Blob Storage als Dateisystem mithilfe von BlobFuse einbinden. Auf diese Weise ist es einfach, mehreren Knoten zu erlauben, denselben Container für Nur-Lese-Szenarien einzubinden.
Unterstützung für NFS 3.0 am Blob-Dienstendpunkt für Workloads mit hohem Durchsatz und leseintensive Workloads.
Sie können Die Kosten optimieren, indem Sie Daten in kühlere Speicherstufen verschieben. Dieser Optimierung ist möglich aufgrund der Lebenszyklusverwaltung basierend auf der letzten Aktualisierung oder Zugriffsgeschwindigkeit sowie intelligentem Tiering mit anpassbaren Richtlinien.
Verwenden Sie Azure NetApp Files für ReadWriteMany (eindeutig) oder Anwendungen mit einmaligem Schreib- und Lesezugriff. Es bietet die folgenden Vorteile:
Eine vielzahl von Dateiprotokollen wie NFSv3, NFSv4.1 und SMB3
Leistung, die mit der lokalen Leistung vergleichbar ist, mit mehreren Ebenen (Ultra, Premium, Standard)
Wird innerhalb von Minuten bereitgestellt und bietet eine breite Palette von Tarifen und Flexibilität.
Flexible Kapazitätspooltypen und -leistung, bei denen die QoS pro Volume automatisch basierend auf dem Tarif des Pools und dem Volumekontingent zugewiesen wird
Überlegungen zur Herstellung
Es ist wichtig sicherzustellen, dass die erforderlichen Daten die HPC-Clustermaschinen zur richtigen Zeit erreichen. Sie möchten auch sicherstellen, dass die Ergebnisse dieser einzelnen Maschinen schnell gespeichert und für eine weitere Analyse zur Verfügung stehen.
Verteilung des Workload-Datenverkehrs
Berücksichtigen Sie die Arten des Datenverkehrs, den Ihre HPC-Umgebung generiert und verarbeitet. Dieser Schritt ist besonders wichtig, wenn Sie beabsichtigen, mehrere Arten von Workloads auszuführen und den Speicher für andere Zwecke zu verwenden. Berücksichtigen und erfassen Sie die folgenden Verkehrsarten:
- Einzelner Stream im Vergleich zu mehreren Datenströmen
- Verhältnis von Lese- zu Schreibdatenverkehr
- Durchschnittliche Dateigrößen und Anzahl
- Zufällige und sequenzielle Zugriffsmuster
Datenörtlichkeit
Diese Kategorie berücksichtigt den Speicherort der Daten. Mithilfe von Informationen zur Örtlichkeit können Sie ermitteln, ob Sie Kopieren, Zwischenspeichern oder Synchronisieren als Ihre Strategie für die Datenverschiebung verwenden können. Überprüfen Sie die folgenden Lokalitätselemente im Voraus:
- Wenn Quelldaten lokal, in Azure oder beides vorhanden sind
- Wenn Ergebnisdaten lokal, in Azure oder beides vorhanden sind
- Wenn HPC-Workloads in Azure mit den Zeitplänen zur Änderung von Quelldaten koordiniert werden müssen
- Wenn vertrauliche Daten oder Daten des Health Insurance Portability and Accountability Act (HIPAA) enthalten sind
Leistungsanforderungen
Leistungsanforderungen für Speicherlösungen werden in der Regel wie folgt zusammengefasst:
- Einzel-Datenstromdurchsatz
- Mehrfach-Datenstromdurchsatz
- Erwartete maximale IOPS
- Durchschnittliche Latenz
Jeder Faktor wirkt sich auf die Leistung aus, sodass diese Zahlen als Leitfaden für die erwarteten Ergebnisse einer bestimmten Lösung dienen. Beispielsweise kann ein HPC-Workload als Teil des Workflows umfangreiche Vorgänge wie die Erstellung und Löschung von Dateien umfassen. Diese Vorgänge könnten sich auf den Gesamtdurchsatz auswirken.
Zugriffsmethoden
Berücksichtigen Sie das erforderliche Clientzugriffsprotokoll, und klären Sie, welche Features des Protokolls Sie benötigen. Es gibt verschiedene Versionen von NFS und SMB.
Berücksichtigen Sie die folgenden Anforderungen:
- Gibt an, ob NFS/SMB-Versionen erforderlich sind.
- Erwartete Protokollfunktionen wie Zugriffskontrolllisten oder Verschlüsselung
- Parallele Dateisystemlösung
Gesamtkapazitätsanforderung
Die Speicherkapazität in Azure ist die nächste Überlegung. Es hilft, sich über die Gesamtkosten der Lösung Klarheit zu verschaffen. Wenn Sie beabsichtigen, eine große Menge an Daten über einen längeren Zeitraum zu speichern, sollten Sie Tiering als Teil der Speicherlösung in Betracht ziehen. Tiering kombiniert kostengünstige Speicheroptionen mit kostspieligerem und leistungsstärkerem Speicher in einer heißen Ebene. Berücksichtigen Sie die folgenden Kapazitätsanforderungen:
- Erforderliche Gesamtkapazität
- Erforderliche Gesamtkapazität der heißen Ebene
- Erforderliche Gesamtkapazität der warmen Ebene
- Erforderliche Gesamtkapazität der Kaltspeicherschicht
Authentifizierung und Autorisierungsmethode
Stellen Sie für Authentifizierungs- und Autorisierungsanforderungen, z. B. die Verwendung eines LDAP-Servers oder Windows Server Active Directory, sicher, dass Sie die erforderlichen unterstützenden Systeme in Ihre Architektur einbeziehen. Wenn Sie Funktionen wie UID- oder GID-Zuordnung zu Windows Server Active Directory-Benutzern unterstützen müssen, vergewissern Sie sich, dass die Speicherlösung diese Funktion unterstützt.
Berücksichtigen Sie die folgenden Netzwerkanforderungen:
- Lokal (nur UID oder GID auf einem Dateiserver)
- Verzeichnis (LDAP oder Windows Server Active Directory)
- UID- oder GID-Zuordnung zu Windows Server Active Directory-Benutzer*innen oder nicht
Paralleles „Roll-Your-Own“-Dateisystem
Ähnlich wie NFS können Sie ein Mehrknoten-BeeGFS- oder Lustre-Dateisystem erstellen. Die Leistung dieser Systeme hängt hauptsächlich vom Typ der von Ihnen gewählten VMs ab. Sie können Images verwenden, die Sie in Azure Marketplace für BeeGFS finden, oder eine Lustre-Implementierung von DDN namens Whamcloud verwenden. Wenn Sie Nicht-Microsoft-Bilder von Anbietern wie BeeGFS oder DDN verwenden, können Sie deren Supportdienste erwerben. Sie können BeeGFS und Lustre unter ihren GPL-Lizenzen ohne zusätzliche Gebühren verwenden, abgesehen von den Kosten für Computer und Datenträger. Diese Tools lassen sich ganz einfach mithilfe der Azure-HPC-Skripts mit kurzlebigen lokalen Datenträgern als temporärer Speicher oder mit Azure SSD Premium oder Azure Ultra Disk Storage für dauerhaften Speicher bereitstellen.
Cray ClusterStor
Es ist eine Herausforderung für größere Workloads, die Bare-Metal-Leistung großer Computecluster mit großen Lustre-Umgebungen zu replizieren. Weitere Herausforderungen sind das Erreichen eines hohen Durchsatzes in Bezug auf Terabyte pro Sekunde und die potenzielle Verwaltung von Petabyte an Speicher. Sie können diese Workloads jetzt mit der Cray ClusterStor in der Azure-Lösung ausführen. Dieser Ansatz ist eine reine Bare-Metal-Lustre-Bereitstellung, die im relevanten Azure-Rechenzentrum platziert wird. Parallele Dateisysteme wie BeeGFS und Lustre bieten aufgrund ihrer Architektur höchste Leistung. Aber diese Architektur und der Einsatz dieser Technologien haben einen hohen Managementpreis.
Nächste Schritte
Die folgenden Artikel bieten Ihnen Unterstützung an verschiedenen Punkten während Ihres Cloud-Einführungsprozesses.
- Einführung in das Azure High-Performance Computing (HPC)-Szenario
- Identitäts- und Zugriffsverwaltung für Azure HPC
- Netzwerktopologie und Konnektivität für Azure HPC im Energiesektor
- Ressourcenorganisation für HPC im Energiesektor
- Berechnen Sie großangelegte HPC-Anwendungs-Workloads in Azure-VMs
- Zielzonenbeschleuniger für Azure High Performance Computing (HPC)