Big Data Pools - Create Or Update
Erstellen Sie einen Big Data-Pool.
Erstellen Sie einen neuen Big Data-Pool.
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01&force={force}
URI-Parameter
Name | In | Erforderlich | Typ | Beschreibung |
---|---|---|---|---|
big
|
path | True |
string |
Name des Big Data-Pools |
resource
|
path | True |
string |
Der Name der Ressourcengruppe. Bei dem Namen wird die Groß-/Kleinschreibung nicht beachtet. |
subscription
|
path | True |
string |
Die ID des Zielabonnements. |
workspace
|
path | True |
string |
Der Name des Arbeitsbereichs. |
api-version
|
query | True |
string |
Die API-Version, die für diesen Vorgang verwendet werden soll. |
force
|
query |
boolean |
Gibt an, ob ausgeführte Aufträge im Big Data-Pool beendet werden sollen. |
Anforderungstext
Name | Erforderlich | Typ | Beschreibung |
---|---|---|---|
location | True |
string |
Der geografische Standort, an dem sich die Ressource befindet |
properties.autoPause |
Automatisches Anhalten von Sparkpooleigenschaften |
||
properties.autoScale |
Eigenschaften der automatischen Skalierung des Spark-Pools |
||
properties.cacheSize |
integer |
Die Cachegröße |
|
properties.customLibraries |
Liste der benutzerdefinierten Bibliotheken/Pakete, die dem Sparkpool zugeordnet sind. |
||
properties.defaultSparkLogFolder |
string |
Der Standardordner, in den Spark-Protokolle geschrieben werden. |
|
properties.dynamicExecutorAllocation |
Dynamische Executor-Zuordnung |
||
properties.isAutotuneEnabled |
boolean |
Aktivieren von Autotune |
|
properties.isComputeIsolationEnabled |
boolean |
Gibt an, ob die Computeisolation erforderlich ist. |
|
properties.libraryRequirements |
Versionsanforderungen für Sparkpoolbibliotheken |
||
properties.nodeCount |
integer |
Die Anzahl der Knoten im Big Data-Pool. |
|
properties.nodeSize |
Die Berechnungsleistung, über die jeder Knoten im Big Data-Pool verfügt. |
||
properties.nodeSizeFamily |
Die Art der Knoten, die der Big Data-Pool bereitstellt. |
||
properties.provisioningState |
string |
Der Zustand des Big Data-Pools. |
|
properties.sessionLevelPackagesEnabled |
boolean |
Gibt an, ob Pakete auf Sitzungsebene aktiviert sind. |
|
properties.sparkConfigProperties |
Spark pool Config Properties |
||
properties.sparkEventsFolder |
string |
Der Ordner "Spark-Ereignisse" |
|
properties.sparkVersion |
string |
Die Apache Spark-Version. |
|
tags |
object |
Ressourcentags. |
Antworten
Name | Typ | Beschreibung |
---|---|---|
200 OK |
OKAY |
|
202 Accepted | ||
Other Status Codes |
Beispiele
Create or update a Big Data pool
Beispielanforderung
PUT https://management.azure.com/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool?api-version=2021-06-01
{
"tags": {
"key": "value"
},
"location": "West US 2",
"properties": {
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"sparkEventsFolder": "/events",
"libraryRequirements": {
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
Beispiel für eine Antwort
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"lastSucceededTimestamp": "1970-01-01T10:00:00Z",
"isAutotuneEnabled": false
}
}
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
{
"error": {
"code": "Error code",
"message": "Error message"
}
}
Definitionen
Name | Beschreibung |
---|---|
Auto |
Automatisches Anhalten von Sparkpooleigenschaften |
Auto |
Eigenschaften der automatischen Skalierung des Spark-Pools |
Big |
Big Data-Pool |
Configuration |
Der Typ der Spark Config-Eigenschaftendatei. |
Dynamic |
Dynamische Executor-Zuordnungseigenschaften |
Error |
Der Ressourcenverwaltungsfehler zusätzliche Informationen. |
Error |
Das Fehlerdetails. |
Error |
Fehlerantwort |
Library |
Informationen zu einer Bibliothek/einem Paket, die auf Arbeitsbereichsebene erstellt wurden. |
Library |
Versionsanforderungen für Sparkpoolbibliotheken |
Node |
Die Berechnungsleistung, über die jeder Knoten im Big Data-Pool verfügt. |
Node |
Die Art der Knoten, die der Big Data-Pool bereitstellt. |
Spark |
Spark pool Config Properties |
AutoPauseProperties
Automatisches Anhalten von Sparkpooleigenschaften
Name | Typ | Beschreibung |
---|---|---|
delayInMinutes |
integer |
Die Anzahl der Minuten im Leerlauf, bevor der Big Data-Pool automatisch angehalten wird. |
enabled |
boolean |
Gibt an, ob das automatische Anhalten für den Big Data-Pool aktiviert ist. |
AutoScaleProperties
Eigenschaften der automatischen Skalierung des Spark-Pools
Name | Typ | Beschreibung |
---|---|---|
enabled |
boolean |
Gibt an, ob die automatische Skalierung für den Big Data-Pool aktiviert ist. |
maxNodeCount |
integer |
Die maximale Anzahl von Knoten, die der Big Data-Pool unterstützen kann. |
minNodeCount |
integer |
Die Mindestanzahl der Knoten, die der Big Data-Pool unterstützen kann. |
BigDataPoolResourceInfo
Big Data-Pool
Name | Typ | Beschreibung |
---|---|---|
id |
string |
Vollqualifizierte Ressourcen-ID für die Ressource. Ex - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
location |
string |
Der geografische Standort, an dem sich die Ressource befindet |
name |
string |
Der Name der Ressource |
properties.autoPause |
Automatisches Anhalten von Sparkpooleigenschaften |
|
properties.autoScale |
Eigenschaften der automatischen Skalierung des Spark-Pools |
|
properties.cacheSize |
integer |
Die Cachegröße |
properties.creationDate |
string |
Die Zeit, zu der der Big Data-Pool erstellt wurde. |
properties.customLibraries |
Liste der benutzerdefinierten Bibliotheken/Pakete, die dem Sparkpool zugeordnet sind. |
|
properties.defaultSparkLogFolder |
string |
Der Standardordner, in den Spark-Protokolle geschrieben werden. |
properties.dynamicExecutorAllocation |
Dynamische Executor-Zuordnung |
|
properties.isAutotuneEnabled |
boolean |
Aktivieren von Autotune |
properties.isComputeIsolationEnabled |
boolean |
Gibt an, ob die Computeisolation erforderlich ist. |
properties.lastSucceededTimestamp |
string |
Der Zeitpunkt, zu dem der Big Data-Pool erfolgreich aktualisiert wurde. |
properties.libraryRequirements |
Versionsanforderungen für Sparkpoolbibliotheken |
|
properties.nodeCount |
integer |
Die Anzahl der Knoten im Big Data-Pool. |
properties.nodeSize |
Die Berechnungsleistung, über die jeder Knoten im Big Data-Pool verfügt. |
|
properties.nodeSizeFamily |
Die Art der Knoten, die der Big Data-Pool bereitstellt. |
|
properties.provisioningState |
string |
Der Zustand des Big Data-Pools. |
properties.sessionLevelPackagesEnabled |
boolean |
Gibt an, ob Pakete auf Sitzungsebene aktiviert sind. |
properties.sparkConfigProperties |
Spark pool Config Properties |
|
properties.sparkEventsFolder |
string |
Der Ordner "Spark-Ereignisse" |
properties.sparkVersion |
string |
Die Apache Spark-Version. |
tags |
object |
Ressourcentags. |
type |
string |
Der Typ der Ressource. Z. B. "Microsoft.Compute/virtualMachines" oder "Microsoft.Storage/storageAccounts" |
ConfigurationType
Der Typ der Spark Config-Eigenschaftendatei.
Name | Typ | Beschreibung |
---|---|---|
Artifact |
string |
|
File |
string |
DynamicExecutorAllocation
Dynamische Executor-Zuordnungseigenschaften
Name | Typ | Beschreibung |
---|---|---|
enabled |
boolean |
Gibt an, ob die dynamische Executorzuordnung aktiviert ist oder nicht. |
maxExecutors |
integer |
Die maximale Anzahl von Vollzugsausführern, die abgeworelt wurden |
minExecutors |
integer |
Die Mindestanzahl der Vollzugsausführer |
ErrorAdditionalInfo
Der Ressourcenverwaltungsfehler zusätzliche Informationen.
Name | Typ | Beschreibung |
---|---|---|
info |
object |
Die zusätzlichen Informationen. |
type |
string |
Der zusätzliche Informationstyp. |
ErrorDetail
Das Fehlerdetails.
Name | Typ | Beschreibung |
---|---|---|
additionalInfo |
Die zusätzlichen Informationen des Fehlers. |
|
code |
string |
Der Fehlercode. |
details |
Die Fehlerdetails. |
|
message |
string |
Die Fehlermeldung. |
target |
string |
Das Fehlerziel. |
ErrorResponse
Fehlerantwort
Name | Typ | Beschreibung |
---|---|---|
error |
Das Fehlerobjekt. |
LibraryInfo
Informationen zu einer Bibliothek/einem Paket, die auf Arbeitsbereichsebene erstellt wurden.
Name | Typ | Beschreibung |
---|---|---|
containerName |
string |
Name des Speicher-BLOB-Containers. |
creatorId |
string |
Ersteller-ID der Bibliothek/des Pakets. |
name |
string |
Name der Bibliothek. |
path |
string |
Speicher-BLOB-Pfad der Bibliothek. |
provisioningStatus |
string |
Bereitstellungsstatus der Bibliothek/des Pakets. |
type |
string |
Typ der Bibliothek. |
uploadedTimestamp |
string |
Der Zeitpunkt der letzten Aktualisierung der Bibliothek. |
LibraryRequirements
Versionsanforderungen für Sparkpoolbibliotheken
Name | Typ | Beschreibung |
---|---|---|
content |
string |
Die Bibliotheksanforderungen. |
filename |
string |
Der Dateiname der Bibliotheksanforderungendatei. |
time |
string |
Der Zeitpunkt der letzten Aktualisierung der Bibliotheksanforderungendatei. |
NodeSize
Die Berechnungsleistung, über die jeder Knoten im Big Data-Pool verfügt.
Name | Typ | Beschreibung |
---|---|---|
Large |
string |
|
Medium |
string |
|
None |
string |
|
Small |
string |
|
XLarge |
string |
|
XXLarge |
string |
|
XXXLarge |
string |
NodeSizeFamily
Die Art der Knoten, die der Big Data-Pool bereitstellt.
Name | Typ | Beschreibung |
---|---|---|
HardwareAcceleratedFPGA |
string |
|
HardwareAcceleratedGPU |
string |
|
MemoryOptimized |
string |
|
None |
string |
SparkConfigProperties
Spark pool Config Properties
Name | Typ | Beschreibung |
---|---|---|
configurationType |
Der Typ der Spark Config-Eigenschaftendatei. |
|
content |
string |
Die Spark-Konfigurationseigenschaften. |
filename |
string |
Der Dateiname der Spark Config-Eigenschaftendatei. |
time |
string |
Der Zeitpunkt der letzten Aktualisierung der Spark Config-Eigenschaftendatei. |