你当前正在访问 Microsoft Azure Global Edition 技术文档网站。 如果需要访问由世纪互联运营的 Microsoft Azure 中国技术文档网站,请访问 https://docs.azure.cn。
Big Data Pools - Create Or Update
创建大数据池。
创建新的大数据池。
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01
PUT https://management.azure.com/subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/Microsoft.Synapse/workspaces/{workspaceName}/bigDataPools/{bigDataPoolName}?api-version=2021-06-01&force={force}
URI 参数
名称 | 在 | 必需 | 类型 | 说明 |
---|---|---|---|---|
big
|
path | True |
string |
大数据池名称 |
resource
|
path | True |
string |
资源组的名称。 名称不区分大小写。 |
subscription
|
path | True |
string |
目标订阅的 ID。 |
workspace
|
path | True |
string |
工作区的名称。 |
api-version
|
query | True |
string |
用于此操作的 API 版本。 |
force
|
query |
boolean |
是否停止大数据池中任何正在运行的作业 |
请求正文
名称 | 必需 | 类型 | 说明 |
---|---|---|---|
location | True |
string |
资源所在的地理位置 |
properties.autoPause |
Spark 池自动暂停属性 |
||
properties.autoScale |
Spark 池自动缩放属性 |
||
properties.cacheSize |
integer |
缓存大小 |
|
properties.customLibraries |
与 Spark 池关联的自定义库/包列表。 |
||
properties.defaultSparkLogFolder |
string |
将写入 Spark 日志的默认文件夹。 |
|
properties.dynamicExecutorAllocation |
动态执行程序分配 |
||
properties.isAutotuneEnabled |
boolean |
启用 Autotune |
|
properties.isComputeIsolationEnabled |
boolean |
是否需要计算隔离。 |
|
properties.libraryRequirements |
Spark 池库版本要求 |
||
properties.nodeCount |
integer |
大数据池中的节点数。 |
|
properties.nodeSize |
大数据池中每个节点的计算能力级别。 |
||
properties.nodeSizeFamily |
大数据池提供的节点类型。 |
||
properties.provisioningState |
string |
大数据池的状态。 |
|
properties.sessionLevelPackagesEnabled |
boolean |
会话级别包是否已启用。 |
|
properties.sparkConfigProperties |
Spark 池配置属性 |
||
properties.sparkEventsFolder |
string |
Spark 事件文件夹 |
|
properties.sparkVersion |
string |
Apache Spark 版本。 |
|
tags |
object |
资源标记。 |
响应
名称 | 类型 | 说明 |
---|---|---|
200 OK |
还行 |
|
202 Accepted | ||
Other Status Codes |
示例
Create or update a Big Data pool
示例请求
PUT https://management.azure.com/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool?api-version=2021-06-01
{
"tags": {
"key": "value"
},
"location": "West US 2",
"properties": {
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"sparkEventsFolder": "/events",
"libraryRequirements": {
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
示例响应
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"lastSucceededTimestamp": "1970-01-01T10:00:00Z",
"isAutotuneEnabled": false
}
}
{
"id": "/subscriptions/01234567-89ab-4def-0123-456789abcdef/resourceGroups/ExampleResourceGroup/providers/Microsoft.Synapse/workspaces/ExampleWorkspace/bigDataPools/ExamplePool",
"type": "Microsoft.Synapse/workspaces/bigDataPools",
"location": "West US 2",
"name": "ExamplePool",
"tags": {
"key": "value"
},
"properties": {
"provisioningState": "Provisioning",
"sparkVersion": "3.3",
"nodeCount": 4,
"nodeSize": "Medium",
"nodeSizeFamily": "MemoryOptimized",
"autoScale": {
"enabled": true,
"minNodeCount": 3,
"maxNodeCount": 50
},
"autoPause": {
"enabled": true,
"delayInMinutes": 15
},
"creationDate": "1970-01-01T00:00:00Z",
"sparkEventsFolder": "/events",
"libraryRequirements": {
"time": "1970-01-01T00:00:00Z",
"content": "",
"filename": "requirements.txt"
},
"defaultSparkLogFolder": "/logs",
"isAutotuneEnabled": false
}
}
{
"error": {
"code": "Error code",
"message": "Error message"
}
}
定义
名称 | 说明 |
---|---|
Auto |
Spark 池自动暂停属性 |
Auto |
Spark 池自动缩放属性 |
Big |
大数据池 |
Configuration |
spark 配置文件的类型。 |
Dynamic |
动态执行程序分配属性 |
Error |
资源管理错误附加信息。 |
Error |
错误详细信息。 |
Error |
错误响应 |
Library |
有关在工作区级别创建的库/包的信息。 |
Library |
Spark 池库版本要求 |
Node |
大数据池中每个节点的计算能力级别。 |
Node |
大数据池提供的节点类型。 |
Spark |
Spark 池配置属性 |
AutoPauseProperties
Spark 池自动暂停属性
名称 | 类型 | 说明 |
---|---|---|
delayInMinutes |
integer |
大数据池自动暂停之前空闲时间的分钟数。 |
enabled |
boolean |
是否为大数据池启用自动暂停。 |
AutoScaleProperties
Spark 池自动缩放属性
名称 | 类型 | 说明 |
---|---|---|
enabled |
boolean |
是否为大数据池启用自动缩放。 |
maxNodeCount |
integer |
大数据池可以支持的最大节点数。 |
minNodeCount |
integer |
大数据池可以支持的最小节点数。 |
BigDataPoolResourceInfo
大数据池
名称 | 类型 | 说明 |
---|---|---|
id |
string |
资源的完全限定资源 ID。 Ex - /subscriptions/{subscriptionId}/resourceGroups/{resourceGroupName}/providers/{resourceProviderNamespace}/{resourceType}/{resourceName} |
location |
string |
资源所在的地理位置 |
name |
string |
资源的名称 |
properties.autoPause |
Spark 池自动暂停属性 |
|
properties.autoScale |
Spark 池自动缩放属性 |
|
properties.cacheSize |
integer |
缓存大小 |
properties.creationDate |
string |
创建大数据池的时间。 |
properties.customLibraries |
与 Spark 池关联的自定义库/包列表。 |
|
properties.defaultSparkLogFolder |
string |
将写入 Spark 日志的默认文件夹。 |
properties.dynamicExecutorAllocation |
动态执行程序分配 |
|
properties.isAutotuneEnabled |
boolean |
启用 Autotune |
properties.isComputeIsolationEnabled |
boolean |
是否需要计算隔离。 |
properties.lastSucceededTimestamp |
string |
大数据池成功更新的时间。 |
properties.libraryRequirements |
Spark 池库版本要求 |
|
properties.nodeCount |
integer |
大数据池中的节点数。 |
properties.nodeSize |
大数据池中每个节点的计算能力级别。 |
|
properties.nodeSizeFamily |
大数据池提供的节点类型。 |
|
properties.provisioningState |
string |
大数据池的状态。 |
properties.sessionLevelPackagesEnabled |
boolean |
会话级别包是否已启用。 |
properties.sparkConfigProperties |
Spark 池配置属性 |
|
properties.sparkEventsFolder |
string |
Spark 事件文件夹 |
properties.sparkVersion |
string |
Apache Spark 版本。 |
tags |
object |
资源标记。 |
type |
string |
资源的类型。 例如“Microsoft.Compute/virtualMachines”或“Microsoft.Storage/storageAccounts” |
ConfigurationType
spark 配置文件的类型。
名称 | 类型 | 说明 |
---|---|---|
Artifact |
string |
|
File |
string |
DynamicExecutorAllocation
动态执行程序分配属性
名称 | 类型 | 说明 |
---|---|---|
enabled |
boolean |
指示是否启用动态执行程序分配。 |
maxExecutors |
integer |
分配的执行程序的最大数目 |
minExecutors |
integer |
分配的执行程序最小数目 |
ErrorAdditionalInfo
资源管理错误附加信息。
名称 | 类型 | 说明 |
---|---|---|
info |
object |
其他信息。 |
type |
string |
其他信息类型。 |
ErrorDetail
错误详细信息。
名称 | 类型 | 说明 |
---|---|---|
additionalInfo |
错误附加信息。 |
|
code |
string |
错误代码。 |
details |
错误详细信息。 |
|
message |
string |
错误消息。 |
target |
string |
错误目标。 |
ErrorResponse
错误响应
名称 | 类型 | 说明 |
---|---|---|
error |
错误对象。 |
LibraryInfo
有关在工作区级别创建的库/包的信息。
名称 | 类型 | 说明 |
---|---|---|
containerName |
string |
存储 Blob 容器名称。 |
creatorId |
string |
库/包的创建者 ID。 |
name |
string |
库的名称。 |
path |
string |
库的存储 Blob 路径。 |
provisioningStatus |
string |
库/包的预配状态。 |
type |
string |
库的类型。 |
uploadedTimestamp |
string |
库的上次更新时间。 |
LibraryRequirements
Spark 池库版本要求
名称 | 类型 | 说明 |
---|---|---|
content |
string |
库要求。 |
filename |
string |
库要求文件的文件名。 |
time |
string |
库要求文件的上次更新时间。 |
NodeSize
大数据池中每个节点的计算能力级别。
名称 | 类型 | 说明 |
---|---|---|
Large |
string |
|
Medium |
string |
|
None |
string |
|
Small |
string |
|
XLarge |
string |
|
XXLarge |
string |
|
XXXLarge |
string |
NodeSizeFamily
大数据池提供的节点类型。
名称 | 类型 | 说明 |
---|---|---|
HardwareAcceleratedFPGA |
string |
|
HardwareAcceleratedGPU |
string |
|
MemoryOptimized |
string |
|
None |
string |
SparkConfigProperties
Spark 池配置属性
名称 | 类型 | 说明 |
---|---|---|
configurationType |
spark 配置文件的类型。 |
|
content |
string |
spark 配置属性。 |
filename |
string |
spark 配置属性文件的文件名。 |
time |
string |
spark 配置属性文件的上次更新时间。 |