Переопределение параметров задач задания в пакетах ресурсов Databricks
В этой статье описывается, как переопределить параметры задач задания Azure Databricks в пакетах ресурсов Databricks. См. сведения о пакетах ресурсов Databricks?
В файлах конфигурации пакета Azure Databricks можно использовать task
сопоставление в определении задания для объединения параметров задач задания в сопоставлении задач верхнего уровня resources
с параметрами задачи задания в targets
сопоставлении, например (многоточия указывают на пропущенное содержимое для краткости):
# ...
resources:
jobs:
<some-unique-programmatic-identifier-for-this-job>:
# ...
tasks:
- task_key: <some-unique-programmatic-identifier-for-this-task>
# Task settings.
targets:
<some-unique-programmatic-identifier-for-this-target>:
resources:
jobs:
<the-matching-programmatic-identifier-for-this-job>:
# ...
tasks:
- task_key: <the-matching-programmatic-identifier-for-this-key>
# Any more task settings to join with the settings from the
# resources mapping for the matching top-level task_key.
# ...
Чтобы присоединить сопоставление верхнего уровня resources
и сопоставление для одного и targets
того же task
, task
сопоставления должны быть заданы task_key
таким же значением.
Если любой параметр задачи задания определен как в сопоставлении верхнего уровня resources
, так и targets
в сопоставлении для одного и того же task
, то параметр в сопоставлении имеет приоритет над параметром в targets
сопоставлении верхнего уровня resources
.
Пример 1. Параметры задачи задания, определенные в нескольких сопоставлениях ресурсов и без конфликтов параметров
В этом примере spark_version
сопоставление верхнего уровня resources
объединяется с node_type_id
сопоставлением и num_workers
в resources
сопоставлении для targets
определения параметров task_key
именованного my-task
(многоточие указывает на пропущенное содержимое для краткости):
# ...
resources:
jobs:
my-job:
name: my-job
tasks:
- task_key: my-key
new_cluster:
spark_version: 13.3.x-scala2.12
targets:
development:
resources:
jobs:
my-job:
name: my-job
tasks:
- task_key: my-task
new_cluster:
node_type_id: Standard_DS3_v2
num_workers: 1
# ...
При выполнении databricks bundle validate
этого примера результирующий граф выглядит следующим образом (многоточие указывает на пропущенное содержимое для краткости):
{
"...": "...",
"resources": {
"jobs": {
"my-job": {
"tasks": [
{
"new_cluster": {
"node_type_id": "Standard_DS3_v2",
"num_workers": 1,
"spark_version": "13.3.x-scala2.12"
},
"task-key": "my-task"
}
],
"...": "..."
}
}
}
}
Пример 2. Конфликтующие параметры задач задания, определенные в нескольких сопоставлениях ресурсов
В этом примере и num_workers
определяются как в сопоставлении верхнего уровняresources
, spark_version
так и в сопоставленииtargets
resources
. spark_version
и num_workers
в resources
сопоставлении targets
имеют приоритет spark_version
над и num_workers
в сопоставлении верхнего уровня resources
. Это определяет параметры именованных task_key
my-task
(многоточия указывают на пропущенное содержимое для краткости):
# ...
resources:
jobs:
my-job:
name: my-job
tasks:
- task_key: my-task
new_cluster:
spark_version: 13.3.x-scala2.12
node_type_id: Standard_DS3_v2
num_workers: 1
targets:
development:
resources:
jobs:
my-job:
name: my-job
tasks:
- task_key: my-task
new_cluster:
spark_version: 12.2.x-scala2.12
num_workers: 2
# ...
При выполнении databricks bundle validate
этого примера результирующий граф выглядит следующим образом (многоточие указывает на пропущенное содержимое для краткости):
{
"...": "...",
"resources": {
"jobs": {
"my-job": {
"tasks": [
{
"new_cluster": {
"node_type_id": "Standard_DS3_v2",
"num_workers": 2,
"spark_version": "12.2.x-scala2.12"
},
"task_key": "my-task"
}
],
"...": "..."
}
}
}
}