Поделиться через


Переопределение параметров задач задания в пакетах ресурсов Databricks

В этой статье описывается, как переопределить параметры задач задания Azure Databricks в пакетах ресурсов Databricks. См. сведения о пакетах ресурсов Databricks?

В файлах конфигурации пакета Azure Databricks можно использовать task сопоставление в определении задания для объединения параметров задач задания в сопоставлении задач верхнего уровня resources с параметрами задачи задания в targets сопоставлении, например (многоточия указывают на пропущенное содержимое для краткости):

# ...
resources:
  jobs:
    <some-unique-programmatic-identifier-for-this-job>:
      # ...
      tasks:
        - task_key: <some-unique-programmatic-identifier-for-this-task>
          # Task settings.

targets:
  <some-unique-programmatic-identifier-for-this-target>:
    resources:
      jobs:
        <the-matching-programmatic-identifier-for-this-job>:
          # ...
          tasks:
            - task_key: <the-matching-programmatic-identifier-for-this-key>
              # Any more task settings to join with the settings from the
              # resources mapping for the matching top-level task_key.
          # ...

Чтобы присоединить сопоставление верхнего уровня resources и сопоставление для одного и targets того же task, task сопоставления должны быть заданы task_key таким же значением.

Если любой параметр задачи задания определен как в сопоставлении верхнего уровня resources , так и targets в сопоставлении для одного и того же task, то параметр в сопоставлении имеет приоритет над параметром в targets сопоставлении верхнего уровня resources .

Пример 1. Параметры задачи задания, определенные в нескольких сопоставлениях ресурсов и без конфликтов параметров

В этом примере spark_version сопоставление верхнего уровня resources объединяется с node_type_id сопоставлением и num_workers в resources сопоставлении для targets определения параметров task_key именованного my-task (многоточие указывает на пропущенное содержимое для краткости):

# ...
resources:
  jobs:
    my-job:
      name: my-job
      tasks:
        - task_key: my-key
          new_cluster:
            spark_version: 13.3.x-scala2.12

targets:
  development:
    resources:
      jobs:
        my-job:
          name: my-job
          tasks:
            - task_key: my-task
              new_cluster:
                node_type_id: Standard_DS3_v2
                num_workers: 1
          # ...

При выполнении databricks bundle validate этого примера результирующий граф выглядит следующим образом (многоточие указывает на пропущенное содержимое для краткости):

{
  "...": "...",
  "resources": {
    "jobs": {
      "my-job": {
        "tasks": [
          {
            "new_cluster": {
              "node_type_id": "Standard_DS3_v2",
              "num_workers": 1,
              "spark_version": "13.3.x-scala2.12"
            },
            "task-key": "my-task"
          }
        ],
        "...": "..."
      }
    }
  }
}

Пример 2. Конфликтующие параметры задач задания, определенные в нескольких сопоставлениях ресурсов

В этом примере и num_workers определяются как в сопоставлении верхнего уровняresources, spark_versionтак и в сопоставленииtargetsresources. spark_version и num_workers в resources сопоставлении targets имеют приоритет spark_version над и num_workers в сопоставлении верхнего уровня resources . Это определяет параметры именованных task_keymy-task (многоточия указывают на пропущенное содержимое для краткости):

# ...
resources:
  jobs:
    my-job:
      name: my-job
      tasks:
        - task_key: my-task
          new_cluster:
            spark_version: 13.3.x-scala2.12
            node_type_id: Standard_DS3_v2
            num_workers: 1

targets:
  development:
    resources:
      jobs:
        my-job:
          name: my-job
          tasks:
            - task_key: my-task
              new_cluster:
                spark_version: 12.2.x-scala2.12
                num_workers: 2
          # ...

При выполнении databricks bundle validate этого примера результирующий граф выглядит следующим образом (многоточие указывает на пропущенное содержимое для краткости):

{
  "...": "...",
  "resources": {
    "jobs": {
      "my-job": {
        "tasks": [
          {
            "new_cluster": {
              "node_type_id": "Standard_DS3_v2",
              "num_workers": 2,
              "spark_version": "12.2.x-scala2.12"
            },
            "task_key": "my-task"
          }
        ],
        "...": "..."
      }
    }
  }
}