Январь 2018 г.
Выпуски являются поэтапными. Ваша учетная запись Databricks может быть обновлена только через неделю после первоначальной даты выпуска.
Точки подключения для контейнеров хранилища BLOB-объектов Azure и Data Lake Store
16—23 января 2018 г.: версия 2.63
Мы предоставили инструкции по подключению контейнеров хранилища BLOB-объектов Azure и хранилищ Data Lake с помощью файловой системы Databricks (DBFS). Это дает всем пользователям в одной рабочей области возможность доступа к контейнеру хранилища BLOB-объектов или хранилищу Data Lake (или папке внутри контейнера или хранилища) через точку подключения. DBFS управляет учетными данными, используемыми для доступа к подключенному контейнеру хранилища BLOB-объектов или Data Lake Store, и автоматически обрабатывает проверку подлинности с помощью хранилища BLOB-объектов Azure или Data Lake Store в фоновом режиме.
Для подключения контейнеров хранилища BLOB-объектов и хранилищ Data Lake требуется Databricks Runtime 4.0 или более поздние версии. После подключения контейнера или хранилища можно использовать Runtime 3.4 или более позднюю версию для доступа к точке подключения.
Дополнительные сведения см. в статье "Подключение к Azure Data Lake Storage 2-го поколения и хранилищу BLOB-объектов и доступ к Azure Data Lake Storage 1-го поколения из Azure Databricks".
Теги кластера
4—11 января 2018 г.: версия 2.62
Теперь можно указать теги кластера, которые будут распространяться на все ресурсы Azure (виртуальные машины, диски, сетевые карты и т. д.), связанные с кластером. Помимо тегов, предоставленных пользователем, ресурсы автоматически отмечаются именем кластера, идентификатором кластера и именем пользователя создателя кластера.
Дополнительные сведения см. в тегах .
Управление доступом к таблицам для SQL и Python (частная предварительная версия)
4—11 января 2018 г.: версия 2.62
Примечание.
Эта функция находится в режиме закрытой предварительной версии. Обратитесь к менеджеру учетных записей, чтобы запросить доступ. Для этой функции также требуется Databricks Runtime 3.5 или более поздние версии.
В прошлом году мы предоставили управление доступом к объектам данных для пользователей SQL. Сегодня мы рады объявить частную предварительную версию управления доступом к таблицам (ACL) для пользователей SQL и Python. С помощью управления доступом к таблицам можно ограничить доступ к защищаемым объектам, таким как таблицы, базы данных, представления или функции. Кроме того, можно обеспечить точное управление доступом (к строкам и столбцам, соответствующим конкретным условиям, например), задав разрешения на производные представления, содержащие произвольные запросы.
Дополнительные сведения см. в разделе "Привилегии хранилища метаданных Hive" и защищаемые объекты (устаревшие ).
Экспорт результатов выполнения задания записной книжки через API
4—11 января 2018 г.: версия 2.62
Чтобы повысить эффективность совместного использования и совместной работы над результатами заданий, теперь у нас есть новая конечная точка API заданий jobs/runs/export
, которая позволяет получить статическое HTML-представление результатов выполнения задания записной книжки в представлении как кода, так и панели мониторинга.
Для получения дополнительной информации см. Экспорт выполнений.
В Apache Airflow 1.9.0 добавлена интеграция с Databricks
2 января 2018 г.
В прошлом году мы выпустили предварительную версию функции в Airflow — популярное решение для управления планированием ETL, которая позволяет клиентам создавать собственные задачи, активирующие запуски Databricks в Airflow DAG. Мы рады сообщить, что эти интеграции были выпущены в общедоступной версии Airflow 1.9.0.
Дополнительные сведения см . в заданиях Orchestrate Azure Databricks с Помощью Apache Airflow .