Udostępnij za pośrednictwem


Styczeń 2018 r.

Wydania są etapowe. Twoje konto usługi Databricks może nie zostać zaktualizowane do tygodnia po początkowej dacie wydania.

Punkty instalacji kontenerów usługi Azure Blob Storage i magazynów usługi Data Lake

16-23 stycznia 2018 r.: Wersja 2.63

Podano instrukcje dotyczące instalowania kontenerów usługi Azure Blob Storage i usługi Data Lake Store za pośrednictwem systemu plików usługi Databricks (DBFS). Dzięki temu wszyscy użytkownicy w tym samym obszarze roboczym mogą uzyskiwać dostęp do kontenera usługi Blob Storage lub usługi Data Lake Store (lub folderu wewnątrz kontenera lub magazynu) za pośrednictwem punktu instalacji. System plików DBFS zarządza poświadczeniami używanymi do uzyskiwania dostępu do zamontowanego kontenera Blob Storage lub Data Lake Store i automatycznie obsługuje uwierzytelnianie w tle za pomocą usługi Azure Blob Storage lub Data Lake Store.

Instalowanie kontenerów usługi Blob Storage i usług Data Lake Store wymaga środowiska Databricks Runtime 4.0 lub nowszego. Po zainstalowaniu kontenera lub magazynu możesz użyć środowiska Uruchomieniowego 3.4 lub nowszego, aby uzyskać dostęp do punktu instalacji.

Aby uzyskać więcej informacji, zobacz Nawiązywanie połączenia z usługą Azure Data Lake Storage Gen2 i usługą Blob Storage oraz Uzyskiwanie dostępu do usługi Azure Data Lake Storage Gen1 z usługi Azure Databricks.

Tagi klastra

4–11 stycznia 2018 r.: Wersja 2.62

Teraz można określić tagi klastra, które będą propagowane do wszystkich zasobów platformy Azure (maszyn wirtualnych, dysków, kart sieciowych itp.) skojarzonych z klastrem. Oprócz tagów udostępnianych przez użytkownika zasoby będą automatycznie oznaczane nazwą klastra, identyfikatorem klastra i nazwą użytkownika twórcy klastra.

Aby uzyskać więcej informacji, zobacz Tagi .

Kontrola dostępu do tabel dla języków SQL i Python (prywatna wersja zapoznawcza)

4–11 stycznia 2018 r.: Wersja 2.62

Uwaga

Ta funkcja jest dostępna w prywatnej wersji zapoznawczej. Skontaktuj się z menedżerem kont, aby zażądać dostępu. Ta funkcja wymaga również środowiska Databricks Runtime 3.5 lub nowszego.

W ubiegłym roku wprowadziliśmy kontrolę dostępu do obiektów danych dla użytkowników sql. Dzisiaj z przyjemnością ogłaszamy prywatną wersję zapoznawczą Kontroli Dostępu do Tabel (ACL) dla użytkowników SQL i Pythona. Za pomocą kontroli dostępu do tabel można ograniczyć dostęp do zabezpieczanych obiektów, takich jak tabele, bazy danych, widoki lub funkcje. Możesz również zapewnić szczegółową kontrolę dostępu (na przykład wiersze i kolumny pasujące do określonych warunków), ustawiając uprawnienia do widoków pochodnych zawierających dowolne zapytania.

Aby uzyskać więcej informacji, zobacz Uprawnienia magazynu metadanych Hive i zabezpieczane obiekty (starsza wersja).

Wyniki przebiegu zadania eksportowania notesu za pośrednictwem interfejsu API

4–11 stycznia 2018 r.: Wersja 2.62

Aby zwiększyć możliwość udostępniania i współpracy nad wynikami zadań, mamy teraz nowy punkt końcowy interfejsu API zadań, jobs/runs/export który umożliwia pobranie statycznej reprezentacji HTML przebiegu zadania notesu w widoku kodu i pulpitu nawigacyjnego.

Aby uzyskać więcej informacji, zobacz Eksportowanie przebiegów .

Interfejs Apache Airflow 1.9.0 obejmuje integrację usługi Databricks

2 stycznia 2018 r.

W ubiegłym roku udostępniliśmy funkcję w wersji zapoznawczej w rozwiązaniu Airflow — popularnym rozwiązaniem do zarządzania planowaniem ETL, które umożliwia klientom natywne tworzenie zadań wyzwalających uruchamianie usługi Databricks w grupie DAG przepływu powietrza. Z przyjemnością informujemy, że te integracje zostały opublikowane publicznie w wersji 1.9.0 airflow.

Aby uzyskać więcej informacji, zobacz Orchestrate Azure Databricks jobs with Apache Airflow (Organizowanie zadań usługi Azure Databricks za pomocą platformy Apache Airflow ).