Sdílet prostřednictvím


Leden 2018

Verze jsou připraveny. Váš účet Databricks se nemusí aktualizovat do týdne po počátečním datu vydání.

Přípojné body pro kontejnery úložiště Azure Blob a úložiště Data Lake Store

23. ledna 2018: Verze 2.63

Poskytli jsme pokyny pro připojení kontejnerů Azure Blob Storage a Data Lake Stores prostřednictvím systému souborů Databricks (DBFS). Díky tomu mají všichni uživatelé ve stejném pracovním prostoru přístup ke kontejneru Blob Storage nebo data Lake Store (nebo složce uvnitř kontejneru nebo úložiště) prostřednictvím přípojného bodu. DBFS spravuje přihlašovací údaje používané pro přístup ke kontejneru připojeného úložiště objektů blob nebo Data Lake Store a automaticky zpracovává ověřování pomocí služby Azure Blob Storage nebo Data Lake Store na pozadí.

Připojení kontejnerů Blob Storage a Data Lake Stores vyžaduje Databricks Runtime 4.0 a vyšší. Po připojení kontejneru nebo úložiště můžete pro přístup k přípojovému bodu použít modul runtime 3.4 nebo vyšší.

Další informace najdete v tématu Připojení k Azure Data Lake Storage Gen2 a Blob Storage a přístup ke službě Azure Data Lake Storage Gen1 z Azure Databricks .

Značky clusteru

4. ledna 2018: Verze 2.62

Teď můžete zadat značky clusteru, které se rozšíří do všech prostředků Azure (virtuální počítače, disky, síťové karty atd.) přidružené ke clusteru. Kromě uživatelských značek se prostředky automaticky označí názvem clusteru, ID clusteru a uživatelským jménem tvůrce clusteru.

Další informace najdete v tématu Značky .

Řízení přístupu k tabulkám pro SQL a Python (Private Preview)

4. ledna 2018: Verze 2.62

Poznámka:

Tato funkce je v privátní verzi Preview. Obraťte se na svého správce účtů a požádejte o přístup. Tato funkce také vyžaduje Databricks Runtime 3.5 nebo novější.

Minulý rok jsme zavedli řízení přístupu k datovým objektům pro uživatele SQL. Dnes s radostí oznamujeme privátní verzi Preview řízení přístupu k tabulce (ACL) pro uživatele SQL i Pythonu. Pomocí řízení přístupu k tabulkám můžete omezit přístup k zabezpečitelným objektům, jako jsou tabulky, databáze, zobrazení nebo funkce. Můžete také poskytnout jemně odstupňované řízení přístupu (k řádkům a sloupcům odpovídajícím specifickým podmínkám, například) nastavením oprávnění u odvozených zobrazení obsahujících libovolné dotazy.

Další informace najdete v tématu Oprávnění metastoru Hive a zabezpečitelné objekty (starší verze ).

-Export výsledků spuštění úlohy poznámkového bloku prostřednictvím rozhraní API

4. ledna 2018: Verze 2.62

Abychom zlepšili možnost sdílet výsledky úloh a spolupracovat na výsledcích úloh, máme teď nový koncový bod rozhraní API úloh, jobs/runs/export který umožňuje načíst statické znázornění HTML výsledků spuštění úlohy poznámkového bloku v zobrazení kódu i řídicího panelu.

Další informace najdete v tématu Spuštění exportu .

Apache Airflow 1.9.0 zahrnuje integraci Databricks

2. ledna 2018

Minulý rok jsme vydali funkci Preview v Airflow , což je oblíbené řešení pro správu plánování ETL, které zákazníkům umožňuje nativně vytvářet úlohy, které aktivují spuštění Databricks v DAG Airflow. S radostí oznamujeme, že tyto integrace byly vydány veřejně ve verzi Airflow 1.9.0.

Další informace najdete v tématu Orchestrace úloh Azure Databricks pomocí Apache Airflow .