Dela via


Hantera paket med sessionsomfattning

Förutom paket på poolnivå kan du även ange bibliotek med sessionsomfattning i början av en notebook-session. Med bibliotek med sessionsomfattning kan du ange och använda Python-, jar- och R-paket i en notebook-session.

När du använder bibliotek med sessionsomfattning är det viktigt att tänka på följande:

  • När du installerar bibliotek med sessionsomfattning har endast den aktuella notebook-filen åtkomst till de angivna biblioteken.
  • De här biblioteken påverkar inte andra sessioner eller jobb med samma Spark-pool.
  • De här biblioteken installeras ovanpå biblioteken på baskörnings- och poolnivå och har högsta prioritet.
  • Bibliotek med sessionsomfattning bevaras inte mellan sessioner.

Python-paket med sessionsomfattning

Hantera Python-paket med sessionsomfattning via environment.yml fil

Så här anger du Python-paket med sessionsomfattning:

  1. Gå till den valda Spark-poolen och kontrollera att du har aktiverat bibliotek på sessionsnivå. Du kan aktivera den här inställningen genom att gå till fliken Hantera>Apache Spark-poolpaket.>Skärmbild av aktivering av sessionspaket.
  2. När inställningen gäller kan du öppna en notebook-fil och välja Konfigurera sessionspaket>. Skärmbild av att ange sessionspaket. Skärmbild av uppladdning av Yml-fil.
  3. Här kan du ladda upp en Conda-environment.yml-fil för att installera eller uppgradera paket i en session. De angivna biblioteken finns när sessionen startar. Dessa bibliotek är inte längre tillgängliga när sessionen är slut.

Hantera Python-paket med sessionsomfattning via kommandona %pip och %conda

Du kan använda de populära kommandona %pip och %conda för att installera ytterligare bibliotek från tredje part eller dina anpassade bibliotek under apache Spark-notebook-sessionen. I det här avsnittet använder vi %pip-kommandon för att demonstrera flera vanliga scenarier.

Kommentar

  • Vi rekommenderar att du placerar kommandona %pip och %conda i den första cellen i anteckningsboken om du vill installera nya bibliotek. Python-tolken startas om efter att biblioteket på sessionsnivå har hanterats för att ändringarna ska börja gälla.
  • Dessa kommandon för att hantera Python-bibliotek inaktiveras när pipelinejobb körs. Om du vill installera ett paket i en pipeline måste du använda funktionerna för bibliotekshantering på poolnivå.
  • Python-bibliotek med sessionsomfattning installeras automatiskt över både drivrutins- och arbetsnoderna.
  • Följande %conda-kommandon stöds inte: skapa, rensa, jämföra, aktivera, inaktivera, köra, paket.
  • Du kan se %pip-kommandon och %conda-kommandon för den fullständiga listan med kommandon.

Installera ett tredjepartspaket

Du kan enkelt installera ett Python-bibliotek från PyPI.

# Install vega_datasets
%pip install altair vega_datasets

Om du vill verifiera installationsresultatet kan du köra följande kod för att visualisera vega_datasets

# Create a scatter plot
# Plot Miles per gallon against the horsepower across different region

import altair as alt
from vega_datasets import data

cars = data.cars()
alt.Chart(cars).mark_point().encode(
    x='Horsepower',
    y='Miles_per_Gallon',
    color='Origin',
).interactive()

Installera ett hjulpaket från lagringskontot

För att kunna installera biblioteket från lagringen måste du montera till ditt lagringskonto genom att köra följande kommandon.

from notebookutils import mssparkutils  
 
mssparkutils.fs.mount(  
    "abfss://<<file system>>@<<storage account>.dfs.core.windows.net",  
    "/<<path to wheel file>>",  
    {"linkedService":"<<storage name>>"}  
) 

Och sedan kan du använda kommandot %pip install för att installera det nödvändiga hjulpaketet

%pip install /<<path to wheel file>>/<<wheel package name>>.whl

Installera en annan version av det inbyggda biblioteket

Du kan använda följande kommando för att se vad som är den inbyggda versionen av vissa paket. Vi använder Pandas som exempel

%pip show pandas

Resultatet är som följande logg:

Name: pandas
Version: **1.2.3**
Summary: Powerful data structures for data analysis, time series, and statistics
Home-page: https://pandas.pydata.org
... ...

Du kan använda följande kommando för att växla pandas till en annan version, låt oss säga 1.2.4

%pip install pandas==1.2.4

Avinstallera ett bibliotek med sessionsomfattning

Om du vill avinstallera ett paket som är installerat på den här notebook-sessionen kan du läsa följande kommandon. Du kan dock inte avinstallera de inbyggda paketen.

%pip uninstall altair vega_datasets --yes

Använda kommandot %pip för att installera bibliotek från en requirement.txt fil

%pip install -r  /<<path to requirement file>>/requirements.txt

Java- eller Scala-paket med sessionsomfång

Om du vill ange Java- eller Scala-paket med sessionsomfattning kan du använda alternativet %%configure :

%%configure -f
{
    "conf": {
        "spark.jars": "abfss://<<file system>>@<<storage account>.dfs.core.windows.net/<<path to JAR file>>",
    }
}

Kommentar

  • Vi rekommenderar att du kör %%configure i början av notebook-filen. Du kan referera till det här dokumentet för den fullständiga listan över giltiga parametrar.

R-paket med sessionsomfång (förhandsversion)

Azure Synapse Analytics-pooler innehåller många populära R-bibliotek. Du kan också installera extra bibliotek från tredje part under apache Spark-notebook-sessionen.

Kommentar

  • Dessa kommandon för att hantera R-bibliotek inaktiveras när pipelinejobb körs. Om du vill installera ett paket i en pipeline måste du använda funktionerna för bibliotekshantering på poolnivå.
  • Sessionsomfattande R-bibliotek installeras automatiskt över både drivrutins- och arbetsnoderna.

Installera ett paket

Du kan enkelt installera ett R-bibliotek från CRAN.

# Install a package from CRAN
install.packages(c("nycflights13", "Lahman"))

Du kan också använda CRAN-ögonblicksbilder som lagringsplats för att se till att ladda ned samma paketversion varje gång.

install.packages("highcharter", repos = "https://cran.microsoft.com/snapshot/2021-07-16/")

Använda devtools för att installera paket

Biblioteket devtools förenklar paketutvecklingen för att påskynda vanliga uppgifter. Det här biblioteket installeras inom standardkörningen för Azure Synapse Analytics.

Du kan använda devtools för att ange en specifik version av ett bibliotek som ska installeras. Dessa bibliotek installeras över alla noder i klustret.

# Install a specific version. 
install_version("caesar", version = "1.0.0") 

På samma sätt kan du installera ett bibliotek direkt från GitHub.

# Install a GitHub library. 

install_github("jtilly/matchingR") 

För närvarande stöds följande devtools funktioner i Azure Synapse Analytics:

Kommando beskrivning
install_github() Installerar ett R-paket från GitHub
install_gitlab() Installerar ett R-paket från GitLab
install_bitbucket() Installerar ett R-paket från Bitbucket
install_url() Installerar ett R-paket från en godtycklig URL
install_git() Installerar från en godtycklig git-lagringsplats
install_local() Installerar från en lokal fil på disk
install_version() Installerar från en specifik version på CRAN

Visa installerade bibliotek

Du kan köra frågor mot alla bibliotek som är installerade i sessionen med hjälp av library kommandot .

library()

Du kan använda packageVersion funktionen för att kontrollera versionen av biblioteket:

packageVersion("caesar")

Ta bort ett R-paket från en session

Du kan använda detach funktionen för att ta bort ett bibliotek från namnområdet. De här biblioteken finns kvar på disken tills de läses in igen.

# detach a library

detach("package: caesar")

Om du vill ta bort ett sessionsomfattande paket från en notebook-fil använder du remove.packages() kommandot . Den här biblioteksändringen påverkar inte andra sessioner i samma kluster. Användare kan inte avinstallera eller ta bort inbyggda bibliotek för azure Synapse Analytics-standardkörningen.

remove.packages("caesar")

Kommentar

Du kan inte ta bort kärnpaket som SparkR, SparklyR eller R.

R-bibliotek med sessionsomfattning och SparkR

Bibliotek med notebook-omfång är tillgängliga för SparkR-arbetare.

install.packages("stringr")
library(SparkR)

str_length_function <- function(x) {
  library(stringr)
  str_length(x)
}

docs <- c("Wow, I really like the new light sabers!",
               "That book was excellent.",
               "R is a fantastic language.",
               "The service in this restaurant was miserable.",
               "This is neither positive or negative.")

spark.lapply(docs, str_length_function)

R-bibliotek med sessionsomfång och SparklyR

Med spark_apply() i SparklyR kan du använda valfritt R-paket i Spark. Som standard i sparklyr::spark_apply() anges paketargumentet till FALSE. Detta kopierar bibliotek i aktuella libPaths till arbetarna, så att du kan importera och använda dem på arbetare. Du kan till exempel köra följande för att generera ett caesarkrypterat meddelande med sparklyr::spark_apply():

install.packages("caesar", repos = "https://cran.microsoft.com/snapshot/2021-07-16/")

spark_version <- "3.2"
config <- spark_config()
sc <- spark_connect(master = "yarn", version = spark_version, spark_home = "/opt/spark", config = config)

apply_cases <- function(x) {
  library(caesar)
  caesar("hello world")
}
sdf_len(sc, 5) %>%
  spark_apply(apply_cases, packages=FALSE)

Nästa steg