NotebookUtils (entinen MSSparkUtils) for Fabric
Notebook Utilities (NotebookUtils) on sisäinen paketti, jonka avulla voit helposti suorittaa yleisiä tehtäviä Fabric Notebookissa. NotebookUtils-apuohjelman avulla voit käsitellä tiedostojärjestelmiä, saada ympäristömuuttujia, ketjuttaa muistikirjoja yhteen ja käsitellä salaisuuksia. NotebookUtils-paketti on saatavilla PySpark (Python) Scala-, SparkR-muistikirjoissa ja Fabric-putkissa.
Muistiinpano
- MsSparkUtils on virallisesti nimetty uudelleen NotebookUtils-nimeksi. Olemassa oleva koodi pysyy yhteensopivana taaksepäin eikä aiheuta rikkovia muutoksia. On erittäin suositeltavaa päivittää muistikirjaapukirjoihin jatkuvan tuen ja uusien ominaisuuksien käytön varmistamiseksi. Mssparkutils-nimitila poistetaan käytöstä tulevaisuudessa.
- NotebookUtils on suunniteltu toimimaan spark 3.4(Runtime v1.2) ja sitä uudemmat versiot. Kaikkia uusia ominaisuuksia ja päivityksiä tuetaan vain niin, että notebookutils-nimitila jatkuu eteenpäin.
Tiedostojärjestelmäapuohjelmat
notebookutils.fs tarjoaa apuohjelmia erilaisissa tiedostojärjestelmissä, kuten Azure Data Lake Storage (ADLS) Gen2 ja Azure Blob Storage. Varmista, että määrität Azure Data Lake Storage Gen2: n ja Azure Blob -säilön käyttöoikeudet asianmukaisesti.
Suorita seuraavat komennot, jotta saat yleiskatsauksen käytettävissä olevista menetelmistä:
notebookutils.fs.help()
Tuloste
notebookutils.fs provides utilities for working with various FileSystems.
Below is overview about the available methods:
cp(from: String, to: String, recurse: Boolean = false): Boolean -> Copies a file or directory, possibly across FileSystems
fastcp(from: String, to: String, recurse: Boolean = true): Boolean -> [Preview] Copies a file or directory via azcopy, possibly across FileSystems
mv(from: String, to: String, createPath: Boolean = false, overwrite: Boolean = false): Boolean -> Moves a file or directory, possibly across FileSystems
ls(dir: String): Array -> Lists the contents of a directory
mkdirs(dir: String): Boolean -> Creates the given directory if it does not exist, also creating any necessary parent directories
put(file: String, contents: String, overwrite: Boolean = false): Boolean -> Writes the given String out to a file, encoded in UTF-8
head(file: String, maxBytes: int = 1024 * 100): String -> Returns up to the first 'maxBytes' bytes of the given file as a String encoded in UTF-8
append(file: String, content: String, createFileIfNotExists: Boolean): Boolean -> Append the content to a file
rm(dir: String, recurse: Boolean = false): Boolean -> Removes a file or directory
exists(file: String): Boolean -> Check if a file or directory exists
mount(source: String, mountPoint: String, extraConfigs: Map[String, Any]): Boolean -> Mounts the given remote storage directory at the given mount point
unmount(mountPoint: String): Boolean -> Deletes a mount point
mounts(): Array[MountPointInfo] -> Show information about what is mounted
getMountPath(mountPoint: String, scope: String = ""): String -> Gets the local path of the mount point
Use notebookutils.fs.help("methodName") for more info about a method.
NotebookUtils toimii tiedostojärjestelmän kanssa samalla tavalla kuin Spark-ohjelmointirajapinnat. Otetaan esimerkiksi notebookutils.fs.mkdirs() ja Fabric lakehouse -käyttö:
Käyttö | Suhteellinen polku HDFS-pääkansiosta | ABFS-tiedostojärjestelmän absoluuttinen polku | Paikallisen tiedostojärjestelmän absoluuttinen polku ohjainsolmussa |
---|---|---|---|
Muu kuin oletus lakehouse | Ei tueta | notebookutils.fs.mkdirs("abfss://< container_name>@<storage_account_name.dfs.core.windows.net/>< new_dir>") | notebookutils.fs.mkdirs("file:/<new_dir>") |
Oletus lakehouse | Hakemisto kohdassa "Tiedostot" tai "Taulukot": notebookutils.fs.mkdirs("Files/<new_dir>") | notebookutils.fs.mkdirs("abfss://< container_name>@<storage_account_name.dfs.core.windows.net/>< new_dir>") | notebookutils.fs.mkdirs("file:/<new_dir>") |
Luettele tiedostot
Voit luetella hakemiston sisällön notebookutils.fs.ls('Hakemistopolkusi'). Esimerkkejä:
notebookutils.fs.ls("Files/tmp") # works with the default lakehouse files using relative path
notebookutils.fs.ls("abfss://<container_name>@<storage_account_name>.dfs.core.windows.net/<path>") # based on ABFS file system
notebookutils.fs.ls("file:/tmp") # based on local file system of driver node
Näytä tiedoston ominaisuudet
Tämä menetelmä palauttaa tiedoston ominaisuudet, kuten tiedoston nimen, tiedostopolun, tiedostokoon ja sen, onko kyseessä hakemisto ja tiedosto.
files = notebookutils.fs.ls('Your directory path')
for file in files:
print(file.name, file.isDir, file.isFile, file.path, file.size)
Luo uusi hakemisto
Tämä menetelmä luo annetun hakemiston, jos sitä ei ole, ja luo tarvittavat päähakemistot.
notebookutils.fs.mkdirs('new directory name')
notebookutils.fs.mkdirs("Files/<new_dir>") # works with the default lakehouse files using relative path
notebookutils.fs.ls("abfss://<container_name>@<storage_account_name>.dfs.core.windows.net/<new_dir>") # based on ABFS file system
notebookutils.fs.ls("file:/<new_dir>") # based on local file system of driver node
Tiedoston kopiointi
Tämä menetelmä kopioi tiedoston tai hakemiston ja tukee kopiointitoimintoja tiedostojärjestelmien välillä.
notebookutils.fs.cp('source file or directory', 'destination file or directory', True)# Set the third parameter as True to copy all files and directories recursively
Suorita kopiotiedosto
Tämä menetelmä tarjoaa tehokkaamman lähestymistavan tiedostojen kopioimiseen tai siirtämiseen etenkin suuria tietomääriä käsiteltäessä. Fabric-suorituskyvyn parantamiseksi on suositeltavaa käyttää fastcp
perinteisen cp
menetelmän korvikkeena.
Muistiinpano
notebookutils.fs.fastcp()
ei tue tiedostojen kopioimista OneLakessa alueiden välillä. Tässä tapauksessa voit käyttää -toimintoa notebookutils.fs.cp()
sen sijaan.
notebookutils.fs.fastcp('source file or directory', 'destination file or directory', True)# Set the third parameter as True to copy all files and directories recursively
Esikatselutiedoston sisältö
Tämä menetelmä palauttaa enintään annetun tiedoston ensimmäiset maxBytes-tavut merkkijonona, joka on KOODattu UTF-8:ssa.
notebookutils.fs.head('file path', maxBytes to read)
Tiedoston siirtäminen
Tämä menetelmä siirtää tiedoston tai hakemiston ja tukee siirtoja tiedostojärjestelmien välillä.
notebookutils.fs.mv('source file or directory', 'destination directory', True) # Set the last parameter as True to firstly create the parent directory if it does not exist
notebookutils.fs.mv('source file or directory', 'destination directory', True, True) # Set the third parameter to True to firstly create the parent directory if it does not exist. Set the last parameter to True to overwrite the updates.
Kirjoita tiedosto
Tämä menetelmä kirjoittaa annetun merkkijonon tiedostoon, joka on UTF-8-koodattu.
notebookutils.fs.put("file path", "content to write", True) # Set the last parameter as True to overwrite the file if it existed already
Sisällön liilisääminen tiedostoon
Tämä menetelmä liittää annetun merkkijonon tiedostoon, joka on UTF-8-koodattu.
notebookutils.fs.append("file path", "content to append", True) # Set the last parameter as True to create the file if it does not exist
Muistiinpano
-
notebookutils.fs.append()
janotebookutils.fs.put()
älä tue samanaikaista kirjoittamista samaan tiedostoon, koska atomiteettitakuita ei ole. - Kun käytät
notebookutils.fs.append
-ohjelmointirajapintaafor
silmukassa kirjoittamaan samaan tiedostoon, suosittelemme lisäämäänsleep
noin 0,5s~1-lausekkeen toistuvien kirjoitusten välille. Tämä johtuu siitä, ettänotebookutils.fs.append
ohjelmointirajapinnan sisäinenflush
toiminto on asynkroninen, joten lyhyt viive auttaa varmistamaan tietojen eheyden.
Poista tiedosto tai hakemisto
Tämä menetelmä poistaa tiedoston tai hakemiston.
notebookutils.fs.rm('file path', True) # Set the last parameter as True to remove all files and directories recursively
Hakemiston kiinnittäminen tai poistaminen käytöstä
Katso lisätietoja yksityiskohtaisesta käytöstä kohdassa Tiedoston käyttöönotto ja määrän poistaminen.
Muistikirja-apuohjelmat
Muistikirja-apuohjelman avulla voit suorittaa muistikirjan tai poistua muistikirjasta, jossa on arvo. Saat yleiskatsauksen käytettävissä olevista menetelmistä suorittamalla seuraavan komennon:
notebookutils.notebook.help()
Tuotos:
The notebook module.
exit(value: String): void -> This method lets you exit a notebook with a value.
run(path: String, timeoutSeconds: int, arguments: Map, workspace: String): String -> This method runs a notebook and returns its exit value.
runMultiple(DAG: Any): Map[String, MsNotebookRunResult] -> [Preview] Runs multiple notebooks concurrently with support for dependency relationships.
validateDAG(DAG: Any): Boolean -> [Preview] This method check if the DAG is correctly defined.
[Preview] Below methods are only support Fabric Notebook.
create(name: String, description: String = "", content: String = "", defaultLakehouse: String = "", defaultLakehouseWorkspace: String = "", workspaceId: String = ""): Artifact -> Create a new Notebook.
get(name: String, workspaceId: String = ""): Artifact -> Get a Notebook by name or id.
update(name: String, newName: String, description: String = "", workspaceId: String = ""): Artifact -> Update a Artifact by name.
delete(name: String, workspaceId: String = ""): Boolean -> Delete a Notebook by name.
list(workspaceId: String = "", maxResults: Int = 1000): Array[Artifact] -> List all Notebooks in the workspace.
updateDefinition(name: String, content: String = "", defaultLakehouse: String = "", defaultLakehouseWorkspace: String = "", workspaceId: String = "") -> Update the definition of a Notebook.
Use notebookutils.notebook.help("methodName") for more info about a method.
Muistiinpano
Muistikirja-apuohjelmat eivät koske Apache Spark -työmääritelmiä (SJD).
Viittaa muistikirjaan
Tämä menetelmä viittaa muistikirjaan ja palauttaa sen poistumisarvon. Voit suorittaa sisäkkäiset funktiokutsut muistikirjassa vuorovaikutteisesti tai jaksossa. Viitattava muistikirja kulkee muistikirjan Spark-altaassa, joka kutsuu tätä funktiota.
notebookutils.notebook.run("notebook name", <timeoutSeconds>, <parameterMap>, <workspaceId>)
Esimerkkejä:
notebookutils.notebook.run("Sample1", 90, {"input": 20 })
Fabric-muistikirja tukee myös viittaavia muistikirjoja useissa työtiloissa määrittämällä työtilan tunnuksen.
notebookutils.notebook.run("Sample1", 90, {"input": 20 }, "fe0a6e2a-a909-4aa3-a698-0a651de790aa")
Voit avata viitesuorituksen tilannevedoslinkin solun tulostessa. Tilannevedos tallentaa koodin suoritustulokset ja mahdollistaa viitesuorituksen virheenkorjauksen helpon virheenkorjauksen.
Muistiinpano
- Työtilojen välistä viitemuistikirjaa tuetaan suorituksenaikaisessa versiossa 1.2 ja sitä uudemmat.
- Jos käytät muistikirjaresurssin alla olevia tiedostoja, käytä sitä
notebookutils.nbResPath
viitatussa muistikirjassa varmistaaksesi, että se osoittaa samaan kansioon kuin vuorovaikutteinen suoritus.
Viiteajo useita muistikirjoja rinnakkain
-menetelmän notebookutils.notebook.runMultiple()
avulla voit suorittaa useita muistikirjoja rinnakkain tai ennalta määritetyn topologisen rakenteen kanssa. Ohjelmointirajapinta käyttää monisäikeistä toteutusmekanismia spark-istunnon sisällä, mikä tarkoittaa, että viitemuistikirja suoritetaan jaa käsittelyresurssit.
:n avulla notebookutils.notebook.runMultiple()
voit:
Suorita useita muistikirjoja samanaikaisesti odottamatta jokaisen päättymistä.
Määritä muistikirjojen riippuvuudet ja suoritusjärjestys käyttämällä yksinkertaista JSON-muotoa.
Optimoi Spark-käsittelyresurssien käyttö ja pienennä Fabric-projektiesi kustannuksia.
Tarkastele kunkin muistikirjan suoritustietueen tilannevedoksia tulosteessa ja korjaa muistikirjatehtäväsi virheenkorjaus/valvonta helposti.
Nouda kunkin johtajatoiminnon exit-arvo ja käytä niitä jatkotehtävissä.
Voit myös yrittää suorittaa notebookutils.notebook.help("runMultiple") löytääksesi esimerkin ja yksityiskohtaisen käytön.
Tässä on yksinkertainen esimerkki muistikirjojen luettelon suorittamisesta rinnakkain tällä menetelmällä:
notebookutils.notebook.runMultiple(["NotebookSimple", "NotebookSimple2"])
Päämuistikirjasta saatu suoritustulos on seuraava:
Seuraavassa on esimerkki käynnissä olevista muistikirjoista, joissa on topologinen rakenne käyttämällä notebookutils.notebook.runMultiple()
. Tämän menetelmän avulla voit helposti järjestää muistikirjat koodikokemuksen kautta.
# run multiple notebooks with parameters
DAG = {
"activities": [
{
"name": "NotebookSimple", # activity name, must be unique
"path": "NotebookSimple", # notebook path
"timeoutPerCellInSeconds": 90, # max timeout for each cell, default to 90 seconds
"args": {"p1": "changed value", "p2": 100}, # notebook parameters
},
{
"name": "NotebookSimple2",
"path": "NotebookSimple2",
"timeoutPerCellInSeconds": 120,
"args": {"p1": "changed value 2", "p2": 200}
},
{
"name": "NotebookSimple2.2",
"path": "NotebookSimple2",
"timeoutPerCellInSeconds": 120,
"args": {"p1": "changed value 3", "p2": 300},
"retry": 1,
"retryIntervalInSeconds": 10,
"dependencies": ["NotebookSimple"] # list of activity names that this activity depends on
}
],
"timeoutInSeconds": 43200, # max timeout for the entire DAG, default to 12 hours
"concurrency": 50 # max number of notebooks to run concurrently, default to 50
}
notebookutils.notebook.runMultiple(DAG, {"displayDAGViaGraphviz": False})
Päämuistikirjasta saatu suoritustulos on seuraava:
Tarjoamme myös menetelmän, jolla tarkistetaan, onko DAG määritetty oikein.
notebookutils.notebook.validateDAG(DAG)
Muistiinpano
- Useiden muistikirjojen suoritusten rinnakkaisuusaste on rajoitettu Spark-istunnon käytettävissä olevaan käsittelyresurssiin.
- Muistikirjatoimintojen tai samanaikaisten muistikirjojen yläraja on 50. Tämän rajan ylittäminen voi johtaa vakauteen ja suorituskykyyn liittyviin ongelmiin resurssien runsaan käytön vuoksi. Jos ongelmia ilmenee, harkitse muistikirjojen erottamista useisiin
runMultiple
puheluihin tai samanaikaisuuden vähentämistä säätämällä DAG-parametrin samanaikaisuuskenttää . - Koko DAG:n oletusaikakatkaisu on 12 tuntia, ja alimuistikirjassa olevan solun oletusaikakatkaisu on 90 sekuntia. Voit muuttaa aikakatkaisua määrittämällä aikakatkaisunInSeconds- ja timeoutPerCellInSeconds-kentät DAG-parametrissa.
Poistu muistikirjasta
Tämä menetelmä sulkee muistikirjasta arvon. Voit suorittaa sisäkkäiset funktiokutsut muistikirjassa vuorovaikutteisesti tai jaksossa.
Kun kutsut muistikirjasta exit() -funktiota vuorovaikutteisesti, Fabric-muistikirja tekee poikkeuksen, ohittaa käynnissä olevien solujen suorittamisen ja pitää Spark-istunnon elossa.
Kun orkestroit muistikirjaa putkessa, joka kutsuu exit() -funktiota, muistikirja-aktiviteetti palaa uloskäyntiarvolla, viimeistelee putken suorittamisen ja pysäyttää Spark-istunnon.
Kun kutsut muistikirjassa olevaa exit() -funktiota, Fabric Spark lopettaa viitatun muistikirjan suorittamisen edelleen ja jatkaa seuraavien solujen suorittamista päämuistikirjassa, joka kutsuu run() -funktiota. Esimerkki: Notebook1:ssä on kolme solua ja toisessa solussa kutsutaan exit() -funktiota. Notebook2:ssa on viisi solua ja kutsuu run(notebook1:tä) kolmannessa solussa. Kun suoritat Notebook2-komennon, Notebook1 pysähtyy toiseen soluun osuessaan exit() -funktioon. Notebook2 jatkaa neljännen solunsa ja viidennen solunsa pyörimistä.
notebookutils.notebook.exit("value string")
Muistiinpano
Exit()-funktio korvaa nykyisen solutulosteen, jotta muiden koodilausekkeiden tulosta ei menetetä, kutsu notebookutils.notebook.exit()
erilliseen soluun.
Esimerkkejä:
Sample1-muistikirja , jossa on seuraavat kaksi solua:
Cell 1 määrittää syöteparametrin, jonka oletusarvoksi on asetettu 10.
Cell 2 poistuu muistikirjasta käyttäen syötettä poistumisarvona.
Voit suorittaa Sample1-mallin toisessa muistikirjassa käyttäen oletusarvoja:
exitVal = notebookutils.notebook.run("Sample1")
print (exitVal)
Tuotos:
Notebook is executed successfully with exit value 10
Voit suorittaa Sample1-näytteen toisessa muistikirjassa ja määrittää syötearvoksi 20:
exitVal = notebookutils.notebook.run("Sample1", 90, {"input": 20 })
print (exitVal)
Tuotos:
Notebook is executed successfully with exit value 20
Hallitse muistikirjan artefakteja
notebookutils.notebook
tarjoaa erityisapuohjelmia muistikirjakohteiden ohjelmallisesti hallintaan. Näiden ohjelmointirajapintojen avulla voit helposti luoda, hankkia, päivittää ja poistaa muistikirjakohteita.
Jos haluat hyödyntää näitä menetelmiä tehokkaasti, katso seuraavia käyttöesimerkkejä:
Muistikirjan luominen
with open("/path/to/notebook.ipynb", "r") as f:
content = f.read()
artifact = notebookutils.notebook.create("artifact_name", "description", "content", "default_lakehouse_name", "default_lakehouse_workspace_id", "optional_workspace_id")
Muistikirjan sisällön hakeminen
artifact = notebookutils.notebook.get("artifact_name", "optional_workspace_id")
Muistikirjan päivittäminen
updated_artifact = notebookutils.notebook.update("old_name", "new_name", "optional_description", "optional_workspace_id")
updated_artifact_definition = notebookutils.notebook.updateDefinition("artifact_name", "content", "default_lakehouse_name", "default_Lakehouse_Workspace_name", "optional_workspace_id")
Muistikirjan poistaminen
is_deleted = notebookutils.notebook.delete("artifact_name", "optional_workspace_id")
Luetteloi muistikirjat työtilassa
artifacts_list = notebookutils.notebook.list("optional_workspace_id")
Tunnistetiedot-apuohjelmat
Voit käyttää tunnistetietoja apuohjelmia käyttöoikeustietueiden hankkimiseen ja salaisten koodien hallintaan Azure Key Vaultissa.
Saat yleiskatsauksen käytettävissä olevista menetelmistä suorittamalla seuraavan komennon:
notebookutils.credentials.help()
Tuotos:
Help on module notebookutils.credentials in notebookutils:
NAME
notebookutils.credentials - Utility for credentials operations in Fabric
FUNCTIONS
getSecret(akvName, secret) -> str
Gets a secret from the given Azure Key Vault.
:param akvName: The name of the Azure Key Vault.
:param secret: The name of the secret.
:return: The secret value.
getToken(audience) -> str
Gets a token for the given audience.
:param audience: The audience for the token.
:return: The token.
help(method_name=None)
Provides help for the notebookutils.credentials module or the specified method.
Examples:
notebookutils.credentials.help()
notebookutils.credentials.help("getToken")
:param method_name: The name of the method to get help with.
DATA
creds = <notebookutils.notebookutils.handlers.CredsHandler.CredsHandler...
FILE
/home/trusted-service-user/cluster-env/trident_env/lib/python3.10/site-packages/notebookutils/credentials.py
Hanki tunnus
getToken palauttaa Microsoft Entra -tunnuksen annetulle kohderyhmälle ja nimelle (valinnainen). Seuraavassa luettelossa näytetään käytettävissä olevat yleisöavaimet:
- Tallennusryhmän resurssi: "tallennustila"
- Power BI -resurssi: "pbi"
- Azure Key Vault -resurssi: "keyvault"
- Synapse RTA KQL DB Resource: "kusto"
Saat tunnuksen suorittamalla seuraavan komennon:
notebookutils.credentials.getToken('audience Key')
Salaisen koodin hankkiminen käyttäjän tunnistetiedoilla
getSecret palauttaa Azure Key Vaultin salaisen koodin annetulle Azure Key Vaultin päätepisteelle ja salaiselle nimelle käyttäjän tunnistetietojen avulla.
notebookutils.credentials.getSecret('https://<name>.vault.azure.net/', 'secret name')
Tiedostokiinnitys ja -mittarin irrottaminen
Fabric tukee seuraavia Microsoft Spark Utilities -paketin käyttöönottoskenaarioita. Voit käyttää käyttöönotto-, määrä-, getMountPath()- ja mounts()-ohjelmointirajapintoja etätallennustilan (ADLS Gen2) liittämiseen kaikkiin toimiviin solmuihin (ohjainsolmu ja työntekijäsolmut). Kun tallennustilan käyttöönottopiste on paikallaan, käytä paikallista tiedoston ohjelmointirajapintaa tietojen käyttämiseen ikään kuin ne olisi tallennettu paikalliseen tiedostojärjestelmään.
ADLS Gen2 -tilin lisääminen käyttöön
Seuraavassa esimerkissä havainnollistetaan, miten Azure Data Lake Storage Gen2 voidaan ottaa käyttöön. Kasvava Blob-säilö toimii samalla tavalla.
Tässä esimerkissä oletetaan, että sinulla on yksi Data Lake Storage Gen2 -tili nimeltä Storegen2, ja tilillä on yksi säilö nimeltä mycontainer , jonka haluat ottaa käyttöön /testata muistikirjasi Spark-istunnossa.
Jotta mycontainer-niminen säilö voidaan ottaa käyttöön, muistikirjojen apuohjelmien on ensin tarkistettava, onko sinulla oikeus käyttää säilöä. Tällä hetkellä Fabric tukee kahta todennusmenetelmää käynnistimen käyttöönottotoiminnolle: accountKey ja sastoken.
Käyttöönotto jaetun käytön allekirjoitustunnuksen tai tiliavaimen avulla
NotebookUtils tukee nimenomaisesti tilin avaimen tai SAS-tunnuksen välittämistä parametrina kohteen ottamiseksi käyttöön.
Suojaussyistä suosittelemme, että tallennat tiliavaimet tai SAS-tunnukset Azure Key Vaultiin (kuten seuraavassa näyttökuvassa näkyy). Voit sitten noutaa ne käyttämällä notebookutils.credentials.getSecret-ohjelmointirajapintaa . Lisätietoja Azure Key Vaultista on artikkelissa Tietoja Azure Key Vaultin hallitun tallennustilin avaimista.
AccountKey-menetelmän mallikoodi:
# get access token for keyvault resource
# you can also use full audience here like https://vault.azure.net
accountKey = notebookutils.credentials.getSecret("<vaultURI>", "<secretName>")
notebookutils.fs.mount(
"abfss://mycontainer@<accountname>.dfs.core.windows.net",
"/test",
{"accountKey":accountKey}
)
Sastoken-mallikoodi:
# get access token for keyvault resource
# you can also use full audience here like https://vault.azure.net
sasToken = notebookutils.credentials.getSecret("<vaultURI>", "<secretName>")
notebookutils.fs.mount(
"abfss://mycontainer@<accountname>.dfs.core.windows.net",
"/test",
{"sasToken":sasToken}
)
Parametrien käyttöönotto:
- fileCacheTimeout: Blob-objektit tallennetaan oletusarvoisesti paikallisen tilapäiskansion välimuistiin 120 sekunnin ajaksi. Tänä aikana blobfuse ei tarkista, onko tiedosto ajan tasalla. Parametri voidaan määrittää muuttamaan oletusarvoista aikakatkaisuaikaa. Kun useat asiakasohjelmat muokkaavat tiedostoja samanaikaisesti, paikallisten ja etätiedostojen välisten epäjohdonmukaisuuksien välttämiseksi suosittelemme, että lyhennät välimuistin aikaa tai jopa muutat sen arvoon 0 ja haet aina uusimmat tiedostot palvelimelta.
- timeout: Käyttöönoton aikakatkaisu on oletusarvoisesti 120 sekuntia. Parametri voidaan määrittää muuttamaan oletusarvoista aikakatkaisuaikaa. Jos suoritettavia tiedostoja on liikaa tai kun ne otetaan käyttöön aikakatkaistaan, on suositeltavaa suurentaa arvoa.
Voit käyttää näitä parametreja seuraavasti:
notebookutils.fs.mount(
"abfss://mycontainer@<accountname>.dfs.core.windows.net",
"/test",
{"fileCacheTimeout": 120, "timeout": 120}
)
Muistiinpano
Suojaussyistä on suositeltavaa välttää tunnistetietojen upottamista suoraan koodiin. Jotta tunnistetietojasi voidaan suojata edelleen, muistikirjojen tulosteissa näytettävät salaisuudet poistetaan. Lisätietoja on kohdassa Salaisen koodin uudelleenohjaus.
Kuinka ottaa lakehouse käyttöön
Näytekoodi Lakehousen luomiseksi /<mount_name>:
notebookutils.fs.mount(
"abfss://<workspace_name>@onelake.dfs.fabric.microsoft.com/<lakehouse_name>.Lakehouse",
"/<mount_name>"
)
Käyttötiedostot kiinnikekohdan alla käyttämällä muistikirjojen apuohjelmien fs-ohjelmointirajapintaa
Käyttöönottotoiminnon päätarkoitus on antaa asiakkaiden käyttää etätallennustilille tallennettuja tietoja paikallisen tiedostojärjestelmän ohjelmointirajapinnalla. Voit myös käyttää tietoja käyttämällä notebookutils fs -ohjelmointirajapintaa, jonka parametrina on asennettu polku. Tämä polkumuoto on hieman erilainen.
Oletetaan, että kiinnitit Data Lake Storage Gen2 -säilön mycontainer kohteeseen /test käyttämällä liitosten ohjelmointirajapintaa. Kun käytät paikallisen tiedostojärjestelmän ohjelmointirajapinnan tietoja, polkumuoto on seuraavanlainen:
/synfs/notebook/{sessionId}/test/{filename}
Kun haluat käyttää tietoja käyttämällä notebookutils fs -ohjelmointirajapintaa, suosittelemme, että käytät getMountPath() -menetelmää, jotta saat tarkan polun:
path = notebookutils.fs.getMountPath("/test")
Luettelohakemistot:
notebookutils.fs.ls(f"file://{notebookutils.fs.getMountPath('/test')}")
Lue tiedoston sisältöä:
notebookutils.fs.head(f"file://{notebookutils.fs.getMountPath('/test')}/myFile.txt")
Luo hakemisto:
notebookutils.fs.mkdirs(f"file://{notebookutils.fs.getMountPath('/test')}/newdir")
Käyttötiedostot käyttöönottopisteen alla paikallisen polun kautta
Voit helposti lukea ja kirjoittaa tiedostot käyttöönottopisteessä käyttämällä vakiotiedostojärjestelmää. Tässä on esimerkki Pythonista:
#File read
with open(notebookutils.fs.getMountPath('/test2') + "/myFile.txt", "r") as f:
print(f.read())
#File write
with open(notebookutils.fs.getMountPath('/test2') + "/myFile.txt", "w") as f:
print(f.write("dummy data"))
Aiemmin luotujen käyttöönottopisteiden tarkistaminen
Voit käyttää notebookutils.fs.mounts() -ohjelmointirajapintaa kaikkien olemassa olevien kiinnityspisteen tietojen tarkistamiseen:
notebookutils.fs.mounts()
Miten voit poistaa kiinnikkeen vuoren yltä
Voit seuraavan koodin avulla poistaa kiinnityspisteen vuoren vuoren yltä (/testata tässä esimerkissä):
notebookutils.fs.unmount("/test")
Tunnetut rajoitukset
Nykyinen käyttöönotto on työtason määritys. Suosittelemme, että käytät käyttöönottojen ohjelmointirajapintaa tarkistamaan, onko kiinnityspistettä olemassa vai ei.
Poista summa -mekanismia ei käytetä automaattisesti. Kun sovelluksen suorittaminen on valmis, jotta voit poistaa kiinnityskohdan ja vapauttaa levytilan, sinun on eksplisiittisesti kutsuttava koodin määrittämätöntä ohjelmointirajapintaa. Muussa tapauksessa käyttöönottopiste on solmussa sen jälkeen, kun sovelluksen suorittaminen on valmis.
ADLS Gen1 -tallennustilin asentamista ei tueta.
Lakehouse-apuohjelmat
notebookutils.lakehouse
tarjoaa Lakehouse-tuotteiden hallintaan räätälöityjä apuohjelmia. Näillä apuohjelmilla voit luoda, hankkia, päivittää ja poistaa Lakehouse-artefakteja vaivattomasti.
Menetelmien yleiskatsaus
Alla on yleiskatsaus käytettävissä olevista menetelmistä, jotka on notebookutils.lakehouse
antanut :
# Create a new Lakehouse artifact
create(name: String, description: String = "", definition: ItemDefinition = null, workspaceId: String = ""): Artifact
# Retrieve a Lakehouse artifact
get(name: String, workspaceId: String = ""): Artifact
# Get a Lakehouse artifact with properties
getWithProperties(name: String, workspaceId: String = ""): Artifact
# Update an existing Lakehouse artifact
update(name: String, newName: String, description: String = "", workspaceId: String = ""): Artifact
# Delete a Lakehouse artifact
delete(name: String, workspaceId: String = ""): Boolean
# List all Lakehouse artifacts
list(workspaceId: String = "", maxResults: Int = 1000): Array[Artifact]
# List all tables in a Lakehouse artifact
listTables(lakehouse: String, workspaceId: String = "", maxResults: Int = 1000): Array[Table]
# Starts a load table operation in a Lakehouse artifact
loadTable(loadOption: collection.Map[String, Any], table: String, lakehouse: String, workspaceId: String = ""): Array[Table]
Käyttöesimerkkejä
Jos haluat hyödyntää näitä menetelmiä tehokkaasti, katso seuraavia käyttöesimerkkejä:
Lakehousen luominen
artifact = notebookutils.lakehouse.create("artifact_name", "Description of the artifact", "optional_workspace_id")
Lakehousen hakeminen
artifact = notebookutils.lakehouse.get("artifact_name", "optional_workspace_id")
artifact = notebookutils.lakehouse.getWithProperties("artifact_name", "optional_workspace_id")
Lakehousen päivittäminen
updated_artifact = notebookutils.lakehouse.update("old_name", "new_name", "Updated description", "optional_workspace_id")
Lakehousen poistaminen
is_deleted = notebookutils.lakehouse.delete("artifact_name", "optional_workspace_id")
Lakehouse-talojen listaaminen työtilassa
artifacts_list = notebookutils.lakehouse.list("optional_workspace_id")
Kaikkien Lakehouse-taulukoiden luettelo
artifacts_tables_list = notebookutils.lakehouse.listTables("artifact_name", "optional_workspace_id")
Lataustaulukkotoiminnon aloittaminen Lakehousessa
notebookutils.lakehouse.loadTable(
{
"relativePath": "Files/myFile.csv",
"pathType": "File",
"mode": "Overwrite",
"recursive": False,
"formatOptions": {
"format": "Csv",
"header": True,
"delimiter": ","
}
}, "table_name", "artifact_name", "optional_workspace_id")
Lisätietoja
Saat tarkempia tietoja kustakin menetelmästä ja sen parametreista käyttämällä -funktiota notebookutils.lakehouse.help("methodName")
.
Suorituksenaikaiset apuohjelmat
Näytä istunnon kontekstitiedot
Voit notebookutils.runtime.context
näin hakea nykyisen live-istunnon kontekstitiedot, kuten muistikirjan nimen, oletusjärvitalon, työtilan tiedot, jos kyseessä on jakson suorittaminen jne.
notebookutils.runtime.context
Istunnon hallinta
Vuorovaikutteisen istunnon lopettaminen
Sen sijaan, että napsautat lopeta-painiketta manuaalisesti, on joskus kätevämpää pysäyttää vuorovaikutteinen istunto kutsumalla koodin ohjelmointirajapintaa. Tällaisissa tapauksissa tarjoamme ohjelmointirajapinnan notebookutils.session.stop()
, joka tukee vuorovaikutteisen istunnon pysäyttämistä koodilla. Se on saatavilla Scalalle ja PySparkille.
notebookutils.session.stop()
notebookutils.session.stop()
ohjelmointirajapinta pysäyttää nykyisen vuorovaikutteisen istunnon asynkronisesti taustalla, se pysäyttää Spark-istunnon ja vapauttaa istunnon käyttämät resurssit, jotta ne ovat muiden samassa varannossa olevien istuntojen käytettävissä.
Käynnistä Python-tulkki uudelleen
notebookutils.session-apuohjelma mahdollistaa Python-tulkin uudelleenkäynnistämisen.
notebookutils.session.restartPython()
Muistiinpano
- Muistikirjaviittauksen suoritustapauksessa
restartPython()
käynnistää uudelleen vain viitatun nykyisen muistikirjan Python-tulkin. - Joissakin harvoissa tapauksissa komento voi epäonnistua Spark-heijastusmekanismin vuoksi, mutta uudelleenyritysten lisääminen voi lieventää ongelmaa.
Tunnetut ongelmat
Kun käytät suorituspalveluversiota yli 1.2 ja suorita
notebookutils.help()
, listattua fabricClient, PBIClient-ohjelmointirajapintoja ei tueta toistaiseksi, ja ne ovat saatavilla myös uudemmin. Lisäksi Skalaa-muistikirjoissa ei tueta tunnistetietojen ohjelmointirajapintaa toistaiseksi.Python-muistikirja ei tue stop, restartPython-ohjelmointirajapintoja käytettäessä notebookutils.session-apuohjelmaa istunnon hallintaan.