Del via


Overfør Spark-bassenger fra Azure Synapse Analytics til Fabric

Mens Azure Synapse tilbyr Spark-bassenger, tilbyr Fabric Starter-bassenger og egendefinerte bassenger. Startutvalget kan være et godt valg hvis du har ett enkelt utvalg uten egendefinerte konfigurasjoner eller biblioteker i Azure Synapse, og hvis middels nodestørrelse oppfyller kravene dine. Hvis du imidlertid søker mer fleksibilitet med Konfigurasjonene for Spark-utvalget, anbefaler vi imidlertid å bruke egendefinerte utvalg. Det finnes to alternativer her:

  • Alternativ 1: Flytt Spark-utvalget til standardutvalget for et arbeidsområde.
  • Alternativ 2: Flytt Spark-bassenget til et egendefinert miljø i Fabric.

Hvis du har mer enn ett Spark-basseng og planlegger å flytte dem til samme Fabric-arbeidsområde, anbefaler vi at du bruker alternativ 2, og oppretter flere egendefinerte miljøer og bassenger.

Se forskjeller mellom Azure Synapse Spark og Fabric for hensyn til Spark-utvalget.

Forutsetning

Hvis du ikke allerede har en, oppretter du et Fabric-arbeidsområde i leieren.

Alternativ 1: Fra Spark-utvalget til arbeidsområdets standardutvalg

Du kan opprette et egendefinert Spark-utvalg fra Fabric-arbeidsområdet og bruke det som standardutvalg i arbeidsområdet. Standardutvalget brukes av alle notatblokker og Spark-jobbdefinisjoner i samme arbeidsområde.

Slik flytter du fra et eksisterende Spark-utvalg fra Azure Synapse til et standardutvalg for arbeidsområdet:

  1. Access Azure Synapse-arbeidsområde: Logg på Azure. Gå til Azure Synapse-arbeidsområdet, gå til Analyseutvalg og velg Apache Spark-bassenger.
  2. Finn Spark-bassenget: Finn Spark-bassenget du vil flytte til Fabric, fra Apache Spark-bassenger, og kontroller utvalgets egenskaper.
  3. Hent egenskaper: Få egenskaper for Spark-utvalget, for eksempel Apache Spark-versjon, nodestørrelse, nodestørrelse eller autoskala. Se hensyn til Spark-utvalget for å se eventuelle forskjeller.
  4. Opprett et egendefinert Spark-basseng i Fabric:
    • Gå til fabric-arbeidsområdet, og velg innstillinger for arbeidsområde.
    • Gå til Dataingeniør ing/Vitenskap, og velg Spark-innstillinger.
    • Utvid rullegardinmenyen på Fanen Utvalg og Standardutvalg for arbeidsområde, og velg Opprett nytt utvalg.
    • Opprett det egendefinerte utvalget med tilsvarende målverdier. Fyll ut alternativene for navn, nodefamilie, nodestørrelse, autoskalering og dynamisk fordeling av eksekutor.
  5. Velg en kjøretidsversjon:
    • Gå til Miljø-fanen , og velg den nødvendige Runtime-versjonen. Se tilgjengelige kjøretider her.
    • Deaktiver alternativet Angi standardmiljø.

Skjermbilde som viser standardutvalg.

Merk

I dette alternativet støttes ikke biblioteker eller konfigurasjoner på utvalgsnivå. Du kan imidlertid justere beregningskonfigurasjonen for individuelle elementer, for eksempel notatblokker og Spark-jobbdefinisjoner, og legge til innebygde biblioteker. Hvis du trenger å legge til egendefinerte biblioteker og konfigurasjoner i et miljø, bør du vurdere et egendefinert miljø.

Alternativ 2: Fra Spark-utvalg til egendefinert miljø

Med egendefinerte miljøer kan du konfigurere egendefinerte Spark-egenskaper og -biblioteker. Slik oppretter du et egendefinert miljø:

  1. Access Azure Synapse-arbeidsområde: Logg på Azure. Gå til Azure Synapse-arbeidsområdet, gå til Analyseutvalg og velg Apache Spark-bassenger.
  2. Finn Spark-bassenget: Finn Spark-bassenget du vil flytte til Fabric, fra Apache Spark-bassenger, og kontroller utvalgets egenskaper.
  3. Hent egenskaper: Få egenskaper for Spark-utvalget, for eksempel Apache Spark-versjon, nodestørrelse, nodestørrelse eller autoskala. Se hensyn til Spark-utvalget for å se eventuelle forskjeller.
  4. Opprette et egendefinert Spark-utvalg:
    • Gå til fabric-arbeidsområdet, og velg innstillinger for arbeidsområde.
    • Gå til Dataingeniør ing/Vitenskap, og velg Spark-innstillinger.
    • Utvid rullegardinmenyen på Fanen Utvalg og Standardutvalg for arbeidsområde, og velg Opprett nytt utvalg.
    • Opprett det egendefinerte utvalget med tilsvarende målverdier. Fyll ut alternativene for navn, nodefamilie, nodestørrelse, autoskalering og dynamisk fordeling av eksekutor.
  5. Opprett et miljøelement hvis du ikke har et.
  6. Konfigurer Spark-databehandling:
    • Gå til Spark Compute Compute> i miljøet.
    • Velg det nyopprettede utvalget for det nye miljøet.
    • Du kan konfigurere kjerner og minne for driver- og eksekutorer.
  7. Velg en kjøretidsversjon for miljøet. Se tilgjengelige kjøretider her.
  8. Klikk på Lagre og publiser endringer.

Mer informasjon på å opprette og bruke en Miljø.

Skjermbilde som viser egendefinert miljø.