Del via


AI-tjenester i Fabric (forhåndsversjon)

Viktig

Denne funksjonen er i forhåndsvisning.

Azure AI-tjenester hjelpe utviklere og organisasjoner med å raskt opprette intelligente, banebrytende, markedsklare og ansvarlige programmer med forhåndsbygde og tilpassbare API-er og modeller. Tidligere kalt Azure Cognitive Services, gir Azure AI-tjenester utviklere mulighet selv når de ikke har direkte ferdigheter eller kunnskaper innen kunstig intelligens eller datavitenskap. Målet med Azure AI-tjenester er å hjelpe utviklere med å opprette programmer som kan se, høre, snakke, forstå og til og med begynne å resonnere.

Fabric tilbyr to alternativer for å bruke Azure AI-tjenester:

  • forhåndsbygde AI-modeller i Fabric (forhåndsversjon)

    Fabric integreres sømløst med Azure AI-tjenester, slik at du kan berike dataene dine med forhåndsbygde AI-modeller uten nødvendige forutsetninger. Vi anbefaler dette alternativet fordi du kan bruke Fabric-godkjenningen til å få tilgang til AI-tjenester, og alle bruksområder faktureres mot stoffkapasiteten. Dette alternativet er for øyeblikket i offentlig forhåndsvisning, med begrensede AI-tjenester tilgjengelig.

    Fabric tilbyr Azure OpenAI Service, Text Analyticsog Azure AI Translator som standard, med støtte for både SynapseML og RESTful API. Du kan også bruke OpenAI Python-biblioteket til å få tilgang til Azure OpenAI-tjenesten i Fabric. Hvis du vil ha mer informasjon om tilgjengelige modeller, kan du gå til forhåndsbygde AI-modeller i Fabric.

  • Ta med din egen nøkkel (BYOK)

    Du kan klargjøre AI-tjenestene dine på Azure og ta med din egen nøkkel for å bruke dem fra Fabric. Hvis de forhåndsbygde AI-modellene ennå ikke støtter de ønskede AI-tjenestene, kan du fortsatt bruke BYOK (Ta med din egen nøkkel).

    Hvis du vil lære mer om hvordan du bruker Azure AI-tjenester med BYOK, kan du gå til Azure AI-tjenester i SynapseML med din egen nøkkel.

Forhåndsbygde AI-modeller i Fabric (forhåndsversjon)

Merk

Forhåndsbygde AI-modeller er for øyeblikket tilgjengelige i forhåndsversjon og tilbys gratis, med en grense på antall samtidige forespørsler per bruker. For Åpne AI-modeller er grensen 20 forespørsler per minutt per bruker.

Azure OpenAI-tjeneste

REST API, Python SDK. SynapseML

  • GPT-35-turbo: GPT-3.5 modeller kan forstå og generere naturlig språk eller kode. Den mest dyktige og kostnadseffektive modellen i GPT-3.5-familien er GPT-3. Alternativet 5 Turbo, som er optimalisert for chat, fungerer også bra for tradisjonelle fullføringsoppgaver. Modellen gpt-35-turbo-0125 støtter opptil 16 385 inndatatokener og 4096 utdatatokener.
  • gpt-4-familie: gpt-4-32k støttes.
  • text-embedding-ada-002 (versjon 2), innebyggingsmodell som kan brukes med innebygging av API-forespørsler. Det maksimale godtatte forespørselstokenet er 8 191, og den returnerte vektoren har dimensjoner på 1536.

tekstanalyse

REST-API, SynapseML

  • Språkgjenkjenning: oppdager språk for inndatateksten
  • Sentimentanalyse: returnerer en poengsum mellom 0 og 1 for å angi sentimentet i inndatateksten
  • Uttrekking av nøkkeluttrykk: identifiserer de viktigste snakkepunktene i inndatateksten
  • Personlig identifiserbar informasjon(PII)-enhetsgjenkjenning: identifisere, kategorisere og redigere sensitiv informasjon i inndatateksten
  • Navngitt enhetsgjenkjenning: identifiserer kjente enheter og generelle navngitte enheter i inndatateksten
  • Enhetskobling: identifiserer og skiller identiteten til enheter som finnes i tekst

Azure AI Translator

REST-API, SynapseML

  • Oversett: Oversetter tekst
  • Translitterer: Konverterer tekst på ett språk, i ett skript, til et annet skript.

Tilgjengelige områder

Tilgjengelige områder for Azure OpenAI-tjenesten

Hvis du vil se listen over Azure-områder der forhåndsbygde AI-tjenester i Fabric nå er tilgjengelige, kan du gå til delen Tilgjengelige områder i Oversikt over Copilot i Fabric og Power BI (forhåndsversjon) artikkelen.

Tilgjengelige områder for tekstanalyse og Azure AI Translator

Forhåndsbygd tekstanalyse og Azure AI Translator- i Fabric, er nå tilgjengelig for offentlig forhåndsvisning i Azure-områdene som er oppført i denne artikkelen. Hvis du ikke finner Microsoft Fabric-hjemområdet i denne artikkelen, kan du fortsatt opprette en Microsoft Fabric-kapasitet i et støttet område. Hvis du vil ha mer informasjon, kan du gå til Kjøpe et Microsoft Fabric-abonnement. Hvis du vil finne hjemområdet fabric, kan du gå til Finn hjemområdet fabric.

Asia/Stillehavskysten Europa Nord- og Sør-Amerika Midtøsten/Afrika
Australia, øst Europa, nord Brasil, sør Sør-Afrika, nord
Australia, sørøst Europa, vest Canada, sentralt De forente arabiske emirater, nord
Sentralindisk Frankrike, sentralt Canada, øst
Asia øst Øst-Norge USA, øst
Japan, øst Sveits, nord USA, øst 2
Sentral-Korea Sveits, vest USA, nord-sentralt
Asia, sørøst Storbritannia, sør USA, sør-sentralt
India, sør Storbritannia, vest USA vest
USA, vest 2
USA, vest 3

Forbrukssats

Merk

Faktureringen for forhåndsbygde AI-tjenester i Fabric ble effektiv 1. november 2024, som en del av den eksisterende Power BI Premium- eller Fabric-kapasiteten.

En forespørsel om forhåndsbygde AI-tjenester bruker enheter for stoffkapasitet. Denne tabellen definerer hvor mange kapasitetsenheter (CU) som brukes når en AI-tjeneste brukes.

Forbruksfrekvens for OpenAI-språkmodeller

modeller kontekst inndata (per 1000 tokener) utdata (per 1000 tokener)
GPT-4o-2024-08-06 Global distribusjon 128 K 84,03 CU sekunder 336,13 CU sekunder
GPT-4 32 K 2 016,81 CU sekunder 4 033,61 CU sekunder
GPT-3.5-Turbo-0125 16 K 16,81 CU sekunder 50,42 CU sekunder

Forbruksrate for OpenAI-innebyggingsmodeller

modeller operasjonsenhet forbrukssats
text-embedding-ada-002 1000 tokener 3,36 CU sekunder

Forbruksrate for tekstanalyse

operasjon operasjonsenhet forbrukssats
Språkidentifisering 1000 tekstposter 33 613,45 CU sekunder
Sentimentanalyse 1000 tekstposter 33 613,45 CU sekunder
Uttrekking av nøkkeluttrykk 1000 tekstposter 33 613,45 CU sekunder
Personlig identifisering av enhetsgjenkjenning av informasjon 1000 tekstposter 33 613,45 CU sekunder
Navngitt enhetsgjenkjenning 1000 tekstposter 33 613,45 CU sekunder
Enhetskobling 1000 tekstposter 33 613,45 CU sekunder
Oppsummering 1000 tekstposter 67 226,89 CU sekunder

Forbrukssats for tekstoversetter

operasjon operasjonsenhet forbrukssats
Oversette 1 M tegn 336 134,45 CU sekunder
Translitterer 1 M tegn 336 134,45 CU sekunder

Endringer i AI-tjenester i stoffforbruk

Forbrukssatser kan endres når som helst. Microsoft bruker rimelig innsats for å varsle via e-post eller via varsling i produktet. Endringene trer i kraft på datoen som er angitt i Microsoft-produktmerknadene eller Microsoft Fabric-bloggen. Hvis endringer i en AI-tjeneste i stoffforbruksfrekvens øker kapasitetsenhetene (CU) som kreves for å bruke, kan kunder bruke avbestillingsalternativene som er tilgjengelige for den valgte betalingsmåten.

Overvåk bruken

Arbeidsbelastningsmåleren som er knyttet til oppgaven, bestemmer kostnadene for forhåndsbygde AI-tjenester i Fabric. Hvis bruk av AI-tjenesten for eksempel er avledet fra en Spark-arbeidsbelastning, grupperes AI-bruken sammen og faktureres under Spark-faktureringsmåleren på App for måledata for stoffkapasitet.

Eksempel

En nettbutikkeier bruker SynapseML og Spark til å kategorisere millioner av produkter i relevante kategorier. For øyeblikket bruker butikkeieren hardkodet logikk for å rengjøre og tilordne rå "produkttype" til kategorier. Eieren planlegger imidlertid å bytte til bruk av de nye opprinnelige Fabric OpenAI LLM -endepunktene (Stor språkmodell). Dette iterativt behandler dataene mot en LLM for hver rad, og kategoriserer deretter produktene basert på deres "produktnavn", "beskrivelse", "tekniske detaljer" og så videre.

Den forventede kostnaden for Spark-bruk er 1000 CUer. Den forventede kostnaden for OpenAI-bruk er ca. 300 CUer.

Hvis du vil teste den nye logikken, må du først iterere den i en interaktiv Spark-notatblokk. Bruk Notatblokk interaktiv kjøring for operasjonsnavnet for kjøringen. Eieren forventer å se en all-up bruk av 1300 CUer under "Notebook Interactive Run", med Spark faktureringsmåler som står for hele bruken.

Når butikkeieren validerer logikken, konfigurerer eieren den vanlige kjøringen og forventer å se en all-up-bruk av 1300 CUer under operasjonsnavnet "Spark Job Scheduled Run", med Spark-faktureringsmåleren som står for hele bruken.