Delen via


AI-services in Fabric (preview)

Belangrijk

Deze functie is beschikbaar als preview-versie.

Azure AI-services ontwikkelaars en organisaties helpen snel intelligente, geavanceerde, marktklare en verantwoordelijke toepassingen te maken met vooraf gebouwde en aanpasbare API's en modellen. Voorheen bekend als Azure Cognitive Services, stellen Azure AI-services ontwikkelaars in staat, zelfs als ze geen directe AI- of gegevenswetenschapsvaardigheden of kennis hebben. Het doel van Azure AI-services is ontwikkelaars te helpen bij het maken van toepassingen die kunnen zien, horen, spreken, begrijpen en zelfs beginnen met redeneren.

Fabric biedt twee opties voor het gebruik van Azure AI-services:

  • vooraf gebouwde AI-modellen in Fabric (preview)

    Fabric kan naadloos worden geïntegreerd met Azure AI-services, zodat u uw gegevens kunt verrijken met vooraf samengestelde AI-modellen zonder dat hiervoor een vereiste is. We raden deze optie aan omdat u uw Fabric-verificatie kunt gebruiken voor toegang tot AI-services en alle gebruiksgegevens worden gefactureerd voor uw Fabric-capaciteit. Deze optie is momenteel beschikbaar als openbare preview, met beperkte AI-services.

    Fabric biedt standaard Azure OpenAI Service, Text Analytics-en Azure AI Translator-, met ondersteuning voor zowel SynapseML als de RESTful-API. U kunt ook de OpenAI Python-bibliotheek gebruiken om toegang te krijgen tot de Azure OpenAI-service in Fabric. Ga naar vooraf samengestelde AI-modellen in Fabricvoor meer informatie over beschikbare modellen.

  • Neem je eigen sleutel mee (BYOK)

    U kunt uw AI-services inrichten in Azure en uw eigen sleutel gebruiken om deze te gebruiken vanuit Fabric. Als de vooraf samengestelde AI-modellen nog geen ondersteuning bieden voor de gewenste AI-services, kunt u NOG steeds BYOK (Bring Your Own Key) gebruiken.

    Ga naar Azure AI-services in SynapseML met Bring Your Own Key voor meer informatie over het gebruik van Azure AI-services met BYOK.

Vooraf gemaakte AI-modellen in Fabric (preview)

Notitie

Vooraf samengestelde AI-modellen zijn momenteel beschikbaar in preview en worden gratis aangeboden, met een limiet voor het aantal gelijktijdige aanvragen per gebruiker. Voor Open AI-modellen is de limiet 20 aanvragen per minuut per gebruiker.

Azure OpenAI-service

REST API, Python SDK. SynapseML

  • GPT-35-turbo: GPT-3.5-modellen kunnen natuurlijke taal of code begrijpen en genereren. Het meest geschikte en rendabele model in de GPT-3.5-familie is GPT-3. De 5 Turbo optie, die is geoptimaliseerd voor chatten, werkt ook goed voor traditionele voltooiingstaken. Het gpt-35-turbo-0125 model ondersteunt maximaal 16.385 invoertokens en 4.096 uitvoertokens.
  • gpt-4 family: gpt-4-32k wordt ondersteund.
  • text-embedding-ada-002 (versie 2), insluitmodel dat kan worden gebruikt met insluiten VAN API-aanvragen. Het maximaal geaccepteerde aanvraagtoken is 8.191 en de geretourneerde vector heeft dimensies van 1536.

Text Analytics

REST API, SynapseML

  • Taaldetectie: detecteert de taal van de invoertekst
  • Sentimentanalyse: retourneert een score tussen 0 en 1 om het gevoel in de invoertekst aan te geven
  • Sleuteltermextractie: identificeert de belangrijkste gesprekspunten in de invoertekst
  • Herkenning van persoonsgegevens(PII)-entiteiten: gevoelige informatie identificeren, categoriseren en redacteren in de invoertekst
  • Herkenning van benoemde entiteiten: identificeert bekende entiteiten en algemene benoemde entiteiten in de invoertekst
  • Entiteitskoppeling: herkent en duidt de identiteit van entiteiten die in tekst worden gevonden.

Azure AI Translator

REST API, SynapseML

  • Vertalen: Vertaalt tekst
  • Transliteratie: converteert tekst in één taal, in het ene script, naar een ander script.

Beschikbare regio's

Beschikbare regio's voor Azure OpenAI-service

Ga naar de sectie Beschikbare Azure-regio's van het artikel Overzicht van Copilot in Fabric en Power BI (preview) om te zien in welke Azure-regio's de voorgeconfigureerde AI-services in Fabric nu beschikbaar zijn.

Beschikbare regio's voor Text Analytics en Azure AI Translator

Vooraf gebouwde Text Analytics- en de Azure AI Translator- in Fabric zijn nu beschikbaar voor publieke preview in de Azure-regio's die in dit artikel worden vermeld. Als u de basisregio van Microsoft Fabric niet in dit artikel vindt, kunt u nog steeds een Microsoft Fabric-capaciteit maken in een ondersteunde regio. Ga naar Een Microsoft Fabric-abonnement kopenvoor meer informatie. Ga naar Ga naar de homeregio van Fabricom uw fabric-thuisregio te bepalen.

Azië en Stille Oceaan Europa Noord- en Zuid-Amerika Midden-Oosten en Afrika
Australië - oost Europa - noord Brazilië - zuid Zuid-Afrika - noord
Australië - zuidoost Europa -west Canada - midden VAE - noord
Centraal-Indiaas Frankrijk - centraal Canada - oost
Azië - oost Noorwegen - oost VS - oost
Japan East Zwitserland - noord VS - oost 2
Korea - centraal Zwitserland - west VS - noord-centraal
Azië - zuidoost Verenigd Koninkrijk Zuid VS - zuid-centraal
India - zuid Verenigd Koninkrijk West VS - west
VS - west 2
US - west 3

Verbruikstarief

Notitie

De facturering voor vooraf gebouwde AI-services in Fabric werd van kracht op 1 november 2024, als onderdeel van uw bestaande Power BI Premium- of Fabric-capaciteit.

Een aanvraag voor voorgebouwde AI-services verbruikt Fabric Capaciteitseenheden. In deze tabel wordt gedefinieerd hoeveel capaciteitseenheden (CU) worden gebruikt wanneer een AI-service wordt gebruikt.

Verbruikstarief voor OpenAI-taalmodellen

modellen Context Invoer (per 1.000 tokens) Uitvoer (per 1.000 tokens)
GPT-4o-2024-08-06 Globale uitrol 128 K 84,03 CU seconden 336,13 CU seconden
GPT-4 32 K 2.016,81 CU seconden 4.033,61 CU seconden
GPT-3.5-Turbo-0125 16K 16,81 CU seconden 50,42 CU seconden

Verbruikssnelheid voor OpenAI-embeddingmodellen

modellen operationele maateenheid Verbruikstarief
tekst-insluiten-ada-002 1000 tokens 3,36 CU seconden

Verbruikstarief voor Text Analytics

operatie operationele maateenheid Verbruikstarief
Taaldetectie 1000 tekstrecords 33.613,45 CU seconden
Sentimentanalyse 1000 tekstrecords 33.613,45 CU seconden
Sleuteltermextractie 1000 tekstrecords 33.613,45 CU seconden
Herkenning van Persoonlijk Identificeerbare Informatie 1000 tekstrecords 33.613,45 CU seconden
Herkenning van benoemde entiteiten 1000 tekstrecords 33.613,45 CU seconden
Entiteitsverwijzing 1000 tekstrecords 33.613,45 CU seconden
Samenvatting 1000 tekstrecords 67.226,89 CU seconden

Verbruikstarief voor Text Translator

operatie operationele maateenheid Verbruikstarief
Vertalen 1 miljoen tekens 336.134,45 CU seconden
Translitereren 1 miljoen tekens 336.134,45 CU seconden

Wijzigingen in AI-services in het verbruikstarief van Fabric

Verbruikstarieven kunnen op elk gewenst moment worden gewijzigd. Microsoft gebruikt redelijke inspanningen om kennisgeving via e-mail of via een melding in het product te verstrekken. Wijzigingen zijn van kracht op de datum die wordt vermeld in de opmerkingen bij de Microsoft-release of het Microsoft Fabric-blog. Als een wijziging in een AI-service in het Fabric-verbruikstarief de vereiste capaciteitseenheden (CU) voor gebruik aanzienlijk verhoogt, kunnen klanten gebruikmaken van de annuleringsopties die beschikbaar zijn voor de gekozen betalingsmethode.

Het gebruik bewaken

De workloadmeter die aan de taak is gekoppeld, bepaalt de kosten voor vooraf gedefinieerde AI-services in Fabric. Als het AI-servicegebruik bijvoorbeeld is afgeleid van een Spark-workload, wordt het AI-gebruik gegroepeerd en gefactureerd onder de Spark-factureringsmeter in de Fabric Capaciteitsmetriek-app.

Voorbeeld

Een eigenaar van een online winkel gebruikt SynapseML en Spark om miljoenen producten in relevante categorieën te categoriseren. Momenteel past de winkeleigenaar in code vastgelegde logica toe om het onbewerkte 'producttype' op te schonen en toe te wijzen aan categorieën. De eigenaar is echter van plan over te schakelen naar het gebruik van de nieuwe native Fabric OpenAI LLM-eindpunten (Large Language Model). Hiermee worden de gegevens iteratief verwerkt op basis van een LLM voor elke rij en worden de producten vervolgens gecategoraliseerd op basis van hun 'productnaam', 'beschrijving', 'technische details', enzovoort.

De verwachte kosten voor Spark-gebruik zijn 1000 CU's. De verwachte kosten voor OpenAI-gebruik zijn ongeveer 300 CUs.

Als u de nieuwe logica wilt testen, moet u deze eerst herhalen in een interactieve uitvoering van een Spark-notebook. Gebruik "Notebook Interactive Run" voor de naam van de bewerking van de uitvoering. De eigenaar verwacht dat er een volledig gebruik van 1300 rekeneenheden wordt weergegeven onder "Notebook Interactive Run", waarbij de Spark-factureringsmeter het volledige gebruik dekt.

Zodra de winkeleigenaar de logica heeft gevalideerd, stelt de eigenaar de reguliere uitvoering in en verwacht een all-upgebruik van 1300 CUs te zien onder de operationele naam "Geplande uitvoering van Spark Job", met de Spark-factureringsmeter die het volledige gebruik meet.