AI-services in Fabric (preview)
Belangrijk
Deze functie is beschikbaar als preview-versie.
Azure AI-services ontwikkelaars en organisaties helpen snel intelligente, geavanceerde, marktklare en verantwoordelijke toepassingen te maken met vooraf gebouwde en aanpasbare API's en modellen. Voorheen bekend als Azure Cognitive Services, stellen Azure AI-services ontwikkelaars in staat, zelfs als ze geen directe AI- of gegevenswetenschapsvaardigheden of kennis hebben. Het doel van Azure AI-services is ontwikkelaars te helpen bij het maken van toepassingen die kunnen zien, horen, spreken, begrijpen en zelfs beginnen met redeneren.
Fabric biedt twee opties voor het gebruik van Azure AI-services:
vooraf gebouwde AI-modellen in Fabric (preview)
Fabric kan naadloos worden geïntegreerd met Azure AI-services, zodat u uw gegevens kunt verrijken met vooraf samengestelde AI-modellen zonder dat hiervoor een vereiste is. We raden deze optie aan omdat u uw Fabric-verificatie kunt gebruiken voor toegang tot AI-services en alle gebruiksgegevens worden gefactureerd voor uw Fabric-capaciteit. Deze optie is momenteel beschikbaar als openbare preview, met beperkte AI-services.
Fabric biedt standaard Azure OpenAI Service, Text Analytics-en Azure AI Translator-, met ondersteuning voor zowel SynapseML als de RESTful-API. U kunt ook de OpenAI Python-bibliotheek gebruiken om toegang te krijgen tot de Azure OpenAI-service in Fabric. Ga naar vooraf samengestelde AI-modellen in Fabricvoor meer informatie over beschikbare modellen.
Neem je eigen sleutel mee (BYOK)
U kunt uw AI-services inrichten in Azure en uw eigen sleutel gebruiken om deze te gebruiken vanuit Fabric. Als de vooraf samengestelde AI-modellen nog geen ondersteuning bieden voor de gewenste AI-services, kunt u NOG steeds BYOK (Bring Your Own Key) gebruiken.
Ga naar Azure AI-services in SynapseML met Bring Your Own Key voor meer informatie over het gebruik van Azure AI-services met BYOK.
Vooraf gemaakte AI-modellen in Fabric (preview)
Notitie
Vooraf samengestelde AI-modellen zijn momenteel beschikbaar in preview en worden gratis aangeboden, met een limiet voor het aantal gelijktijdige aanvragen per gebruiker. Voor Open AI-modellen is de limiet 20 aanvragen per minuut per gebruiker.
Azure OpenAI-service
REST API, Python SDK. SynapseML
- GPT-35-turbo: GPT-3.5-modellen kunnen natuurlijke taal of code begrijpen en genereren. Het meest geschikte en rendabele model in de GPT-3.5-familie is GPT-3. De
5 Turbo
optie, die is geoptimaliseerd voor chatten, werkt ook goed voor traditionele voltooiingstaken. Hetgpt-35-turbo-0125
model ondersteunt maximaal 16.385 invoertokens en 4.096 uitvoertokens. - gpt-4 family:
gpt-4-32k
wordt ondersteund. - text-embedding-ada-002 (versie 2), insluitmodel dat kan worden gebruikt met insluiten VAN API-aanvragen. Het maximaal geaccepteerde aanvraagtoken is 8.191 en de geretourneerde vector heeft dimensies van 1536.
Text Analytics
- Taaldetectie: detecteert de taal van de invoertekst
- Sentimentanalyse: retourneert een score tussen 0 en 1 om het gevoel in de invoertekst aan te geven
- Sleuteltermextractie: identificeert de belangrijkste gesprekspunten in de invoertekst
- Herkenning van persoonsgegevens(PII)-entiteiten: gevoelige informatie identificeren, categoriseren en redacteren in de invoertekst
- Herkenning van benoemde entiteiten: identificeert bekende entiteiten en algemene benoemde entiteiten in de invoertekst
- Entiteitskoppeling: herkent en duidt de identiteit van entiteiten die in tekst worden gevonden.
Azure AI Translator
- Vertalen: Vertaalt tekst
- Transliteratie: converteert tekst in één taal, in het ene script, naar een ander script.
Beschikbare regio's
Beschikbare regio's voor Azure OpenAI-service
Ga naar de sectie Beschikbare Azure-regio's van het artikel Overzicht van Copilot in Fabric en Power BI (preview) om te zien in welke Azure-regio's de voorgeconfigureerde AI-services in Fabric nu beschikbaar zijn.
Beschikbare regio's voor Text Analytics en Azure AI Translator
Vooraf gebouwde Text Analytics- en de Azure AI Translator- in Fabric zijn nu beschikbaar voor publieke preview in de Azure-regio's die in dit artikel worden vermeld. Als u de basisregio van Microsoft Fabric niet in dit artikel vindt, kunt u nog steeds een Microsoft Fabric-capaciteit maken in een ondersteunde regio. Ga naar Een Microsoft Fabric-abonnement kopenvoor meer informatie. Ga naar Ga naar de homeregio van Fabricom uw fabric-thuisregio te bepalen.
Azië en Stille Oceaan | Europa | Noord- en Zuid-Amerika | Midden-Oosten en Afrika |
---|---|---|---|
Australië - oost | Europa - noord | Brazilië - zuid | Zuid-Afrika - noord |
Australië - zuidoost | Europa -west | Canada - midden | VAE - noord |
Centraal-Indiaas | Frankrijk - centraal | Canada - oost | |
Azië - oost | Noorwegen - oost | VS - oost | |
Japan East | Zwitserland - noord | VS - oost 2 | |
Korea - centraal | Zwitserland - west | VS - noord-centraal | |
Azië - zuidoost | Verenigd Koninkrijk Zuid | VS - zuid-centraal | |
India - zuid | Verenigd Koninkrijk West | VS - west | |
VS - west 2 | |||
US - west 3 |
Verbruikstarief
Notitie
De facturering voor vooraf gebouwde AI-services in Fabric werd van kracht op 1 november 2024, als onderdeel van uw bestaande Power BI Premium- of Fabric-capaciteit.
Een aanvraag voor voorgebouwde AI-services verbruikt Fabric Capaciteitseenheden. In deze tabel wordt gedefinieerd hoeveel capaciteitseenheden (CU) worden gebruikt wanneer een AI-service wordt gebruikt.
Verbruikstarief voor OpenAI-taalmodellen
modellen | Context | Invoer (per 1.000 tokens) | Uitvoer (per 1.000 tokens) |
---|---|---|---|
GPT-4o-2024-08-06 Globale uitrol | 128 K | 84,03 CU seconden | 336,13 CU seconden |
GPT-4 | 32 K | 2.016,81 CU seconden | 4.033,61 CU seconden |
GPT-3.5-Turbo-0125 | 16K | 16,81 CU seconden | 50,42 CU seconden |
Verbruikssnelheid voor OpenAI-embeddingmodellen
modellen | operationele maateenheid | Verbruikstarief |
---|---|---|
tekst-insluiten-ada-002 | 1000 tokens | 3,36 CU seconden |
Verbruikstarief voor Text Analytics
operatie | operationele maateenheid | Verbruikstarief |
---|---|---|
Taaldetectie | 1000 tekstrecords | 33.613,45 CU seconden |
Sentimentanalyse | 1000 tekstrecords | 33.613,45 CU seconden |
Sleuteltermextractie | 1000 tekstrecords | 33.613,45 CU seconden |
Herkenning van Persoonlijk Identificeerbare Informatie | 1000 tekstrecords | 33.613,45 CU seconden |
Herkenning van benoemde entiteiten | 1000 tekstrecords | 33.613,45 CU seconden |
Entiteitsverwijzing | 1000 tekstrecords | 33.613,45 CU seconden |
Samenvatting | 1000 tekstrecords | 67.226,89 CU seconden |
Verbruikstarief voor Text Translator
operatie | operationele maateenheid | Verbruikstarief |
---|---|---|
Vertalen | 1 miljoen tekens | 336.134,45 CU seconden |
Translitereren | 1 miljoen tekens | 336.134,45 CU seconden |
Wijzigingen in AI-services in het verbruikstarief van Fabric
Verbruikstarieven kunnen op elk gewenst moment worden gewijzigd. Microsoft gebruikt redelijke inspanningen om kennisgeving via e-mail of via een melding in het product te verstrekken. Wijzigingen zijn van kracht op de datum die wordt vermeld in de opmerkingen bij de Microsoft-release of het Microsoft Fabric-blog. Als een wijziging in een AI-service in het Fabric-verbruikstarief de vereiste capaciteitseenheden (CU) voor gebruik aanzienlijk verhoogt, kunnen klanten gebruikmaken van de annuleringsopties die beschikbaar zijn voor de gekozen betalingsmethode.
Het gebruik bewaken
De workloadmeter die aan de taak is gekoppeld, bepaalt de kosten voor vooraf gedefinieerde AI-services in Fabric. Als het AI-servicegebruik bijvoorbeeld is afgeleid van een Spark-workload, wordt het AI-gebruik gegroepeerd en gefactureerd onder de Spark-factureringsmeter in de Fabric Capaciteitsmetriek-app.
Voorbeeld
Een eigenaar van een online winkel gebruikt SynapseML en Spark om miljoenen producten in relevante categorieën te categoriseren. Momenteel past de winkeleigenaar in code vastgelegde logica toe om het onbewerkte 'producttype' op te schonen en toe te wijzen aan categorieën. De eigenaar is echter van plan over te schakelen naar het gebruik van de nieuwe native Fabric OpenAI LLM-eindpunten (Large Language Model). Hiermee worden de gegevens iteratief verwerkt op basis van een LLM voor elke rij en worden de producten vervolgens gecategoraliseerd op basis van hun 'productnaam', 'beschrijving', 'technische details', enzovoort.
De verwachte kosten voor Spark-gebruik zijn 1000 CU's. De verwachte kosten voor OpenAI-gebruik zijn ongeveer 300 CUs.
Als u de nieuwe logica wilt testen, moet u deze eerst herhalen in een interactieve uitvoering van een Spark-notebook. Gebruik "Notebook Interactive Run" voor de naam van de bewerking van de uitvoering. De eigenaar verwacht dat er een volledig gebruik van 1300 rekeneenheden wordt weergegeven onder "Notebook Interactive Run", waarbij de Spark-factureringsmeter het volledige gebruik dekt.
Zodra de winkeleigenaar de logica heeft gevalideerd, stelt de eigenaar de reguliere uitvoering in en verwacht een all-upgebruik van 1300 CUs te zien onder de operationele naam "Geplande uitvoering van Spark Job", met de Spark-factureringsmeter die het volledige gebruik meet.