AI-tjänster i Infrastrukturresurser (förhandsversion)
Viktigt!
Den här funktionen är i förhandsversion.
Azure AI-tjänster hjälpa utvecklare och organisationer att snabbt skapa intelligenta, banbrytande, marknadsklara och ansvarsfulla program med fördefinierade och anpassningsbara API:er och modeller. Azure AI-tjänster, som tidigare hette Azure Cognitive Services, ger utvecklare bättre möjligheter även om de inte har direkta kunskaper om AI eller datavetenskap. Målet med Azure AI-tjänster är att hjälpa utvecklare att skapa program som kan se, höra, tala, förstå och till och med börja resonera.
Fabric har två alternativ för att använda Azure AI-tjänster:
Förbyggda AI-modeller i Fabric (förhandsversion)
Fabric integreras sömlöst med Azure AI-tjänster, så att du kan utöka dina data med fördefinierade AI-modeller utan några krav. Vi rekommenderar det här alternativet eftersom du kan använda din Infrastruktur-autentisering för att få åtkomst till AI-tjänster och alla användningar debiteras mot din Infrastrukturkapacitet. Det här alternativet är för närvarande i offentlig förhandsversion, med begränsade AI-tjänster tillgängliga.
Fabric erbjuder Azure OpenAI Service, Text Analyticsoch Azure AI Translator som standard, med stöd för både SynapseML och RESTful API. Du kan också använda OpenAI Python-biblioteket för att få åtkomst till Azure OpenAI-tjänsten i Fabric. För mer information om tillgängliga modeller, besök fördefinierade AI-modeller i Fabric.
Ta med din egen nyckel (BYOK)
Du kan etablera dina AI-tjänster i Azure och ta med din egen nyckel för att använda dem från Fabric. Om de fördefinierade AI-modellerna ännu inte stöder önskade AI-tjänster kan du fortfarande använda BYOK (Bring your own key).
Mer information om hur du använder Azure AI-tjänster med BYOK finns i Azure AI-tjänster i SynapseML med Bring Your Own Key.
Fördefinierade AI-modeller i Infrastrukturresurser (förhandsversion)
Kommentar
Fördefinierade AI-modeller är för närvarande tillgängliga i förhandsversionen och erbjuds kostnadsfritt, med en gräns för antalet samtidiga begäranden per användare. För Open AI-modeller är gränsen 20 begäranden per minut per användare.
Azure OpenAI-tjänsten
REST API, Python SDK. SynapseML
- GPT-35-turbo: GPT-3.5-modeller kan förstå och generera naturligt språk eller kod. Den mest kompatibla och kostnadseffektiva modellen i GPT-3.5-familjen är GPT-3. Alternativet
5 Turbo
, som är optimerat för chatt, fungerar också bra för traditionella slutförandeuppgifter. Modellengpt-35-turbo-0125
stöder upp till 16 385 indatatoken och 4 096 utdatatoken. - gpt-4-familj:
gpt-4-32k
stöds. - text-embedding-ada-002 (version 2), inbäddningsmodell som kan användas med inbäddning av API-begäranden. Den maximala godkända begärandetoken är 8 191 och den returnerade vektorn har dimensioner på 1 536.
Textanalys
- Språkidentifiering: identifierar språket i indatatexten
- Attitydanalys: returnerar en poäng mellan 0 och 1 för att indikera attityden i indatatexten
- Extrahering av nyckelfras: identifierar viktiga samtalspunkter i indatatexten
- Entitetsigenkänning av personligt identifierbar information (PII): identifiera, kategorisera och redigera känslig information i indatatexten
- Namngiven entitetsigenkänning: identifierar kända entiteter och allmänna namngivna entiteter i indatatexten
- Entitetslänkning: identifierar och särskiljer identiteten för entiteter som finns i text
Azure AI Translator
- Översätt: Översätter text
- Transkribera: Konverterar text på ett språk, i ett skript, till ett annat skript.
Tillgängliga regioner
Tillgängliga regioner för Azure OpenAI Service
Azure-regionerna där fördefinierade AI-tjänster i Fabric nu är tillgängliga listas i avsnittet Tillgängliga regioner i artikeln Översikt över Copilot i Fabric och Power BI (förhandsversion).
Tillgängliga regioner för Textanalys och Azure AI Translator
Fördefinierade textanalyser och Azure AI Translator i Fabric är nu tillgängliga för offentlig förhandsgranskning i de Azure-regioner som anges i den här artikeln. Om du inte hittar din Microsoft Fabric-hemregion i den här artikeln kan du fortfarande skapa en Microsoft Fabric-kapacitet i en region som stöds. Mer information finns i Köp en Microsoft Fabric-prenumeration. För att ta reda på din Fabric-hemregion, besök Hitta din Fabric-hemregion.
Asien och stillahavsområdet | Europa | Nord- och Sydamerika | Mellanöstern och Afrika |
---|---|---|---|
Australien, östra | Europa, norra | Brasilien, södra | Sydafrika, norra |
Sydöstra Australien | Västeuropa | Kanada, centrala | Förenade Arabemiraten, norra |
Centralindian | Centrala Frankrike | Östra Kanada | |
Asien, östra | Norge, östra | USA, östra | |
Japan, östra | Schweiz, norra | USA, östra 2 | |
Sydkorea, centrala | Schweiz, västra | Norra centrala USA | |
Sydostasien | Storbritannien, södra | USA, södra centrala | |
Indien, södra | Västra Storbritannien | USA, västra | |
USA, västra 2 | |||
USA, västra 3 |
Förbrukningshastighet
Kommentar
Faktureringen för fördefinierade AI-tjänster i Fabric trädde i kraft den 1 november 2024 som en del av din befintliga Power BI Premium- eller Fabric-kapacitet.
En begäran om förbyggda AI-tjänster förbrukar Fabric Capacity Units. Den här tabellen definierar hur många kapacitetsenheter (CU) som används när en AI-tjänst används.
Förbrukningsfrekvens för OpenAI-språkmodeller
modeller | Kontext | indata (per 1 000 token) | utdata (per 1 000 token) |
---|---|---|---|
GPT-4o-2024-08-06 Global distribution | 128 K | 84,03 CU sekunder | 336,13 CU sekunder |
GPT-4 | 32 K | 2 016,81 CU-sekunder | 4 033,61 CU-sekunder |
GPT-3.5-Turbo-0125 | 16 000 | 16,81 CU-sekunder | 50,42 CU sekunder |
Förbrukningsfrekvens för OpenAI-inbäddningsmodeller
modeller | åtgärdsenhet | Förbrukningshastighet |
---|---|---|
text-embedding-ada-002 | 1 000 token | 3,36 CU-sekunder |
Förbrukningsfrekvens för textanalys
Åtgärd | operationsmåttenhet | Förbrukningshastighet |
---|---|---|
Språkidentifiering | 1 000 textposter | 33 613,45 CU-sekunder |
Sentimentanalys | 1 000 textrader | 33 613,45 CU-sekunder |
Extrahering av nyckelfras | 1 000 texter | 33 613,45 CU-sekunder |
Identifiering av personligt identifierbar informationsenhet | 1 000 textposter | 33 613,45 CU-sekunder |
Namngiven entitetsigenkänning | 1 000 texter | 33 613,45 CU-sekunder |
Entitetslänkning | 1 000 textposter | 33 613,45 CU-sekunder |
Sammanfattning | 1 000 textposter | 67 226,89 CU-sekunder |
Förbrukningsfrekvens för TextÖversättare
Åtgärd | Åtgärdsenhet för mått | Förbrukningshastighet |
---|---|---|
Översätta | 1M tecken | 336,134.45 CU sekunder |
Transkribera | 1M tecken | 336,134.45 CU sekunder |
Ändringar i AI-tjänster för användningstakten i Fabric
Förbrukningsfrekvensen kan ändras när som helst. Microsoft använder rimliga ansträngningar för att meddela via e-post eller via produktmeddelande. Ändringarna ska börja gälla det datum som anges i Microsofts utgivningsanteckningar eller på Microsoft Fabric-bloggen. Om en ändring av en AI-tjänst i fiberkonsumtionsgraden väsentligt ökar de kapacitetsenheter (CU) som krävs för användning, kan kunderna använda de avbokningsalternativ som är tillgängliga för den valda betalningsmetoden.
Övervaka användningen
Arbetsbelastningsmätaren associerad med uppgiften bestämmer avgifterna för förbyggda AI-tjänster i Fabric. Om AI-tjänstanvändning till exempel härleds från en Spark-arbetsbelastning grupperas AI-användningen tillsammans och faktureras under Spark-faktureringsmätaren i appen Fabric Capacity Metrics-appen.
Exempel
En onlinebutiksägare använder SynapseML och Spark för att kategorisera miljontals produkter i relevanta kategorier. För närvarande tillämpar butiksägaren hårdkodad logik för att rensa och mappa den råa "produkttypen" till kategorier. Ägaren planerar dock att byta till användning av de nya interna Slutpunkterna för Fabric OpenAI LLM (Large Language Model). Detta bearbetar iterativt data mot en LLM för varje rad och kategoriserar sedan produkterna baserat på deras "produktnamn", "beskrivning", "teknisk information" och så vidare.
Den förväntade kostnaden för Spark-användning är 1 000 CUs. Den förväntade kostnaden för OpenAI-användning är cirka 300 CU:er.
Om du vill testa den nya logiken itererar du den först i en interaktiv Spark-notebook-körning. För körningens åtgärdsnamn använder du "Notebook Interactive Run". Ägaren förväntar sig att se en fullständig användning av 1 300 CU:er under "Notebook Interactive Run", där Spark-faktureringsmätaren står för hela användningen.
När butiksägaren har verifierat logiken konfigurerar ägaren den vanliga körningen och förväntar sig att se en total användning på 1 300 CU med operationsnamnet "Schemalagd körning av Spark-jobb", med Spark-faktureringsmätaren som redovisar hela användningen.