AI-tjenester i Fabric (prøveversion)
Vigtigt
Denne funktion er en prøveversion.
Azure AI-tjenester hjælpe udviklere og organisationer med hurtigt at skabe intelligente, banebrydende, markedsklare og ansvarlige programmer med færdigbyggede og tilpassede API'er og modeller. Azure AI-tjenester, der tidligere hed Azure Cognitive Services, giver udviklere mulighed for at arbejde med kunstig intelligens eller datavidenskab. Målet med Azure AI-tjenester er at hjælpe udviklere med at oprette programmer, der kan se, høre, tale, forstå og endda begynde at ræsonnere.
Fabric indeholder to muligheder for at bruge Azure AI-tjenester:
Færdigbyggede AI-modeller i Fabric (prøveversion)
Fabric integreres problemfrit med Azure AI-tjenester, så du kan forbedre dine data med færdigbyggede AI-modeller uden nogen forudsætning. Vi anbefaler denne indstilling, fordi du kan bruge din Fabric-godkendelse til at få adgang til AI-tjenester, og alle forbrug faktureres i forhold til din Fabric-kapacitet. Denne indstilling er i øjeblikket i offentlig prøveversion med begrænsede AI-tjenester tilgængelige.
Fabric tilbyder som standard Azure OpenAI Service, Text Analyticsog Azure AI Translator med understøttelse af både SynapseML og RESTful API. Du kan også bruge OpenAI Python Library til at få adgang til Azure OpenAI-tjenesten i Fabric. Du kan finde flere oplysninger om tilgængelige modeller under færdigbyggede AI-modeller i Fabric.
BYOK(Bring your own key)
Du kan klargøre dine AI-tjenester på Azure og medbringe din egen nøgle for at bruge dem fra Fabric. Hvis de færdigbyggede AI-modeller endnu ikke understøtter de ønskede AI-tjenester, kan du stadig bruge BYOK (Medbring din egen nøgle).
Hvis du vil vide mere om, hvordan du bruger Azure AI-tjenester med BYOK, skal du gå til Azure AI-tjenester i SynapseML med din egen nøgle.
Færdigbyggede AI-modeller i Fabric (prøveversion)
Bemærk
Færdigbyggede AI-modeller er i øjeblikket tilgængelige som prøveversion og tilbydes gratis med en grænse for antallet af samtidige anmodninger pr. bruger. For Open AI-modeller er grænsen 20 anmodninger pr. minut pr. bruger.
Azure OpenAI-tjeneste
REST API, Python SDK. SynapseML
- GPT-35-turbo: GPT-3.5-modeller kan forstå og generere naturligt sprog eller kode. Den mest effektive og omkostningseffektive model i GPT-3.5-serien er GPT-3. Indstillingen
5 Turbo
, som er optimeret til chat, fungerer også godt til traditionelle fuldførelsesopgaver. Modellengpt-35-turbo-0125
understøtter op til 16.385 inputtokens og 4.096 outputtokens. - gpt-4-familie:
gpt-4-32k
understøttes. - text-embedding-ada-002 (version 2), integreringsmodel, der kan bruges sammen med API-anmodninger om integrering. Det maksimale accepterede anmodningstoken er 8.191, og den returnerede vektor har dimensioner på 1.536.
Tekstanalyse
- Registrering af sprog: registrerer inputtekstens sprog
- Synspunktsanalyse: returnerer en score mellem 0 og 1 for at angive synspunktet i inputteksten
- Udtrækning af nøglesætning: Identificerer de vigtigste talepunkter i inputteksten
- Personidentificerbare oplysninger (PII) enhedsgenkendelse: identificer, kategoriser og rediger følsomme oplysninger i inputteksten
- Genkendelse af navngivne objekter: identificerer kendte enheder og generelle navngivne objekter i inputteksten
- Objektlinkning: identificerer og flertydige udtryk for identiteten af objekter, der findes i tekst
Azure AI Translator
- Oversæt: Oversætter tekst
- Transliterate: Konverterer tekst på ét sprog i ét script til et andet script.
Tilgængelige områder
Tilgængelige områder til Azure OpenAI-tjenesten
Du kan finde en liste over Azure-områder, hvor færdigbyggede AI-tjenester i Fabric nu er tilgængelige, i afsnittet Tilgængelige områder i artiklen Oversigt over Copilot i Fabric og Power BI (prøveversion).
Tilgængelige områder til Tekstanalyse og Azure AI Translator
Færdigbyggede Tekstanalyse- og Azure AI Translator- i Fabric er nu tilgængelige til offentlig prøveversion i Azure-områder, der er angivet i denne artikel. Hvis du ikke kan finde dit Microsoft Fabric-hjemmeområde i denne artikel, kan du stadig oprette en Microsoft Fabric-kapacitet i et understøttet område. Du kan finde flere oplysninger Køb et Microsoft Fabric-abonnement. Hvis du vil finde dit Fabric-hjemmeområde, skal du besøge Find dit Fabric-hjemmeområde.
Asien og Stillehavsområdet | Europa | Nord- og Sydamerika | Mellemøsten og Afrika |
---|---|---|---|
Det østlige Australien | Det nordlige Europa | Det Sydlige Brasilien | Det nordlige Sydafrika |
Det sydøstlige Australien | Det vestlige Europa | Det centrale Canada | Det nordlige Forenede Arabiske Emirater |
Centralindisk | Det centrale Frankrig | Det østlige Canada | |
Østasien | Det østlige Norge | Østlige USA | |
Det østlige Japan | Det nordlige Schweiz | Det østlige USA 2 | |
Det centrale Sydkorea | Det vestlige Schweiz | Det nordcentrale USA | |
Det sydøstlige Asien | Det sydlige Storbritannien | Det sydcentrale USA | |
Det sydlige Indien | Det vestlige Storbritannien | Det vestlige USA | |
Det vestlige USA 2 | |||
Det vestlige USA 3 |
Forbrugshastighed
Bemærk
Faktureringen af færdigbyggede AI-tjenester i Fabric trådte i kraft den 1. november 2024 som en del af din eksisterende Power BI Premium- eller Fabric Capacity.
En anmodning om færdigbyggede AI-tjenester bruger Fabric Capacity Units. Denne tabel definerer, hvor mange kapacitetsenheder (CU), der forbruges, når der bruges en AI-tjeneste.
Forbrugshastighed for OpenAI-sprogmodeller
modeller | kontekst | input (pr. 1.000 tokens) | output (pr. 1.000 tokens) |
---|---|---|---|
GPT-4o-2024-08-06 Global installation | 128 K | 84,03 CU sekunder | 336,13 CU sekunder |
GPT-4 | 32 K | 2.016,81 CU sekunder | 4.033,61 CU sekunder |
GPT-3.5-Turbo-0125 | 16.000 | 16,81 CU sekunder | 50,42 CU sekunder |
Forbrugshastighed for OpenAI-integreringsmodeller
modeller | handlingsenhed | Forbrugshastighed |
---|---|---|
text-embedding-ada-002 | 1.000 tokens | 3,36 CU sekunder |
Forbrugsfrekvens for tekstanalyse
handling | handlingsenhed | Forbrugshastighed |
---|---|---|
Registrering af sprog | 1.000 tekstposter | 33.613,45 CU sekunder |
Synspunktsanalyse | 1.000 tekstposter | 33.613,45 CU sekunder |
Udtrækning af nøgleudtryk | 1.000 tekstposter | 33.613,45 CU sekunder |
Enhedsgenkendelse af personident identificerende oplysninger | 1.000 tekstposter | 33.613,45 CU sekunder |
Navngivet enhedsgenkendelse | 1.000 tekstposter | 33.613,45 CU sekunder |
Objektlinkning | 1.000 tekstposter | 33.613,45 CU sekunder |
Sammendrag | 1.000 tekstposter | 67.226,89 CU sekunder |
Forbrugshastighed for tekstoversætter
handling | handlingsenhed | Forbrugshastighed |
---|---|---|
Oversætte | 1 mio. tegn | 336.134,45 CU sekunder |
Omskrivning | 1 mio. tegn | 336.134,45 CU sekunder |
Ændringer i AI-tjenester i forbrugsfrekvensen for stof
Forbrugssatserne kan ændres når som helst. Microsoft gør en rimelig indsats for at give besked via mail eller via meddelelse i produktet. Ændringerne træder i kraft på den dato, der er angivet i Microsofts produktbemærkninger eller Microsoft Fabric-bloggen. Hvis en ændring af en AI-tjeneste i Fabric Consumption Rate væsentligt øger de kapacitetsenheder (CU), der kræves for at bruge, kan kunderne bruge de annulleringsmuligheder, der er tilgængelige for den valgte betalingsmetode.
Overvåg brugen
Den arbejdsbelastningsmåler, der er knyttet til opgaven, bestemmer gebyrerne for færdigbyggede AI-tjenester i Fabric. Hvis brug af ai-tjenester f.eks. er afledt af en Spark-arbejdsbelastning, grupperes AI-forbruget sammen og faktureres under Spark-faktureringsmåleren på Fabric Capacity Metrics-appen.
Eksempel
En ejer af en onlinebutik bruger SynapseML og Spark til at kategorisere millioner af produkter i relevante kategorier. Butiksejeren anvender i øjeblikket hard-coded logik til at rense og knytte den rå "produkttype" til kategorier. Ejeren planlægger dog at skifte til at bruge de nye oprindelige Fabric OpenAI LLM-slutpunkter (Large Language Model). Dette behandler iterativt dataene i forhold til en LLM for hver række og kategoriserer derefter produkterne baseret på deres "produktnavn", "beskrivelse", "tekniske detaljer" osv.
De forventede omkostninger ved spark-brug er 1000 CUs. De forventede omkostninger for OpenAI-brug er ca. 300 CUs.
Hvis du vil teste den nye logik, skal du først gentage den i en interaktiv Spark-notesbogkørsel. Brug "Interaktiv kørsel af notesbog" for kørselsnavnet. Ejeren forventer at se et samlet forbrug på 1300 CUs under "Interaktiv kørsel af notesbog", hvor Spark-faktureringsmåleren tegner sig for hele forbruget.
Når butiksejeren validerer logikken, konfigurerer ejeren den almindelige kørsel og forventer at se et samlet forbrug på 1300 CUs under handlingsnavnet "Spark Job Scheduled Run", hvor Spark-faktureringsmåleren tegner sig for hele forbruget.