Del via


AI-tjenester i Fabric (prøveversion)

Vigtigt

Denne funktion er en prøveversion.

Azure AI-tjenester hjælpe udviklere og organisationer med hurtigt at skabe intelligente, banebrydende, markedsklare og ansvarlige programmer med færdigbyggede og tilpassede API'er og modeller. Azure AI-tjenester, der tidligere hed Azure Cognitive Services, giver udviklere mulighed for at arbejde med kunstig intelligens eller datavidenskab. Målet med Azure AI-tjenester er at hjælpe udviklere med at oprette programmer, der kan se, høre, tale, forstå og endda begynde at ræsonnere.

Fabric indeholder to muligheder for at bruge Azure AI-tjenester:

  • Færdigbyggede AI-modeller i Fabric (prøveversion)

    Fabric integreres problemfrit med Azure AI-tjenester, så du kan forbedre dine data med færdigbyggede AI-modeller uden nogen forudsætning. Vi anbefaler denne indstilling, fordi du kan bruge din Fabric-godkendelse til at få adgang til AI-tjenester, og alle forbrug faktureres i forhold til din Fabric-kapacitet. Denne indstilling er i øjeblikket i offentlig prøveversion med begrænsede AI-tjenester tilgængelige.

    Fabric tilbyder som standard Azure OpenAI Service, Text Analyticsog Azure AI Translator med understøttelse af både SynapseML og RESTful API. Du kan også bruge OpenAI Python Library til at få adgang til Azure OpenAI-tjenesten i Fabric. Du kan finde flere oplysninger om tilgængelige modeller under færdigbyggede AI-modeller i Fabric.

  • BYOK(Bring your own key)

    Du kan klargøre dine AI-tjenester på Azure og medbringe din egen nøgle for at bruge dem fra Fabric. Hvis de færdigbyggede AI-modeller endnu ikke understøtter de ønskede AI-tjenester, kan du stadig bruge BYOK (Medbring din egen nøgle).

    Hvis du vil vide mere om, hvordan du bruger Azure AI-tjenester med BYOK, skal du gå til Azure AI-tjenester i SynapseML med din egen nøgle.

Færdigbyggede AI-modeller i Fabric (prøveversion)

Bemærk

Færdigbyggede AI-modeller er i øjeblikket tilgængelige som prøveversion og tilbydes gratis med en grænse for antallet af samtidige anmodninger pr. bruger. For Open AI-modeller er grænsen 20 anmodninger pr. minut pr. bruger.

Azure OpenAI-tjeneste

REST API, Python SDK. SynapseML

  • GPT-35-turbo: GPT-3.5-modeller kan forstå og generere naturligt sprog eller kode. Den mest effektive og omkostningseffektive model i GPT-3.5-serien er GPT-3. Indstillingen 5 Turbo, som er optimeret til chat, fungerer også godt til traditionelle fuldførelsesopgaver. Modellen gpt-35-turbo-0125 understøtter op til 16.385 inputtokens og 4.096 outputtokens.
  • gpt-4-familie: gpt-4-32k understøttes.
  • text-embedding-ada-002 (version 2), integreringsmodel, der kan bruges sammen med API-anmodninger om integrering. Det maksimale accepterede anmodningstoken er 8.191, og den returnerede vektor har dimensioner på 1.536.

Tekstanalyse

REST API, SynapseML

  • Registrering af sprog: registrerer inputtekstens sprog
  • Synspunktsanalyse: returnerer en score mellem 0 og 1 for at angive synspunktet i inputteksten
  • Udtrækning af nøglesætning: Identificerer de vigtigste talepunkter i inputteksten
  • Personidentificerbare oplysninger (PII) enhedsgenkendelse: identificer, kategoriser og rediger følsomme oplysninger i inputteksten
  • Genkendelse af navngivne objekter: identificerer kendte enheder og generelle navngivne objekter i inputteksten
  • Objektlinkning: identificerer og flertydige udtryk for identiteten af objekter, der findes i tekst

Azure AI Translator

REST API, SynapseML

  • Oversæt: Oversætter tekst
  • Transliterate: Konverterer tekst på ét sprog i ét script til et andet script.

Tilgængelige områder

Tilgængelige områder til Azure OpenAI-tjenesten

Du kan finde en liste over Azure-områder, hvor færdigbyggede AI-tjenester i Fabric nu er tilgængelige, i afsnittet Tilgængelige områder i artiklen Oversigt over Copilot i Fabric og Power BI (prøveversion).

Tilgængelige områder til Tekstanalyse og Azure AI Translator

Færdigbyggede Tekstanalyse- og Azure AI Translator- i Fabric er nu tilgængelige til offentlig prøveversion i Azure-områder, der er angivet i denne artikel. Hvis du ikke kan finde dit Microsoft Fabric-hjemmeområde i denne artikel, kan du stadig oprette en Microsoft Fabric-kapacitet i et understøttet område. Du kan finde flere oplysninger Køb et Microsoft Fabric-abonnement. Hvis du vil finde dit Fabric-hjemmeområde, skal du besøge Find dit Fabric-hjemmeområde.

Asien og Stillehavsområdet Europa Nord- og Sydamerika Mellemøsten og Afrika
Det østlige Australien Det nordlige Europa Det Sydlige Brasilien Det nordlige Sydafrika
Det sydøstlige Australien Det vestlige Europa Det centrale Canada Det nordlige Forenede Arabiske Emirater
Centralindisk Det centrale Frankrig Det østlige Canada
Østasien Det østlige Norge Østlige USA
Det østlige Japan Det nordlige Schweiz Det østlige USA 2
Det centrale Sydkorea Det vestlige Schweiz Det nordcentrale USA
Det sydøstlige Asien Det sydlige Storbritannien Det sydcentrale USA
Det sydlige Indien Det vestlige Storbritannien Det vestlige USA
Det vestlige USA 2
Det vestlige USA 3

Forbrugshastighed

Bemærk

Faktureringen af færdigbyggede AI-tjenester i Fabric trådte i kraft den 1. november 2024 som en del af din eksisterende Power BI Premium- eller Fabric Capacity.

En anmodning om færdigbyggede AI-tjenester bruger Fabric Capacity Units. Denne tabel definerer, hvor mange kapacitetsenheder (CU), der forbruges, når der bruges en AI-tjeneste.

Forbrugshastighed for OpenAI-sprogmodeller

modeller kontekst input (pr. 1.000 tokens) output (pr. 1.000 tokens)
GPT-4o-2024-08-06 Global installation 128 K 84,03 CU sekunder 336,13 CU sekunder
GPT-4 32 K 2.016,81 CU sekunder 4.033,61 CU sekunder
GPT-3.5-Turbo-0125 16.000 16,81 CU sekunder 50,42 CU sekunder

Forbrugshastighed for OpenAI-integreringsmodeller

modeller handlingsenhed Forbrugshastighed
text-embedding-ada-002 1.000 tokens 3,36 CU sekunder

Forbrugsfrekvens for tekstanalyse

handling handlingsenhed Forbrugshastighed
Registrering af sprog 1.000 tekstposter 33.613,45 CU sekunder
Synspunktsanalyse 1.000 tekstposter 33.613,45 CU sekunder
Udtrækning af nøgleudtryk 1.000 tekstposter 33.613,45 CU sekunder
Enhedsgenkendelse af personident identificerende oplysninger 1.000 tekstposter 33.613,45 CU sekunder
Navngivet enhedsgenkendelse 1.000 tekstposter 33.613,45 CU sekunder
Objektlinkning 1.000 tekstposter 33.613,45 CU sekunder
Sammendrag 1.000 tekstposter 67.226,89 CU sekunder

Forbrugshastighed for tekstoversætter

handling handlingsenhed Forbrugshastighed
Oversætte 1 mio. tegn 336.134,45 CU sekunder
Omskrivning 1 mio. tegn 336.134,45 CU sekunder

Ændringer i AI-tjenester i forbrugsfrekvensen for stof

Forbrugssatserne kan ændres når som helst. Microsoft gør en rimelig indsats for at give besked via mail eller via meddelelse i produktet. Ændringerne træder i kraft på den dato, der er angivet i Microsofts produktbemærkninger eller Microsoft Fabric-bloggen. Hvis en ændring af en AI-tjeneste i Fabric Consumption Rate væsentligt øger de kapacitetsenheder (CU), der kræves for at bruge, kan kunderne bruge de annulleringsmuligheder, der er tilgængelige for den valgte betalingsmetode.

Overvåg brugen

Den arbejdsbelastningsmåler, der er knyttet til opgaven, bestemmer gebyrerne for færdigbyggede AI-tjenester i Fabric. Hvis brug af ai-tjenester f.eks. er afledt af en Spark-arbejdsbelastning, grupperes AI-forbruget sammen og faktureres under Spark-faktureringsmåleren på Fabric Capacity Metrics-appen.

Eksempel

En ejer af en onlinebutik bruger SynapseML og Spark til at kategorisere millioner af produkter i relevante kategorier. Butiksejeren anvender i øjeblikket hard-coded logik til at rense og knytte den rå "produkttype" til kategorier. Ejeren planlægger dog at skifte til at bruge de nye oprindelige Fabric OpenAI LLM-slutpunkter (Large Language Model). Dette behandler iterativt dataene i forhold til en LLM for hver række og kategoriserer derefter produkterne baseret på deres "produktnavn", "beskrivelse", "tekniske detaljer" osv.

De forventede omkostninger ved spark-brug er 1000 CUs. De forventede omkostninger for OpenAI-brug er ca. 300 CUs.

Hvis du vil teste den nye logik, skal du først gentage den i en interaktiv Spark-notesbogkørsel. Brug "Interaktiv kørsel af notesbog" for kørselsnavnet. Ejeren forventer at se et samlet forbrug på 1300 CUs under "Interaktiv kørsel af notesbog", hvor Spark-faktureringsmåleren tegner sig for hele forbruget.

Når butiksejeren validerer logikken, konfigurerer ejeren den almindelige kørsel og forventer at se et samlet forbrug på 1300 CUs under handlingsnavnet "Spark Job Scheduled Run", hvor Spark-faktureringsmåleren tegner sig for hele forbruget.