Udostępnij za pośrednictwem


Usługi sztucznej inteligencji w usłudze Fabric (wersja zapoznawcza)

Ważne

Ta funkcja jest dostępna w wersji zapoznawczej.

Usługi Azure AI pomagają deweloperom i organizacjom szybko tworzyć inteligentne, nowoczesne, odpowiedzialne i gotowe do wprowadzenia na rynek aplikacje za pomocą z góry przygotowanych i konfigurowalnych interfejsów API i modeli. Wcześniej nazwane Azure Cognitive Services, usługi Azure AI umożliwiają deweloperom, nawet w przypadku, gdy nie mają bezpośrednich umiejętności lub wiedzy z zakresu sztucznej inteligencji ani nauki o danych. Celem usług azure AI jest ułatwienie deweloperom tworzenia aplikacji, które mogą wyświetlać, słyszeć, mówić, rozumieć, a nawet zaczynać rozumować.

Platforma udostępnia dwie opcje korzystania z usług Azure AI.

  • wstępnie skompilowane modele sztucznej inteligencji w usłudze Fabric (wersja zapoznawcza)

    Sieć szkieletowa bezproblemowo integruje się z usługami azure AI, umożliwiając wzbogacanie danych za pomocą wstępnie utworzonych modeli sztucznej inteligencji bez żadnych wymagań wstępnych. Zalecamy tę opcję, ponieważ możesz użyć uwierzytelniania Fabric w celu uzyskania dostępu do usług sztucznej inteligencji, a wszystkie użycia są rozliczane względem pojemności Fabric. Ta opcja jest obecnie dostępna w publicznej wersji zapoznawczej z ograniczonymi usługami sztucznej inteligencji.

    Fabric oferuje Azure OpenAI Service, Analizy Tekstui Azure AI Translator domyślnie, z obsługą dla SynapseML oraz interfejsu API RESTful. Możesz również użyć biblioteki języka Python OpenAI, aby uzyskać dostęp do usługi Azure OpenAI w usłudze Fabric. Aby uzyskać więcej informacji na temat dostępnych modeli, odwiedź wstępnie utworzonych modeli sztucznej inteligencji w usłudze Fabric.

  • Przynieś swój własny klucz (BYOK)

    Możesz aprowizować usługi sztucznej inteligencji na platformie Azure i używać ich z platformy Fabric, przynosząc własny klucz. Jeśli wstępnie utworzone modele sztucznej inteligencji nie obsługują jeszcze żądanych usług sztucznej inteligencji, nadal możesz użyć funkcji BYOK (Bring your own key).

    Aby dowiedzieć się więcej o sposobie korzystania z usług azure AI z rozwiązaniem BYOK, odwiedź stronę Azure AI services in SynapseML with bring your own key (Usługi Azure AI w usłudze SynapseML z użyciem własnego klucza).

Wstępnie utworzone modele sztucznej inteligencji w usłudze Fabric (wersja zapoznawcza)

Uwaga

Wstępnie utworzone modele sztucznej inteligencji są obecnie dostępne w wersji zapoznawczej i oferowane bezpłatnie, z limitem liczby równoczesnych żądań na użytkownika. W przypadku modeli open AI limit wynosi 20 żądań na minutę na użytkownika.

Azure OpenAI Service

Interfejs API REST, zestaw PYTHON SDK. SynapseML

  • GPT-35-turbo: modele GPT-3.5 mogą zrozumieć i wygenerować język naturalny lub kod. Najbardziej zdolnym i opłacalnym modelem w rodzinie GPT-3.5 jest GPT-3. Opcja 5 Turbo, która jest zoptymalizowana pod kątem czatu, sprawdza się również w przypadku tradycyjnych zadań ukończenia. Model gpt-35-turbo-0125 obsługuje maksymalnie 16 385 tokenów wejściowych i 4096 tokenów wyjściowych.
  • rodzina gpt-4: gpt-4-32k jest obsługiwana.
  • text-embedding-ada-002 (wersja 2), model osadzania, który może być używany z osadzaniem żądań interfejsu API. Maksymalny zaakceptowany token żądania wynosi 8191, a zwracany wektor ma wymiary 1536.

Analiza tekstu

Interfejs API REST, SynapseML

  • Wykrywanie języka: wykrywa język tekstu wejściowego
  • Analiza sentymentu: zwraca wynik z zakresu od 0 do 1, aby wskazać sentyment w tekście wejściowym
  • Wyodrębnianie kluczowych fraz: identyfikuje kluczowe punkty rozmowy w tekście wejściowym
  • Rozpoznawanie jednostek danych osobowych(PII): identyfikowanie, kategoryzowanie i redagowanie poufnych informacji w tekście wejściowym
  • Rozpoznawanie nazwanych jednostek: identyfikuje znane jednostki i ogólne nazwane jednostki w tekście wejściowym
  • Łączenie jednostek: identyfikuje i deambiguje tożsamość jednostek znalezionych w tekście

Azure AI Translator

Interfejs API REST, SynapseML

  • Tłumaczenie: tłumaczy tekst
  • Transliteracja: konwertuje tekst w jednym języku w jednym skrypcie na inny skrypt.

Dostępne regiony

Dostępne regiony dla usługi Azure OpenAI Service

Aby uzyskać listę regionów Azure, w których są teraz dostępne wstępnie utworzone usługi sztucznej inteligencji w Fabric, odwiedź sekcję Dostępne regiony w artykule Omówienie Copilot w Fabric i Power BI (wersja zapoznawcza).

Dostępne regiony dla analiza tekstu i usługi Azure AI Translator

Wstępnie utworzone analizy tekstu i Azure AI Translator w usłudze Fabric są teraz dostępne w publicznej wersji zapoznawczej w regionach Azure wymienionych w tym artykule. Jeśli w tym artykule nie znajdziesz swojego regionu macierzystego usługi Microsoft Fabric, nadal możesz utworzyć pojemność usługi Microsoft Fabric w obsługiwanym regionie. Aby uzyskać więcej informacji, odwiedź stronę Kup subskrypcję usługi Microsoft Fabric. Aby określić region główny usługi Fabric, odwiedź stronę Znajdź region główny usługi Fabric.

Azja i Pacyfik Europa Ameryka Północna i Południowa Bliski Wschód i Afryka
Australia Wschodnia Europa Północna Brazylia Południowa Północna Republika Południowej Afryki
Australia Południowo-Wschodnia West Europe Kanada Środkowa Północne Zjednoczone Emiraty Arabskie
Indie Środkowe Francja Środkowa Kanada Wschodnia
Azja Wschodnia Norwegia Wschodnia Wschodnie stany USA
Japonia Wschodnia Szwajcaria Północna Wschodnie stany USA 2
Korea Środkowa Szwajcaria Zachodnia Północno-środkowe stany USA
Southeast Asia Południowe Zjednoczone Królestwo South Central US
Indie Południowe Zachodnie Zjednoczone Królestwo Zachodnie stany USA
Zachodnie stany USA 2
Zachodnie stany USA 3

Wskaźnik zużycia

Uwaga

Rozliczenia wstępnie utworzonych usług sztucznej inteligencji w usłudze Fabric stały się obowiązujące 1 listopada 2024 r. w ramach istniejącej pojemności usługi Power BI Premium lub sieci szkieletowej.

Żądanie gotowych usług sztucznej inteligencji zużywa jednostki pojemności Fabric. W tej tabeli zdefiniowano, ile jednostek pojemności (CU) jest używanych podczas korzystania z usługi sztucznej inteligencji.

Wskaźnik zużycia dla modeli językowych OpenAI

Modele kontekst Dane wejściowe (na 1000 tokenów) Wydajność (na 1000 tokenów)
Wdrożenie globalne GPT-4o-2024-08-06 128 K 84,03 CU sekundy 336,13 CU sek
GPT-4 32 K 2.016,81 CU seconds 4033,61 CU s
GPT-3.5-Turbo-0125 16K 16,81 CU sekund 50,42 CU sekundy

Wskaźnik zużycia dla modeli osadzania OpenAI

modele jednostka miary operacji szybkość konsumpcji
text-embedding-ada-002 1000 tokenów 3,36 CU sekundy

Wskaźnik zużycia w analizie tekstowej

operacja jednostka miary operacyjnej wskaźnik zużycia
Wykrywanie języka 1000 rekordów tekstowych 33 613,45 CU sekundy
Analiza sentimentu 1000 rekordów tekstowych 33 613,45 CU sekund
Wyodrębnianie kluczowych fraz 1000 rekordów tekstowych 33 613,45 jednostek CU sekund
Rozpoznawanie jednostek informacji osobistych 1000 rekordów tekstowych 33 613,45 sekundy CU
Rozpoznawanie nazwanych jednostek 1000 rekordów tekstowych 33 613,45 CU sekund
Łączenie jednostek 1000 rekordów tekstowych 33 613,45 CU sekundy
Podsumowania 1000 rekordów tekstowych 67 226,89 CU sekundy

Wskaźnik zużycia dla Text Translator

operacji jednostka miary operacyjnej szybkości użycia
Przetłumacz 1 mln znaków 336 134,45 CU sekund
Transliteracja 1 mln znaków 336 134,45 CU sekund

Zmiany w usługach sztucznej inteligencji w tempie zużycia sieci szkieletowej

Stawki zużycia mogą ulec zmianie w dowolnym momencie. Firma Microsoft podejmuje uzasadnione wysiłki, aby powiadomić za pośrednictwem poczty e-mail lub w ramach produktu. Zmiany obowiązują w dniu określonym w informacjach o wersji firmy Microsoft lub blogu usługi Microsoft Fabric. Jeśli jakakolwiek zmiana usługi sztucznej inteligencji w współczynniku zużycia sieci szkieletowej znacznie zwiększy liczbę jednostek pojemności (CU) wymaganych do użycia, klienci mogą skorzystać z opcji anulowania dostępnych dla wybranej formy płatności.

Monitorowanie użycia

Miernik obciążenia skojarzony z zadaniem określa opłaty za wstępnie utworzone usługi sztucznej inteligencji w usłudze Fabric. Jeśli na przykład użycie usługi sztucznej inteligencji pochodzi z obciążenia platformy Spark, użycie sztucznej inteligencji jest grupowane razem i rozliczane w ramach miernika rozliczeniowego platformy Spark w aplikacji Fabric Capacity Metrics.

Przykład

Właściciel sklepu internetowego używa usług SynapseML i Spark do kategoryzowania milionów produktów w odpowiednich kategoriach. Obecnie właściciel sklepu stosuje ustaloną logikę do czyszczenia i mapowania nieprzetworzonego "typu produktu" do kategorii. Jednak właściciel planuje przełączyć się na korzystanie z nowych natywnych punktów końcowych OpenAI LLM (Duży Model Językowy). Ta iteracyjna metoda przetwarza dane względem modelu LLM dla każdego rekordu, a następnie klasyfikuje produkty na podstawie ich "nazwy produktu", "opisu", "szczegółów technicznych" itd.

Oczekiwany koszt użycia platformy Spark wynosi 1000 jednostek CU. Oczekiwany koszt użycia OpenAI wynosi około 300 CU.

Aby przetestować nową logikę, najpierw iteruj ją w interaktywnym uruchomieniu notesu platformy Spark. Jako nazwę operacji przebiegu użyj "Notebook Interactive Run". Właściciel spodziewa się, że będzie widoczne łączne użycie 1300 jednostek CU pod nazwą "Notebook Interactive Run", a miernik rozliczeniowy Spark uwzględni całe to użycie.

Gdy właściciel sklepu zweryfikuje logikę, właściciel skonfiguruje regularne wykonywanie i spodziewa się zobaczyć całkowite zużycie 1300 jednostek obliczeniowych pod nazwą operacji "Zaplanowane uruchomienie zadania platformy Spark", przy czym licznik rozliczeniowy platformy Spark obejmuje całe zużycie.