Usługi sztucznej inteligencji w usłudze Fabric (wersja zapoznawcza)
Ważne
Ta funkcja jest dostępna w wersji zapoznawczej.
Usługi Azure AI pomagają deweloperom i organizacjom szybko tworzyć inteligentne, nowoczesne, odpowiedzialne i gotowe do wprowadzenia na rynek aplikacje za pomocą z góry przygotowanych i konfigurowalnych interfejsów API i modeli. Wcześniej nazwane Azure Cognitive Services, usługi Azure AI umożliwiają deweloperom, nawet w przypadku, gdy nie mają bezpośrednich umiejętności lub wiedzy z zakresu sztucznej inteligencji ani nauki o danych. Celem usług azure AI jest ułatwienie deweloperom tworzenia aplikacji, które mogą wyświetlać, słyszeć, mówić, rozumieć, a nawet zaczynać rozumować.
Platforma udostępnia dwie opcje korzystania z usług Azure AI.
wstępnie skompilowane modele sztucznej inteligencji w usłudze Fabric (wersja zapoznawcza)
Sieć szkieletowa bezproblemowo integruje się z usługami azure AI, umożliwiając wzbogacanie danych za pomocą wstępnie utworzonych modeli sztucznej inteligencji bez żadnych wymagań wstępnych. Zalecamy tę opcję, ponieważ możesz użyć uwierzytelniania Fabric w celu uzyskania dostępu do usług sztucznej inteligencji, a wszystkie użycia są rozliczane względem pojemności Fabric. Ta opcja jest obecnie dostępna w publicznej wersji zapoznawczej z ograniczonymi usługami sztucznej inteligencji.
Fabric oferuje Azure OpenAI Service, Analizy Tekstui Azure AI Translator domyślnie, z obsługą dla SynapseML oraz interfejsu API RESTful. Możesz również użyć biblioteki języka Python OpenAI, aby uzyskać dostęp do usługi Azure OpenAI w usłudze Fabric. Aby uzyskać więcej informacji na temat dostępnych modeli, odwiedź wstępnie utworzonych modeli sztucznej inteligencji w usłudze Fabric.
Przynieś swój własny klucz (BYOK)
Możesz aprowizować usługi sztucznej inteligencji na platformie Azure i używać ich z platformy Fabric, przynosząc własny klucz. Jeśli wstępnie utworzone modele sztucznej inteligencji nie obsługują jeszcze żądanych usług sztucznej inteligencji, nadal możesz użyć funkcji BYOK (Bring your own key).
Aby dowiedzieć się więcej o sposobie korzystania z usług azure AI z rozwiązaniem BYOK, odwiedź stronę Azure AI services in SynapseML with bring your own key (Usługi Azure AI w usłudze SynapseML z użyciem własnego klucza).
Wstępnie utworzone modele sztucznej inteligencji w usłudze Fabric (wersja zapoznawcza)
Uwaga
Wstępnie utworzone modele sztucznej inteligencji są obecnie dostępne w wersji zapoznawczej i oferowane bezpłatnie, z limitem liczby równoczesnych żądań na użytkownika. W przypadku modeli open AI limit wynosi 20 żądań na minutę na użytkownika.
Azure OpenAI Service
Interfejs API REST, zestaw PYTHON SDK. SynapseML
- GPT-35-turbo: modele GPT-3.5 mogą zrozumieć i wygenerować język naturalny lub kod. Najbardziej zdolnym i opłacalnym modelem w rodzinie GPT-3.5 jest GPT-3. Opcja
5 Turbo
, która jest zoptymalizowana pod kątem czatu, sprawdza się również w przypadku tradycyjnych zadań ukończenia. Modelgpt-35-turbo-0125
obsługuje maksymalnie 16 385 tokenów wejściowych i 4096 tokenów wyjściowych. - rodzina gpt-4:
gpt-4-32k
jest obsługiwana. - text-embedding-ada-002 (wersja 2), model osadzania, który może być używany z osadzaniem żądań interfejsu API. Maksymalny zaakceptowany token żądania wynosi 8191, a zwracany wektor ma wymiary 1536.
Analiza tekstu
Interfejs API REST, SynapseML
- Wykrywanie języka: wykrywa język tekstu wejściowego
- Analiza sentymentu: zwraca wynik z zakresu od 0 do 1, aby wskazać sentyment w tekście wejściowym
- Wyodrębnianie kluczowych fraz: identyfikuje kluczowe punkty rozmowy w tekście wejściowym
- Rozpoznawanie jednostek danych osobowych(PII): identyfikowanie, kategoryzowanie i redagowanie poufnych informacji w tekście wejściowym
- Rozpoznawanie nazwanych jednostek: identyfikuje znane jednostki i ogólne nazwane jednostki w tekście wejściowym
- Łączenie jednostek: identyfikuje i deambiguje tożsamość jednostek znalezionych w tekście
Azure AI Translator
Interfejs API REST, SynapseML
- Tłumaczenie: tłumaczy tekst
- Transliteracja: konwertuje tekst w jednym języku w jednym skrypcie na inny skrypt.
Dostępne regiony
Dostępne regiony dla usługi Azure OpenAI Service
Aby uzyskać listę regionów Azure, w których są teraz dostępne wstępnie utworzone usługi sztucznej inteligencji w Fabric, odwiedź sekcję Dostępne regiony w artykule Omówienie Copilot w Fabric i Power BI (wersja zapoznawcza).
Dostępne regiony dla analiza tekstu i usługi Azure AI Translator
Wstępnie utworzone analizy tekstu i Azure AI Translator w usłudze Fabric są teraz dostępne w publicznej wersji zapoznawczej w regionach Azure wymienionych w tym artykule. Jeśli w tym artykule nie znajdziesz swojego regionu macierzystego usługi Microsoft Fabric, nadal możesz utworzyć pojemność usługi Microsoft Fabric w obsługiwanym regionie. Aby uzyskać więcej informacji, odwiedź stronę Kup subskrypcję usługi Microsoft Fabric. Aby określić region główny usługi Fabric, odwiedź stronę Znajdź region główny usługi Fabric.
Azja i Pacyfik | Europa | Ameryka Północna i Południowa | Bliski Wschód i Afryka |
---|---|---|---|
Australia Wschodnia | Europa Północna | Brazylia Południowa | Północna Republika Południowej Afryki |
Australia Południowo-Wschodnia | West Europe | Kanada Środkowa | Północne Zjednoczone Emiraty Arabskie |
Indie Środkowe | Francja Środkowa | Kanada Wschodnia | |
Azja Wschodnia | Norwegia Wschodnia | Wschodnie stany USA | |
Japonia Wschodnia | Szwajcaria Północna | Wschodnie stany USA 2 | |
Korea Środkowa | Szwajcaria Zachodnia | Północno-środkowe stany USA | |
Southeast Asia | Południowe Zjednoczone Królestwo | South Central US | |
Indie Południowe | Zachodnie Zjednoczone Królestwo | Zachodnie stany USA | |
Zachodnie stany USA 2 | |||
Zachodnie stany USA 3 |
Wskaźnik zużycia
Uwaga
Rozliczenia wstępnie utworzonych usług sztucznej inteligencji w usłudze Fabric stały się obowiązujące 1 listopada 2024 r. w ramach istniejącej pojemności usługi Power BI Premium lub sieci szkieletowej.
Żądanie gotowych usług sztucznej inteligencji zużywa jednostki pojemności Fabric. W tej tabeli zdefiniowano, ile jednostek pojemności (CU) jest używanych podczas korzystania z usługi sztucznej inteligencji.
Wskaźnik zużycia dla modeli językowych OpenAI
Modele | kontekst | Dane wejściowe (na 1000 tokenów) | Wydajność (na 1000 tokenów) |
---|---|---|---|
Wdrożenie globalne GPT-4o-2024-08-06 | 128 K | 84,03 CU sekundy | 336,13 CU sek |
GPT-4 | 32 K | 2.016,81 CU seconds | 4033,61 CU s |
GPT-3.5-Turbo-0125 | 16K | 16,81 CU sekund | 50,42 CU sekundy |
Wskaźnik zużycia dla modeli osadzania OpenAI
modele | jednostka miary operacji | szybkość konsumpcji |
---|---|---|
text-embedding-ada-002 | 1000 tokenów | 3,36 CU sekundy |
Wskaźnik zużycia w analizie tekstowej
operacja | jednostka miary operacyjnej | wskaźnik zużycia |
---|---|---|
Wykrywanie języka | 1000 rekordów tekstowych | 33 613,45 CU sekundy |
Analiza sentimentu | 1000 rekordów tekstowych | 33 613,45 CU sekund |
Wyodrębnianie kluczowych fraz | 1000 rekordów tekstowych | 33 613,45 jednostek CU sekund |
Rozpoznawanie jednostek informacji osobistych | 1000 rekordów tekstowych | 33 613,45 sekundy CU |
Rozpoznawanie nazwanych jednostek | 1000 rekordów tekstowych | 33 613,45 CU sekund |
Łączenie jednostek | 1000 rekordów tekstowych | 33 613,45 CU sekundy |
Podsumowania | 1000 rekordów tekstowych | 67 226,89 CU sekundy |
Wskaźnik zużycia dla Text Translator
operacji | jednostka miary operacyjnej | szybkości użycia |
---|---|---|
Przetłumacz | 1 mln znaków | 336 134,45 CU sekund |
Transliteracja | 1 mln znaków | 336 134,45 CU sekund |
Zmiany w usługach sztucznej inteligencji w tempie zużycia sieci szkieletowej
Stawki zużycia mogą ulec zmianie w dowolnym momencie. Firma Microsoft podejmuje uzasadnione wysiłki, aby powiadomić za pośrednictwem poczty e-mail lub w ramach produktu. Zmiany obowiązują w dniu określonym w informacjach o wersji firmy Microsoft lub blogu usługi Microsoft Fabric. Jeśli jakakolwiek zmiana usługi sztucznej inteligencji w współczynniku zużycia sieci szkieletowej znacznie zwiększy liczbę jednostek pojemności (CU) wymaganych do użycia, klienci mogą skorzystać z opcji anulowania dostępnych dla wybranej formy płatności.
Monitorowanie użycia
Miernik obciążenia skojarzony z zadaniem określa opłaty za wstępnie utworzone usługi sztucznej inteligencji w usłudze Fabric. Jeśli na przykład użycie usługi sztucznej inteligencji pochodzi z obciążenia platformy Spark, użycie sztucznej inteligencji jest grupowane razem i rozliczane w ramach miernika rozliczeniowego platformy Spark w aplikacji Fabric Capacity Metrics.
Przykład
Właściciel sklepu internetowego używa usług SynapseML i Spark do kategoryzowania milionów produktów w odpowiednich kategoriach. Obecnie właściciel sklepu stosuje ustaloną logikę do czyszczenia i mapowania nieprzetworzonego "typu produktu" do kategorii. Jednak właściciel planuje przełączyć się na korzystanie z nowych natywnych punktów końcowych OpenAI LLM (Duży Model Językowy). Ta iteracyjna metoda przetwarza dane względem modelu LLM dla każdego rekordu, a następnie klasyfikuje produkty na podstawie ich "nazwy produktu", "opisu", "szczegółów technicznych" itd.
Oczekiwany koszt użycia platformy Spark wynosi 1000 jednostek CU. Oczekiwany koszt użycia OpenAI wynosi około 300 CU.
Aby przetestować nową logikę, najpierw iteruj ją w interaktywnym uruchomieniu notesu platformy Spark. Jako nazwę operacji przebiegu użyj "Notebook Interactive Run". Właściciel spodziewa się, że będzie widoczne łączne użycie 1300 jednostek CU pod nazwą "Notebook Interactive Run", a miernik rozliczeniowy Spark uwzględni całe to użycie.
Gdy właściciel sklepu zweryfikuje logikę, właściciel skonfiguruje regularne wykonywanie i spodziewa się zobaczyć całkowite zużycie 1300 jednostek obliczeniowych pod nazwą operacji "Zaplanowane uruchomienie zadania platformy Spark", przy czym licznik rozliczeniowy platformy Spark obejmuje całe zużycie.