Udostępnij za pośrednictwem


Co to jest usługa Azure OpenAI?

Usługa Azure OpenAI Service zapewnia dostęp interfejsu API REST do zaawansowanych modeli językowych openAI, w tym o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo z serii vision, GPT-4, GPT-3.5-Turbo i Embeddings. Modele te można łatwo dostosować do konkretnego zadania, w tym między innymi generowania zawartości, podsumowywania, interpretacji obrazów, wyszukiwania semantycznego i języka naturalnego do tłumaczenia kodu. Użytkownicy mogą uzyskiwać dostęp do usługi za pośrednictwem interfejsów API REST, zestawu PYTHON SDK lub programu Azure AI Studio.

Omówienie funkcji

Funkcja Azure OpenAI
Dostępne modele o1-preview i o1-mini - (ograniczony dostęp — żądanie dostępu)
GPT-4o i GPT-4o mini
Seria GPT-4 (w tym GPT-4 Turbo z wizją)
Seria GPT-3.5-Turbo
Serie osadzania
Dowiedz się więcej na naszej stronie Modele .
Dostrajanie GPT-4o-mini (wersja zapoznawcza)
GPT-4 (wersja zapoznawcza)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Cena Dostępne tutaj
Aby uzyskać szczegółowe informacje na temat GPT-4 Turbo z usługą Vision, zobacz specjalne informacje o cenach.
Obsługa sieci wirtualnej i łącza prywatnego Tak.
Tożsamość zarządzana Tak, za pośrednictwem identyfikatora Entra firmy Microsoft
Środowisko interfejsu użytkownika Witryna Azure Portal do zarządzania kontami i zasobami,
Azure AI Studio na potrzeby eksploracji modeli i dostrajania
Dostępność regionalna modelu Dostępność modelu
Filtrowanie zawartości Monity i zakończenia są oceniane względem naszych zasad zawartości za pomocą zautomatyzowanych systemów. Zawartość o wysokiej ważności jest filtrowana.

Odpowiedzialne AI

W firmie Microsoft jesteśmy zobowiązani do rozwoju sztucznej inteligencji opartej na zasadach, które stawiają ludzi na pierwszym miejscu. Modele generowania, takie jak te dostępne w usłudze Azure OpenAI, mają znaczące potencjalne korzyści, ale bez starannego projektowania i przemyślanych środków zaradczych takie modele mogą generować niepoprawną, a nawet szkodliwą zawartość. Firma Microsoft poczyniła znaczne inwestycje w ochronę przed nadużyciami i niezamierzoną szkodą, która obejmuje uwzględnienie zasad firmy Microsoft dotyczących odpowiedzialnego używania sztucznej inteligencji, przyjęcie kodeksu postępowania w celu korzystania z usługi, tworzenie filtrów zawartości do obsługi klientów oraz dostarczanie odpowiedzialnych informacji i wskazówek , które klienci powinni wziąć pod uwagę podczas korzystania z usługi Azure OpenAI.

Rozpoczynanie pracy z usługą Azure OpenAI Service

Aby rozpocząć pracę z usługą Azure OpenAI Service, musisz utworzyć zasób usługi Azure OpenAI Service w ramach subskrypcji platformy Azure.

Rozpocznij od przewodnika Tworzenie i wdrażanie zasobu usługi Azure OpenAI Service.

  1. Zasób można utworzyć za pomocą witryny Azure Portal, interfejsu wiersza polecenia platformy Azure lub programu Azure PowerShell.

  2. Jeśli masz zasób usługi Azure OpenAI Service, możesz wdrożyć model, taki jak GPT-4o.

  3. Po wdrożeniu modelu można wykonywać następujące czynności:

    • Wypróbuj place zabaw usługi Azure AI Studio, aby zapoznać się z możliwościami modeli.
    • Możesz również rozpocząć wykonywanie wywołań interfejsu API do usługi przy użyciu interfejsu API REST lub zestawów SDK.

    Możesz na przykład wypróbować dźwięk i asystentów w czasie rzeczywistym na placach zabaw lub za pomocą kodu.

Uwaga

Formularz rejestracji ograniczony dostęp jest wymagany do uzyskania dostępu do niektórych modeli lub funkcji usługi Azure OpenAI Service. Dowiedz się więcej na stronie Azure OpenAI Limited Access ( Ograniczony dostęp do usługi Azure OpenAI).

Porównanie usług Azure OpenAI i OpenAI

Usługa Azure OpenAI Service zapewnia klientom zaawansowaną sztuczną inteligencję języka za pomocą biblioteki OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper i zamiany tekstu na modele mowy przy użyciu zabezpieczeń i obietnicy dla przedsiębiorstw platformy Azure. Usługa Azure OpenAI współtworzy interfejsy API za pomocą interfejsu OpenAI, zapewniając zgodność i bezproblemowe przejście z jednego do drugiego.

Dzięki usłudze Azure OpenAI klienci uzyskują możliwości zabezpieczeń platformy Microsoft Azure podczas uruchamiania tych samych modeli co openAI. Usługa Azure OpenAI oferuje prywatną sieć, dostępność regionalną i odpowiedzialne filtrowanie zawartości sztucznej inteligencji.

Najważniejsze pojęcia

Monity i uzupełnienia

Punkt końcowy uzupełniania jest podstawowym składnikiem usługi interfejsu API. Ten interfejs API zapewnia dostęp do interfejsu tekstowego i wychodzącego modelu. Użytkownicy muszą po prostu podać wiersz wejściowy zawierający polecenie tekstowe w języku angielskim, a model generuje uzupełnianie tekstu.

Oto przykład prostego monitu i ukończenia:

Monituj: """ count to 5 in a for loop """

Ukończenie: for i in range(1, 6): print(i)

Tokeny

Tokeny tekstowe

Usługa Azure OpenAI przetwarza tekst, dzieląc go na tokeny. Tokeny mogą być wyrazami lub tylko grupami znaków. Na przykład słowo "hamburger" zostaje podzielone na tokeny "ham", "bur" i "ger", podczas gdy krótkie i typowe słowo, takie jak "pear" jest pojedynczym tokenem. Wiele tokenów zaczyna się od białych znaków, na przykład "hello" i "bye".

Łączna liczba tokenów przetworzonych w danym żądaniu zależy od długości parametrów wejściowych, wyjściowych i żądań. Ilość przetwarzanych tokenów wpłynie również na opóźnienie odpowiedzi i przepływność modeli.

Tokeny obrazów

Możliwości przetwarzania obrazów w usłudze Azure OpenAI za pomocą bibliotekI GPT-4o, GPT-4o mini i GPT-4 Turbo z modelami przetwarzania obrazów używają tokenizacji obrazów w celu określenia całkowitej liczby tokenów używanych przez dane wejściowe obrazu. Liczba użytych tokenów jest obliczana na podstawie dwóch głównych czynników: poziomu szczegółów obrazu (niski lub wysoki) i wymiarów obrazu. Oto jak są obliczane koszty tokenów:

  • Tryb niskiej rozdzielczości
    • Niski poziom szczegółowości umożliwia interfejsowi API szybsze zwracanie odpowiedzi dla scenariuszy, które nie wymagają analizy wysokiej rozdzielczości obrazów. Tokeny używane dla obrazów o niskich szczegółach to:
      • GPT-4o i GPT-4 Turbo z wizją: Płaska szybkość 85 tokenów na obraz, niezależnie od rozmiaru.
      • GPT-4o mini: Płaska stawka 2833 tokenów na obraz, niezależnie od rozmiaru.
    • Przykład: obraz 4096 x 8192 (niski poziom szczegółowości): Koszt to stałe 85 tokenów z GPT-4o, ponieważ jest to obraz o niskim poziomie szczegółowości, a rozmiar nie wpływa na koszt w tym trybie.
  • Tryb wysokiej rozdzielczości
    • Wysoki poziom szczegółowości umożliwia interfejsowi API bardziej szczegółowe analizowanie obrazów. Tokeny obrazów są obliczane na podstawie wymiarów obrazu. Obliczenie obejmuje następujące kroki:
      1. Zmiana rozmiaru obrazu: rozmiar obrazu jest zmieniany tak, aby mieścił się w kwadracie o rozmiarze 2048 x 2048 pikseli. Jeśli najkrótsza strona jest większa niż 768 pikseli, obraz jest dodatkowo zmieniany, tak aby najkrótsza strona wynosi 768 pikseli. Współczynnik proporcji jest zachowywany podczas zmiany rozmiaru.
      2. Obliczenie kafelka: po zmianie rozmiaru obraz jest podzielony na 512 x 512 pikseli kafelków. Wszystkie częściowe kafelki są zaokrąglane do pełnego kafelka. Liczba kafelków określa całkowity koszt tokenu.
      3. Obliczanie tokenu:
        • GPT-4o i GPT-4 Turbo z funkcją Vision: każdy kafelek 512 x 512 pikseli kosztuje 170 tokenów. Do sumy są dodawane dodatkowe 85 tokenów podstawowych.
        • GPT-4o mini: każdy kafelek 512 x 512 pikseli kosztuje 5667 tokenów. Dodatkowe tokeny podstawowe 2833 są dodawane do sumy.
    • Przykład: obraz 2048 x 4096 (wysoki poziom szczegółowości)::
      1. Rozmiar obrazu jest początkowo zmieniany na 1024 x 2048 pikseli w celu dopasowania do kwadratu 2048 x 2048 pikseli.
      2. Rozmiar obrazu jest dodatkowo zmieniany na 768 x 1536 pikseli, aby upewnić się, że najkrótsza strona wynosi maksymalnie 768 pikseli.
      3. Obraz jest podzielony na 2 x 3 kafelki, każdy 512 x 512 pikseli.
      4. Końcowe obliczenie:
        • W przypadku GPT-4o i GPT-4 Turbo z usługą Vision całkowity koszt tokenu wynosi 6 kafelków x 170 tokenów na kafelek + 85 tokenów podstawowych = 1105 tokenów.
        • W przypadku GPT-4o mini całkowity koszt tokenu wynosi 6 kafelków x 5667 tokenów na kafelek + 2833 tokeny podstawowe = 36835 tokenów.

Zasoby

Azure OpenAI to nowa oferta produktu na platformie Azure. Możesz rozpocząć pracę z usługą Azure OpenAI tak samo jak każdy inny produkt platformy Azure, w którym tworzysz zasób lub wystąpienie usługi, w ramach subskrypcji platformy Azure. Więcej informacji na temat projektowania zarządzania zasobami platformy Azure można przeczytać.

Wdrożenia

Po utworzeniu zasobu usługi Azure OpenAI należy wdrożyć model, zanim będzie można rozpocząć wykonywanie wywołań interfejsu API i generowanie tekstu. Tę akcję można wykonać przy użyciu interfejsów API wdrażania. Te interfejsy API umożliwiają określenie modelu, którego chcesz użyć.

Inżynieria poleceń

Modele GPT-3, GPT-3.5 i GPT-4 z platformy OpenAI są oparte na monitach. W przypadku modeli opartych na poleceniach użytkownik wchodzi w interakcję z modelem, wprowadzając polecenie tekstowe, na które model odpowiada przez uzupełnienie tekstu. To uzupełnianie jest kontynuacją modelu tekstu wejściowego.

Chociaż te modele są zaawansowane, ich zachowanie jest również wrażliwe na monit. Dzięki temu inżynieria jest ważną umiejętnością do opracowania.

Budowa monitów może być trudna. W praktyce monituje o skonfigurowanie wag modelu w celu ukończenia żądanego zadania, ale jest to bardziej sztuka niż nauka, często wymagając doświadczenia i intuicji, aby stworzyć udany monit.

Modele

Usługa zapewnia użytkownikom dostęp do kilku różnych modeli. Każdy model zapewnia inną możliwość i punkt cenowy.

Modele DALL-E (niektóre w wersji zapoznawczej; zobacz modele) generują obrazy na podstawie monitów tekstowych, które udostępnia użytkownik.

Modele Szeptu mogą służyć do transkrypcji i tłumaczenia mowy na tekst.

Modele zamiany tekstu na mowę, obecnie w wersji zapoznawczej, mogą służyć do syntezowania tekstu na mowę.

Dowiedz się więcej o każdym modelu na naszej stronie koncepcji modeli.

Następne kroki

Dowiedz się więcej o modelach bazowych, które zasilają usługę Azure OpenAI.