Jak wdrożyć modele usługi Azure OpenAI za pomocą rozwiązania Azure AI Foundry
Ważne
Elementy oznaczone (wersja zapoznawcza) w tym artykule są obecnie dostępne w publicznej wersji zapoznawczej. Ta wersja zapoznawcza jest udostępniana bez umowy dotyczącej poziomu usług i nie zalecamy korzystania z niej w przypadku obciążeń produkcyjnych. Niektóre funkcje mogą być nieobsługiwane lub ograniczone. Aby uzyskać więcej informacji, zobacz Uzupełniające warunki korzystania z wersji zapoznawczych platformy Microsoft Azure.
Z tego artykułu dowiesz się, jak tworzyć wdrożenia modeli usługi Azure OpenAI w portalu usługi Azure AI Foundry.
Usługa Azure OpenAI Service oferuje zróżnicowany zestaw modeli z różnymi możliwościami i punktami cenowymi. Podczas wdrażania modeli usługi Azure OpenAI w portalu Azure AI Foundry można korzystać z wdrożeń przy użyciu przepływu monitu lub innego narzędzia. Dostępność różni się w zależności od regionu Aby dowiedzieć się więcej na temat szczegółów poszczególnych modeli, zobacz Modele usługi Azure OpenAI.
Aby zmodyfikować model usługi Azure OpenAI i wchodzić w interakcje z nim na placu zabaw rozwiązania Azure AI Foundry , najpierw musisz wdrożyć podstawowy model usługi Azure OpenAI w projekcie. Po wdrożeniu modelu i udostępnieniu go w projekcie możesz korzystać z jego punktu końcowego interfejsu API REST w miarę działania lub dostosowywać się do własnych danych i innych składników (osadzanie, indeksy i inne).
Wymagania wstępne
Subskrypcja platformy Azure z prawidłową formą płatności. Subskrypcje platformy Azure w wersji bezpłatnej lub próbnej nie będą działać. Jeśli nie masz subskrypcji platformy Azure, utwórz płatne konto platformy Azure, aby rozpocząć.
Projekt usługi Azure AI Foundry.
Wdrażanie modelu usługi Azure OpenAI z katalogu modeli
Wykonaj poniższe kroki, aby wdrożyć model usługi Azure OpenAI, taki jak gpt-4o-mini
w punkcie końcowym czasu rzeczywistego z katalogu modeli portalu Azure AI Foundry:
- Zaloguj się do usługi Azure AI Foundry.
- Jeśli nie jesteś jeszcze w projekcie, wybierz go.
- Wybierz pozycję Katalog modeli w okienku nawigacji po lewej stronie.
W filtrze Kolekcje wybierz pozycję Azure OpenAI.
Wybierz model, taki jak
gpt-4o-mini
z kolekcji Azure OpenAI.Wybierz pozycję Wdróż , aby otworzyć okno wdrażania.
Wybierz zasób, do którego chcesz wdrożyć model. Jeśli nie masz zasobu, możesz go utworzyć.
Określ nazwę wdrożenia i zmodyfikuj inne ustawienia domyślne w zależności od wymagań.
Wybierz Wdróż.
Zostanie wyświetlona strona szczegółów wdrożenia. Wybierz pozycję Otwórz na placu zabaw.
Wybierz pozycję Wyświetl kod , aby uzyskać przykłady kodu, których można użyć do korzystania z wdrożonego modelu w aplikacji.
Wdrażanie modelu usługi Azure OpenAI z projektu
Możesz też zainicjować wdrożenie, zaczynając od projektu w portalu usługi Azure AI Foundry.
- Przejdź do projektu w portalu usługi Azure AI Foundry.
- Na lewym pasku bocznym projektu przejdź do pozycji Moje zasoby>Modele i punkty końcowe.
- Wybierz pozycję + Wdróż model Wdróż model> podstawowy.
- W filtrze Kolekcje wybierz pozycję Azure OpenAI.
- Wybierz model, taki jak
gpt-4o-mini
z kolekcji Azure OpenAI. - Wybierz pozycję Potwierdź , aby otworzyć okno wdrażania.
- Określ nazwę wdrożenia i zmodyfikuj inne ustawienia domyślne w zależności od wymagań.
- Wybierz Wdróż.
- Zostanie wyświetlona strona szczegółów wdrożenia. Wybierz pozycję Otwórz na placu zabaw.
- Wybierz pozycję Wyświetl kod , aby uzyskać przykłady kodu, których można użyć do korzystania z wdrożonego modelu w aplikacji.
Wnioskowanie modelu usługi Azure OpenAI
Aby przeprowadzić wnioskowanie na wdrożonym modelu, możesz użyć przykładów dla środowiska zabaw lub kodu. Plac zabaw to internetowy interfejs, który umożliwia interakcję z modelem w czasie rzeczywistym. Za pomocą placu zabaw możesz przetestować model z różnymi monitami i zobaczyć odpowiedzi modelu.
Aby uzyskać więcej przykładów korzystania z wdrożonego modelu w aplikacji, zobacz następujące przewodniki Szybki start dotyczące usługi Azure OpenAI:
- Wprowadzenie do asystentów i interpretera kodu na placu zabaw
- Przewodnik Szybki start dotyczący czatu
Regionalne limity dostępności i limitów przydziału modelu
W przypadku modeli usługi Azure OpenAI domyślny limit przydziału dla modeli różni się w zależności od modelu i regionu. Niektóre modele mogą być dostępne tylko w niektórych regionach. Aby uzyskać więcej informacji na temat limitów dostępności i limitów przydziału, zobacz Limity przydziału i limity usługi Azure OpenAI.
Limit przydziału wdrażania i wnioskowania modelu
W przypadku modeli usługi Azure OpenAI wdrażanie i wnioskowanie o użyciu limitu przydziału przypisanego do subskrypcji w poszczególnych regionach w jednostkach tokenów na minutę (TPM). Po zarejestrowaniu się w usłudze Azure AI Foundry otrzymujesz domyślny limit przydziału dla większości dostępnych modeli. Następnie przypisujesz moduł TPM do każdego wdrożenia podczas jego tworzenia, zmniejszając w ten sposób dostępny limit przydziału dla tego modelu według przypisanej kwoty. Możesz nadal tworzyć wdrożenia i przypisywać je moduły TPM do momentu osiągnięcia limitu przydziału.
Po osiągnięciu limitu przydziału jedynym sposobem utworzenia nowych wdrożeń tego modelu jest:
- Zażądaj większego limitu przydziału, przesyłając formularz wniosku o zwiększenie limitu przydziału.
- Dostosuj przydzielony limit przydziału dla innych wdrożeń modelu, aby zwolnić tokeny dla nowych wdrożeń w portalu Azure OpenAI.
Aby dowiedzieć się więcej na temat limitu przydziału, zobacz Limit przydziału usługi Azure AI Foundry i Zarządzanie limitem przydziału usługi Azure OpenAI.
Powiązana zawartość
- Dowiedz się więcej o tym, co można zrobić w usłudze Azure AI Foundry
- Uzyskaj odpowiedzi na często zadawane pytania w artykule Azure AI FAQ (Często zadawane pytania dotyczące sztucznej inteligencji platformy Azure)