Uaktualnianie z modeli GitHub do usługi wnioskowania modelu AI platformy Azure
Jeśli chcesz opracować generowanie aplikacji sztucznej inteligencji, możesz bezpłatnie znaleźć i eksperymentować z modelami sztucznej inteligencji za pomocą modeli GitHub . Użycie platformy zabaw i bezpłatnego interfejsu API jest ograniczone przez żądania na minutę, żądania dziennie, tokeny na żądanie i żądania współbieżne. Jeśli szybkość jest ograniczona, musisz poczekać na osiągnięcie limitu szybkości, aby zresetować, zanim będzie można wysyłać więcej żądań.
Gdy wszystko będzie gotowe do przełączenia aplikacji do środowiska produkcyjnego, możesz uaktualnić środowisko, wdrażając zasób usług Azure AI Services w subskrypcji platformy Azure i rozpoczynając korzystanie z usługi wnioskowania modelu AI platformy Azure. Nie musisz zmieniać niczego innego w kodzie.
W poniższym artykule wyjaśniono, jak rozpocząć pracę z modeli GitHub w modelach sztucznej inteligencji platformy Azure dla usług Azure AI.
Wymagania wstępne
Do ukończenia tego samouczka niezbędne są następujące elementy:
Konto usługi GitHub z dostępem do modeli GitHub.
Subskrypcja Azure. Jeśli go nie masz, zostanie wyświetlony monit o utworzenie lub zaktualizowanie konta platformy Azure do konta z płatnością zgodnie z rzeczywistym użyciem, gdy wszystko będzie gotowe do wdrożenia modelu w środowisku produkcyjnym.
Uaktualnianie do usług Azure AI
Limity szybkości dla środowiska zabaw i bezpłatnego użycia interfejsu API mają ułatwić eksperymentowanie z modelami i opracowywanie aplikacji sztucznej inteligencji. Gdy wszystko będzie gotowe do przeniesienia aplikacji do środowiska produkcyjnego, użyj klucza i punktu końcowego z płatnego konta platformy Azure. Nie musisz zmieniać niczego innego w kodzie.
Aby uzyskać klucz i punkt końcowy:
Na placu zabaw dla modelu wybierz pozycję Pobierz klucz interfejsu API.
Wybierz pozycję Pobierz klucz produkcyjny.
Jeśli nie masz konta platformy Azure, wybierz pozycję Utwórz moje konto i wykonaj kroki, aby je utworzyć.
Jeśli masz konto platformy Azure, wybierz pozycję Zaloguj się ponownie.
Jeśli istniejące konto jest bezpłatnym kontem, najpierw musisz przeprowadzić uaktualnienie do planu płatności zgodnie z rzeczywistym użyciem. Po uaktualnieniu wróć do środowiska zabaw i ponownie wybierz pozycję Pobierz klucz interfejsu API, a następnie zaloguj się przy użyciu uaktualnionego konta.
Po zalogowaniu się do konta platformy Azure zostanie wyświetlona usługa Azure AI Foundry.
W górnej części strony wybierz pozycję Przejdź do zasobu usługi GitHub AI, aby przejść do usługi Azure AI Foundry / Github](https://ai.azure.com/github). Załadowanie początkowych szczegółów modelu w portalu usługi AI Foundry może potrwać co najmniej dwie minuty.
Strona jest ładowana ze szczegółami modelu. Wybierz przycisk Utwórz wdrożenie, aby wdrożyć model na koncie.
Po wdrożeniu klucz interfejsu API i punkt końcowy modelu są wyświetlane w sekcji Przegląd. Użyj tych wartości w kodzie, aby użyć modelu w środowisku produkcyjnym.
Na tym etapie wybrany model jest gotowy do użycia.
Napiwek
Użyj parametru model="<deployment-name>
, aby skierować żądanie do tego wdrożenia. Wdrożenia działają jako alias danego modelu w ramach niektórych konfiguracji. Zobacz Stronę koncepcji routingu , aby dowiedzieć się, jak usługi Azure AI Services kierują wdrożenia.
Uaktualnianie kodu w celu korzystania z nowego punktu końcowego
Po skonfigurowaniu zasobu usług Azure AI Services możesz rozpocząć korzystanie z niego z poziomu kodu. Potrzebny jest adres URL punktu końcowego i klucz, który można znaleźć w sekcji Przegląd :
Aby uzyskać przewidywania z punktu końcowego, możesz użyć dowolnego z obsługiwanych zestawów SDK. Następujące zestawy SDK są oficjalnie obsługiwane:
- OpenAI SDK
- Azure OpenAI SDK
- Zestaw SDK wnioskowania usługi Azure AI
Aby uzyskać więcej szczegółów i przykładów, zobacz sekcję Obsługiwane języki i zestawy SDK . W poniższym przykładzie pokazano, jak używać zestawu SDK wnioskowania modelu AI platformy Azure z nowo wdrożonym modelem:
Zainstaluj pakiet azure-ai-inference
przy użyciu menedżera pakietów, takiego jak:
pip install azure-ai-inference>=1.0.0b5
Ostrzeżenie
Zasób usług Azure AI Services wymaga wersji azure-ai-inference>=1.0.0b5
języka Python.
Następnie możesz użyć pakietu do korzystania z modelu. W poniższym przykładzie pokazano, jak utworzyć klienta w celu korzystania z uzupełniania czatu:
import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential
client = ChatCompletionsClient(
endpoint=os.environ["AZUREAI_ENDPOINT_URL"],
credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]),
)
Zapoznaj się z naszymi przykładami i przeczytaj dokumentację referencyjną interfejsu API, aby rozpocząć pracę.
Wygeneruj pierwsze ukończenie czatu:
from azure.ai.inference.models import SystemMessage, UserMessage
response = client.complete(
messages=[
SystemMessage(content="You are a helpful assistant."),
UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
],
model="mistral-large"
)
print(response.choices[0].message.content)
Eksplorowanie dodatkowych funkcji
Wnioskowanie modelu AI platformy Azure obsługuje więcej funkcji, które nie są dostępne w modelach Usługi GitHub, w tym:
- Zapoznaj się z wykazem modeli, aby zobaczyć inne modele niedostępne w modelach usługi GitHub.
- Konfigurowanie filtrowania zawartości.
- Skonfiguruj ograniczanie szybkości (dla określonych modeli).
- Zapoznaj się z więcej jednostek SKU wdrożenia (w przypadku określonych modeli).
- Konfigurowanie sieci prywatnej.
Masz problemy?
Zobacz sekcję Często zadawane pytania, aby poznać więcej pomocy.
Następne kroki
- Dodaj więcej modeli do punktu końcowego.
- Zapoznaj się z wykazem modeli w portalu usługi Azure AI Foundry.