Udostępnij za pośrednictwem


Dodawanie i konfigurowanie modeli w usłudze wnioskowania modelu AI platformy Azure

Możesz zdecydować i skonfigurować, które modele są dostępne do wnioskowania w punkcie końcowym wnioskowania modelu zasobu. Po skonfigurowaniu danego modelu można wygenerować z niego przewidywania, wskazując jego nazwę modelu lub nazwę wdrożenia na żądaniach. Do użycia w kodzie nie są wymagane żadne dalsze zmiany.

Z tego artykułu dowiesz się, jak dodać nowy model do usługi wnioskowania modelu AI platformy Azure w usługach Azure AI.

Wymagania wstępne

Aby ukończyć pracę z tym artykułem, potrzebne są następujące zasoby:

Dodaj model

Podobnie jak w przypadku modeli usługi GitHub, w których wszystkie modele są już skonfigurowane, zasób usługi Azure AI Services umożliwia kontrolowanie, które modele są dostępne w punkcie końcowym i w ramach której konfiguracji.

Wszystkie potrzebne modele w punkcie końcowym można dodać przy użyciu usługi Azure AI Foundry dla usługi GitHub. W poniższym przykładzie dodamy Mistral-Large model w usłudze:

  1. Przejdź do sekcji Katalog modeli w usłudze Azure AI Foundry dla usługi GitHub.

  2. Przewiń do interesującego Cię modelu i wybierz go.

  3. Szczegóły modelu można przejrzeć na karcie modelu.

  4. Wybierz Wdróż.

  5. W przypadku dostawców modeli, którzy wymagają dodatkowych warunków umowy, zostanie wyświetlony monit o zaakceptowanie tych warunków. Na przykład modele Mistral proszą o zaakceptowanie innych warunków. Zaakceptuj warunki w tych przypadkach, wybierając pozycję Subskrybuj i wdróż.

    Zrzut ekranu przedstawiający sposób uzgadniania warunków i postanowień modelu Mistral-Large.

  6. W tej chwili można skonfigurować ustawienia wdrożenia. Domyślnie wdrożenie otrzymuje nazwę wdrażanego modelu. Nazwa wdrożenia jest używana w parametrze model żądania do kierowania do tego konkretnego wdrożenia modelu. To ustawienie umożliwia również skonfigurowanie określonych nazw modeli podczas dołączania określonych konfiguracji. Na przykład o1-preview-safe w przypadku modelu z rygorystycznym filtrem zawartości bezpieczeństwa zawartości.

Napiwek

Każdy model może obsługiwać różne typy wdrożeń, zapewniając różne gwarancje rezydencji danych lub przepływności. Aby uzyskać więcej informacji, zobacz Typy wdrożeń.

  1. Użyj opcji Dostosuj, jeśli chcesz zmienić ustawienia, takie jak filtr zawartości lub ograniczanie szybkości (jeśli są dostępne).

Zrzut ekranu przedstawiający sposób dostosowywania wdrożenia w razie potrzeby.

  1. Wybierz Wdróż.

  2. Po zakończeniu wdrażania nowy model zostanie wyświetlony na stronie i będzie gotowy do użycia.

Korzystanie z modelu

Wdrożone modele w usługach Azure AI można używać przy użyciu punktu końcowego wnioskowania modelu AI platformy Azure dla zasobu.

Aby go użyć:

  1. Pobierz adres URL i klucze punktu końcowego wnioskowania modelu AI platformy Azure ze strony wdrożenia lub strony Przegląd. Jeśli używasz uwierzytelniania identyfikatora Entra firmy Microsoft, nie potrzebujesz klucza.

    Zrzut ekranu przedstawiający sposób uzyskiwania adresu URL i klucza skojarzonego z wdrożeniem.

  2. Użyj adresu URL punktu końcowego wnioskowania modelu i kluczy przed utworzeniem klienta. W poniższym przykładzie użyto pakietu wnioskowania usługi Azure AI:

    Zainstaluj pakiet azure-ai-inference przy użyciu menedżera pakietów, takiego jak:

    pip install azure-ai-inference>=1.0.0b5
    

    Ostrzeżenie

    Zasób usług Azure AI Services wymaga wersji azure-ai-inference>=1.0.0b5 języka Python.

    Następnie możesz użyć pakietu do korzystania z modelu. W poniższym przykładzie pokazano, jak utworzyć klienta w celu korzystania z uzupełniania czatu:

    import os
    from azure.ai.inference import ChatCompletionsClient
    from azure.core.credentials import AzureKeyCredential
    
    client = ChatCompletionsClient(
        endpoint=os.environ["AZUREAI_ENDPOINT_URL"],
        credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]),
    )
    

    Zapoznaj się z naszymi przykładami i przeczytaj dokumentację referencyjną interfejsu API, aby rozpocząć pracę.

  3. Podczas konstruowania żądania wskaż parametr model i wstaw utworzoną nazwę wdrożenia modelu.

    from azure.ai.inference.models import SystemMessage, UserMessage
    
    response = client.complete(
        messages=[
            SystemMessage(content="You are a helpful assistant."),
            UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
        ],
        model="mistral-large"
    )
    
    print(response.choices[0].message.content)
    

Napiwek

W przypadku korzystania z punktu końcowego możesz zmienić parametr na model dowolne dostępne wdrożenie modelu w zasobie.

Ponadto modele usługi Azure OpenAI można używać przy użyciu punktu końcowego usługi Azure OpenAI w zasobie. Ten punkt końcowy jest wyłączny dla każdego wdrożenia modelu i ma własny adres URL.

Dostosowywanie wdrożenia modelu

Podczas tworzenia wdrożeń modelu można skonfigurować inne ustawienia, w tym filtrowanie zawartości i limity szybkości. Aby skonfigurować więcej ustawień, wybierz opcję Dostosuj w kreatorze wdrażania.

Uwaga

Konfiguracje mogą się różnić w zależności od wdrażanych modeli.

Następne kroki