Använda slutpunkten för Azure AI-modellinferens för att använda modeller
Azure AI-modellinferens i Azure AI-tjänster gör det möjligt för kunder att använda de mest kraftfulla modellerna från flaggskeppsmodellleverantörer med en enda slutpunkt och autentiseringsuppgifter. Det innebär att du kan växla mellan modeller och använda dem från ditt program utan att ändra en enda kodrad.
Den här artikeln beskriver hur du använder slutpunkten för slutsatsdragning för att anropa dem.
Slutpunkter
Azure AI-tjänster exponerar flera slutpunkter beroende på vilken typ av arbete du letar efter:
- Slutpunkt för Azure AI-modellinferens
- Azure OpenAI-slutpunkt
Med Slutpunkten för Azure AI-slutsatsdragning (vanligtvis med formuläret https://<resource-name>.services.ai.azure.com/models
) kan kunder använda en enda slutpunkt med samma autentisering och schema för att generera slutsatsdragning för de distribuerade modellerna i resursen. Alla modeller stöder den här funktionen. Den här slutpunkten följer AZURE AI-modellinferens-API:et.
Azure OpenAI-modeller som distribueras till AI-tjänster stöder även Azure OpenAI API (vanligtvis med formuläret https://<resource-name>.openai.azure.com
). Den här slutpunkten visar alla funktioner i OpenAI-modeller och stöder fler funktioner som assistenter, trådar, filer och batchinferens.
Mer information om hur du tillämpar Azure OpenAI-slutpunkten finns i Dokumentation om Azure OpenAI-tjänsten.
Använda routningsfunktionen i slutpunkten för Azure AI-modellinferens
Slutpunkten för slutsatsdragning dirigerar begäranden till en viss distribution genom att matcha parametern name
i begäran till namnet på distributionen. Det innebär att distributioner fungerar som ett alias för en viss modell under vissa konfigurationer. Med den här flexibiliteten kan du distribuera en viss modell flera gånger i tjänsten men under olika konfigurationer om det behövs.
Om du till exempel skapar en distribution med namnet Mistral-large
kan en sådan distribution anropas som:
Installera paketet azure-ai-inference
med hjälp av pakethanteraren, till exempel pip:
pip install azure-ai-inference>=1.0.0b5
Varning
Azure AI Services-resursen kräver versionen azure-ai-inference>=1.0.0b5
för Python.
Sedan kan du använda paketet för att använda modellen. I följande exempel visas hur du skapar en klient för att använda chattavslutningar:
import os
from azure.ai.inference import ChatCompletionsClient
from azure.core.credentials import AzureKeyCredential
model = ChatCompletionsClient(
endpoint="https://<resource>.services.ai.azure.com/models",
credential=AzureKeyCredential(os.environ["AZUREAI_ENDPOINT_KEY"]),
)
Utforska våra exempel och läs API-referensdokumentationen för att komma igång.
För en chattmodell kan du skapa en begäran på följande sätt:
from azure.ai.inference.models import SystemMessage, UserMessage
response = client.complete(
messages=[
SystemMessage(content="You are a helpful assistant."),
UserMessage(content="Explain Riemann's conjecture in 1 paragraph"),
],
model="mistral-large"
)
print(response.choices[0].message.content)
Om du anger ett modellnamn som inte matchar en viss modelldistribution får du ett felmeddelande om att modellen inte finns. Du kan styra vilka modeller som är tillgängliga för användare genom att skapa modelldistributioner enligt beskrivningen i lägga till och konfigurera modelldistributioner.
Begränsningar
- Azure OpenAI Batch kan inte användas med slutpunkten för Azure AI-modellens slutsatsdragning. Du måste använda url:en för dedikerad distribution enligt beskrivningen i Batch API-supporten i Azure OpenAI-dokumentationen.
- Realtids-API stöds inte i slutpunkten för slutsatsdragning. Använd den dedikerade distributions-URL:en.