Dela via


Konfigurera en anslutning för att använda Azure AI-modellinferens i ditt AI-projekt

Viktigt!

Objekt markerade (förhandsversion) i den här artikeln är för närvarande i offentlig förhandsversion. Den här förhandsversionen tillhandahålls utan ett serviceavtal och vi rekommenderar det inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Du kan använda Azure AI-modellinferens i dina projekt i Azure AI Foundry för att skapa nå program och interagera/hantera de tillgängliga modellerna. Om du vill använda azure AI-modellinferenstjänsten i projektet måste du skapa en anslutning till Azure AI Services-resursen.

I följande artikel beskrivs hur du skapar en anslutning till Azure AI Services-resursen för att använda slutpunkten för slutsatsdragning.

Förutsättningar

För att slutföra den här artikeln behöver du:

Lägg till en anslutning

Du kan skapa en anslutning till en Azure AI-tjänstresurs med hjälp av följande steg:

  1. Gå till Azure AI Foundry Portal.

  2. I det nedre vänstra hörnet på skärmen väljer du Hanteringscenter.

  3. I avsnittet Anslutningar väljer du Ny anslutning.

  4. Välj Azure AI-tjänster.

  5. Leta efter en befintlig Azure AI Services-resurs i din prenumeration i webbläsaren.

  6. Välj Lägg till anslutning.

  7. Den nya anslutningen läggs till i hubben.

  8. Gå tillbaka till projektets landningssida för att fortsätta och välj nu den nya anslutningen som skapats. Uppdatera sidan om den inte visas omedelbart.

    Skärmbild av projektets landningssida som markerar platsen för den anslutna resursen och den associerade slutpunkten för slutsatsdragning.

Se modelldistributioner i den anslutna resursen

Du kan se de modelldistributioner som är tillgängliga i den anslutna resursen genom att följa dessa steg:

  1. Gå till Azure AI Foundry Portal.

  2. I det vänstra navigeringsfältet väljer du Modeller + slutpunkter.

  3. Sidan visar de modelldistributioner som är tillgängliga för din, grupperade efter anslutningsnamn. Leta upp den anslutning som du just har skapat, som ska vara av typen Azure AI Services.

    Skärmbild som visar listan över modeller som är tillgängliga under en viss anslutning.

  4. Välj vilken modelldistribution som helst som du vill inspektera.

  5. Informationssidan visar information om den specifika distributionen. Om du vill testa modellen kan du använda alternativet Öppna på lekplatsen.

  6. Azure AI Foundry Playground visas, där du kan interagera med den angivna modellen.

Viktigt!

Objekt markerade (förhandsversion) i den här artikeln är för närvarande i offentlig förhandsversion. Den här förhandsversionen tillhandahålls utan ett serviceavtal och vi rekommenderar det inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Du kan använda Azure AI-modellinferens i dina projekt i Azure AI Foundry för att skapa nå program och interagera/hantera de tillgängliga modellerna. Om du vill använda azure AI-modellinferenstjänsten i projektet måste du skapa en anslutning till Azure AI Services-resursen.

I följande artikel beskrivs hur du skapar en anslutning till Azure AI Services-resursen för att använda slutpunkten för slutsatsdragning.

Förutsättningar

För att slutföra den här artikeln behöver du:

  • Installera Azure CLI och ml tillägget för Azure AI Foundry:

    az extension add -n ml
    
  • Identifiera följande information:

    • ditt prenumerations-ID för Azure

    • Ditt Azure AI Services-resursnamn.

    • Resursgruppen där Azure AI Services-resursen distribueras.

Lägg till en anslutning

Om du vill lägga till en modell måste du först identifiera den modell som du vill distribuera. Du kan fråga de tillgängliga modellerna på följande sätt:

  1. Logga in på din Azure-prenumeration:

    az login
    
  2. Konfigurera CLI så att det pekar på projektet:

    az account set --subscription <subscription>
    az configure --defaults workspace=<project-name> group=<resource-group> location=<location>
    
  3. Skapa en anslutningsdefinition:

    connection.yml

    name: <connection-name>
    type: aiservices
    endpoint: https://<ai-services-resourcename>.services.ai.azure.com
    api_key: <resource-api-key>
    
  4. Skapa anslutningen:

    az ml connection create -f connection.yml
    
  5. Nu är anslutningen tillgänglig för förbrukning.

Viktigt!

Objekt markerade (förhandsversion) i den här artikeln är för närvarande i offentlig förhandsversion. Den här förhandsversionen tillhandahålls utan ett serviceavtal och vi rekommenderar det inte för produktionsarbetsbelastningar. Vissa funktioner kanske inte stöds eller kan vara begränsade. Mer information finns i Kompletterande villkor för användning av Microsoft Azure-förhandsversioner.

Du kan använda Azure AI-modellinferens i dina projekt i Azure AI Foundry för att skapa nå program och interagera/hantera de tillgängliga modellerna. Om du vill använda azure AI-modellinferenstjänsten i projektet måste du skapa en anslutning till Azure AI Services-resursen.

I följande artikel beskrivs hur du skapar en anslutning till Azure AI Services-resursen för att använda slutpunkten för slutsatsdragning.

Förutsättningar

För att slutföra den här artikeln behöver du:

  • Ett Azure AI-projekt med en AI Hub.

  • Installera Azure CLI.

  • Identifiera följande information:

    • ditt prenumerations-ID för Azure

    • Ditt Azure AI Services-resursnamn.

    • Ditt Resurs-ID för Azure AI Services.

    • Namnet på den Azure AI Hub där projektet distribueras.

    • Resursgruppen där Azure AI Services-resursen distribueras.

Lägg till en anslutning

  1. Använd mallen ai-services-connection-template.bicep för att beskriva anslutningen:

    ai-services-connection-template.bicep

    @description('Name of the hub where the connection will be created')
    param hubName string
    
    @description('Name of the connection')
    param name string
    
    @description('Category of the connection')
    param category string = 'AIServices'
    
    @allowed(['AAD', 'ApiKey', 'ManagedIdentity', 'None'])
    param authType string = 'AAD'
    
    @description('The endpoint URI of the connected service')
    param endpointUri string
    
    @description('The resource ID of the connected service')
    param resourceId string = ''
    
    @secure()
    param key string = ''
    
    
    resource connection 'Microsoft.MachineLearningServices/workspaces/connections@2024-04-01-preview' = {
      name: '${hubName}/${name}'
      properties: {
        category: category
        target: endpointUri
        authType: authType
        isSharedToAll: true
        credentials: authType == 'ApiKey' ? {
          key: key
        } : null
        metadata: {
          ApiType: 'Azure'
          ResourceId: resourceId
        }
      }
    }
    
  2. Kör distributionen:

    RESOURCE_GROUP="<resource-group-name>"
    ACCOUNT_NAME="<azure-ai-model-inference-name>" 
    ENDPOINT_URI="https://<azure-ai-model-inference-name>.services.ai.azure.com"
    RESOURCE_ID="<resource-id>"
    HUB_NAME="<hub-name>"
    
    az deployment group create \
        --resource-group $RESOURCE_GROUP \
        --template-file ai-services-connection-template.bicep \
        --parameters accountName=$ACCOUNT_NAME hubName=$HUB_NAME endpointUri=$ENDPOINT_URI resourceId=$RESOURCE_ID
    

Nästa steg