Condividi tramite


Configurare una connessione per l'uso dell'inferenza del modello di intelligenza artificiale di Azure nel progetto di intelligenza artificiale

Importante

Gli elementi contrassegnati (anteprima) in questo articolo sono attualmente disponibili in anteprima pubblica. Questa anteprima viene fornita senza un contratto di servizio e non è consigliabile per i carichi di lavoro di produzione. Alcune funzionalità potrebbero non essere supportate o potrebbero presentare funzionalità limitate. Per altre informazioni, vedere le Condizioni supplementari per l'uso delle anteprime di Microsoft Azure.

È possibile usare l'inferenza del modello di intelligenza artificiale di Azure nei progetti in Azure AI Foundry per creare applicazioni raggiungibili e interagire/gestire i modelli disponibili. Per usare il servizio di inferenza del modello di intelligenza artificiale di Azure nel progetto, è necessario creare una connessione alla risorsa di Servizi di intelligenza artificiale di Azure.

L'articolo seguente illustra come creare una connessione alla risorsa di Servizi di intelligenza artificiale di Azure per usare l'endpoint di inferenza.

Prerequisiti

Per completare questo articolo, devi avere quanto segue:

Aggiunta di una connessione

È possibile creare una connessione a una risorsa dei servizi di intelligenza artificiale di Azure seguendo questa procedura:

  1. Passare al portale di Azure AI Foundry.

  2. Nell'angolo inferiore sinistro della schermata selezionare Centro gestione.

  3. Nella sezione Connessioni selezionare Nuova connessione.

  4. Selezionare Servizi di intelligenza artificiale di Azure.

  5. Nel browser cercare una risorsa di Servizi di intelligenza artificiale di Azure esistente nella sottoscrizione.

  6. Selezionare Aggiungi connessione.

  7. La nuova connessione viene aggiunta all'hub.

  8. Tornare alla pagina di destinazione del progetto per continuare e selezionare la nuova connessione creata. Aggiornare la pagina se non viene visualizzata immediatamente.

    Screenshot della pagina di destinazione per il progetto, evidenziando la posizione della risorsa connessa e l'endpoint di inferenza associato.

Visualizzare le distribuzioni di modelli nella risorsa connessa

È possibile visualizzare le distribuzioni del modello disponibili nella risorsa connessa seguendo questa procedura:

  1. Passare al portale di Azure AI Foundry.

  2. Sulla barra di spostamento a sinistra selezionare Modelli e endpoint.

  3. Nella pagina vengono visualizzate le distribuzioni del modello disponibili per il nome della connessione, raggruppate in base al nome della connessione. Individuare la connessione appena creata, che deve essere di tipo Servizi di intelligenza artificiale di Azure.

    Screenshot che mostra l'elenco dei modelli disponibili in una determinata connessione.

  4. Selezionare qualsiasi distribuzione del modello da esaminare.

  5. La pagina dei dettagli mostra informazioni sulla distribuzione specifica. Se si vuole testare il modello, è possibile usare l'opzione Apri nel playground.

  6. Viene visualizzato il playground di Azure AI Foundry, in cui è possibile interagire con il modello specificato.

Importante

Gli elementi contrassegnati (anteprima) in questo articolo sono attualmente disponibili in anteprima pubblica. Questa anteprima viene fornita senza un contratto di servizio e non è consigliabile per i carichi di lavoro di produzione. Alcune funzionalità potrebbero non essere supportate o potrebbero presentare funzionalità limitate. Per altre informazioni, vedere le Condizioni supplementari per l'uso delle anteprime di Microsoft Azure.

È possibile usare l'inferenza del modello di intelligenza artificiale di Azure nei progetti in Azure AI Foundry per creare applicazioni raggiungibili e interagire/gestire i modelli disponibili. Per usare il servizio di inferenza del modello di intelligenza artificiale di Azure nel progetto, è necessario creare una connessione alla risorsa di Servizi di intelligenza artificiale di Azure.

L'articolo seguente illustra come creare una connessione alla risorsa di Servizi di intelligenza artificiale di Azure per usare l'endpoint di inferenza.

Prerequisiti

Per completare questo articolo, devi avere quanto segue:

  • Installare l'interfaccia della riga di comando di Azure e l'estensione ml per Azure AI Foundry:

    az extension add -n ml
    
  • Identificare le informazioni seguenti:

    • L'ID sottoscrizione di Azure.

    • Nome della risorsa di Servizi di intelligenza artificiale di Azure.

    • Gruppo di risorse in cui viene distribuita la risorsa di Servizi di intelligenza artificiale di Azure.

Aggiunta di una connessione

Per aggiungere un modello, è prima necessario identificare il modello da distribuire. È possibile eseguire query sui modelli disponibili nel modo seguente:

  1. Accedere alla sottoscrizione di Azure:

    az login
    
  2. Configurare l'interfaccia della riga di comando in modo che punti al progetto:

    az account set --subscription <subscription>
    az configure --defaults workspace=<project-name> group=<resource-group> location=<location>
    
  3. Creare una definizione di connessione:

    connection.yml

    name: <connection-name>
    type: aiservices
    endpoint: https://<ai-services-resourcename>.services.ai.azure.com
    api_key: <resource-api-key>
    
  4. Creare la connessione:

    az ml connection create -f connection.yml
    
  5. A questo punto, la connessione è disponibile per l'uso.

Importante

Gli elementi contrassegnati (anteprima) in questo articolo sono attualmente disponibili in anteprima pubblica. Questa anteprima viene fornita senza un contratto di servizio e non è consigliabile per i carichi di lavoro di produzione. Alcune funzionalità potrebbero non essere supportate o potrebbero presentare funzionalità limitate. Per altre informazioni, vedere le Condizioni supplementari per l'uso delle anteprime di Microsoft Azure.

È possibile usare l'inferenza del modello di intelligenza artificiale di Azure nei progetti in Azure AI Foundry per creare applicazioni raggiungibili e interagire/gestire i modelli disponibili. Per usare il servizio di inferenza del modello di intelligenza artificiale di Azure nel progetto, è necessario creare una connessione alla risorsa di Servizi di intelligenza artificiale di Azure.

L'articolo seguente illustra come creare una connessione alla risorsa di Servizi di intelligenza artificiale di Azure per usare l'endpoint di inferenza.

Prerequisiti

Per completare questo articolo, devi avere quanto segue:

  • Un progetto di intelligenza artificiale di Azure con un hub di intelligenza artificiale.

  • Installare l'interfaccia della riga di comando di Azure.

  • Identificare le informazioni seguenti:

    • L'ID sottoscrizione di Azure.

    • Nome della risorsa di Servizi di intelligenza artificiale di Azure.

    • ID risorsa di Servizi di intelligenza artificiale di Azure.

    • Nome dell'hub di intelligenza artificiale di Azure in cui viene distribuito il progetto.

    • Gruppo di risorse in cui viene distribuita la risorsa di Servizi di intelligenza artificiale di Azure.

Aggiunta di una connessione

  1. Usare il modello ai-services-connection-template.bicep per descrivere la connessione:

    ai-services-connection-template.bicep

    @description('Name of the hub where the connection will be created')
    param hubName string
    
    @description('Name of the connection')
    param name string
    
    @description('Category of the connection')
    param category string = 'AIServices'
    
    @allowed(['AAD', 'ApiKey', 'ManagedIdentity', 'None'])
    param authType string = 'AAD'
    
    @description('The endpoint URI of the connected service')
    param endpointUri string
    
    @description('The resource ID of the connected service')
    param resourceId string = ''
    
    @secure()
    param key string = ''
    
    
    resource connection 'Microsoft.MachineLearningServices/workspaces/connections@2024-04-01-preview' = {
      name: '${hubName}/${name}'
      properties: {
        category: category
        target: endpointUri
        authType: authType
        isSharedToAll: true
        credentials: authType == 'ApiKey' ? {
          key: key
        } : null
        metadata: {
          ApiType: 'Azure'
          ResourceId: resourceId
        }
      }
    }
    
  2. Eseguire la distribuzione:

    RESOURCE_GROUP="<resource-group-name>"
    ACCOUNT_NAME="<azure-ai-model-inference-name>" 
    ENDPOINT_URI="https://<azure-ai-model-inference-name>.services.ai.azure.com"
    RESOURCE_ID="<resource-id>"
    HUB_NAME="<hub-name>"
    
    az deployment group create \
        --resource-group $RESOURCE_GROUP \
        --template-file ai-services-connection-template.bicep \
        --parameters accountName=$ACCOUNT_NAME hubName=$HUB_NAME endpointUri=$ENDPOINT_URI resourceId=$RESOURCE_ID
    

Passaggi successivi