Condividi tramite


Modelli supportati dal servizio Agente di intelligenza artificiale di Azure

Gli agenti sono basati su un set diversificato di modelli con funzionalità e punti di prezzo diversi. La disponibilità dei modelli varia in base all'area e al cloud. Alcuni strumenti e funzionalità richiedono i modelli più recenti. I modelli seguenti sono disponibili negli SDK disponibili. La tabella seguente è relativa al pagamento in base al consumo. Per informazioni sulla disponibilità PTU (Provisioned Throughput Unit), vedere Provisioned throughput (Velocità effettiva con provisioning) nella documentazione di Azure OpenAI. È possibile usare modelli standard globali se sono supportati nelle aree elencate qui.

Modelli di Azure OpenAI

Il servizio Azure AI Agent supporta gli stessi modelli dell'API di completamento della chat in Azure OpenAI, nelle aree seguenti.

Area gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - -
eastus - - - -
eastus2 - - - -
francecentral - - - - - -
japaneast - - - - - - - - -
norwayeast - - - - - - - - - - -
southindia - - - - - - - - -
Svezia centrale - -
uksouth - - - - - -
westus - - - - -
westus3 - - - - - -

Altri modelli

Il servizio Agente di intelligenza artificiale di Azure supporta anche i modelli seguenti del catalogo dei modelli di Azure AI Foundry.

  • Meta-Llama-405B-Instruct
  • Mistral-large-2407
  • Cohere-command-r-plus
  • Cohere-command-r

Per usare questi modelli, è possibile usare il portale di Azure AI Foundry per creare una distribuzione e quindi farvi riferimento nell'agente.

  1. Passare al portale di Azure AI Foundry e selezionare Catalogo modelli nel menu di spostamento a sinistra e scorrere verso il basso fino a Meta-Llama-3-70B-Instruct. È anche possibile trovare e usare uno dei modelli elencati in precedenza.

  2. Seleziona Distribuisci.

  3. Nella schermata Opzioni di distribuzione visualizzata selezionare API serverless con Sicurezza dei contenuti di Intelligenza artificiale di Azure.

    Immagine della schermata di selezione del progetto del modello llama.

  4. Selezionare il progetto e quindi sottoscrivere e distribuire.

    Immagine della schermata di distribuzione del modello llama.

  5. Aggiungere la connessione serverless all'hub/progetto. Il nome della distribuzione scelto è quello a cui si fa riferimento nel codice.

  6. Quando si chiama l'API di creazione dell'agente, impostare il models parametro sul nome della distribuzione. Ad esempio:

    agent = project_client.agents.create_agent( model="llama-3", name="my-agent", instructions="You are a helpful agent" ) 
    

Passaggi successivi

Creare un nuovo progetto agent