Se non è possibile trovare le risposte alle domande in questo documento e occorre comunque assistenza, consultare la Guida alle opzioni di supporto per i Servizi di Azure AI.
Generali
Qual è la differenza tra il servizio Azure OpenAI e l'inferenza del modello di intelligenza artificiale di Azure?
Il servizio OpenAI di Azure consente ai clienti di accedere ai modelli linguistici avanzati da OpenAI. L'inferenza del modello di intelligenza artificiale di Azure estende tale funzionalità consentendo ai clienti di accedere a tutti i modelli di punta nell'intelligenza artificiale di Azure nello stesso servizio, endpoint e credenziali. Include Azure OpenAI, Cohere, Mistral AI, Meta Llama, lab AI21 e così via. I clienti possono passare facilmente da un modello all'altro senza modificare il codice.
Sia il servizio OpenAI di Azure che l'inferenza del modello di intelligenza artificiale di Azure fanno parte della famiglia di servizi di intelligenza artificiale di Azure e si basano sulla stessa promessa di sicurezza e aziendale di Azure.
Mentre l'inferenza del modello di intelligenza artificiale di Azure è incentrata sull'inferenza, il servizio Azure OpenAI può essere usato con API più avanzate come batch, ottimizzazione, assistenti e file.
Qual è la differenza tra OpenAI e Azure OpenAI?
I modelli di intelligenza artificiale di Azure e il servizio Azure OpenAI offrono ai clienti l'accesso ai modelli linguistici avanzati di OpenAI con la promessa di sicurezza e aziendale di Azure. OpenAI di Azure sviluppa le API unitamente a OpenAI, garantendo la compatibilità e una transizione uniforme da una all'altra.
I clienti ottengono le funzionalità di sicurezza di Microsoft Azure durante l'esecuzione degli stessi modelli di OpenAI. Offre funzionalità di rete privata, disponibilità a livello di area e filtro dei contenuti di intelligenza artificiale responsabile.
Altre informazioni sul servizio Azure OpenAI.
Qual è la differenza tra i servizi di intelligenza artificiale di Azure e Azure AI Foundry?
I servizi di intelligenza artificiale di Azure sono una suite di servizi di intelligenza artificiale che forniscono API predefinite per scenari di intelligenza artificiale comuni. Servizi di intelligenza artificiale di Azure fa parte della piattaforma Azure AI Foundry. I servizi di intelligenza artificiale di Azure possono essere usati nel portale di Azure AI Foundry per migliorare i modelli con funzionalità di intelligenza artificiale predefinite.
Modelli
Perché non sono supportati tutti i modelli nel catalogo dei modelli di intelligenza artificiale di Azure nei servizi di intelligenza artificiale di Azure?
L'inferenza del modello di intelligenza artificiale di Azure nei servizi di intelligenza artificiale supporta tutti i modelli nel catalogo di Intelligenza artificiale di Azure con fatturazione con pagamento in base al consumo. Per altre informazioni, vedere l'articolo Modelli.
Il catalogo dei modelli di intelligenza artificiale di Azure contiene un elenco più ampio di modelli, ma questi modelli richiedono la quota di calcolo dalla sottoscrizione. Devono anche avere un progetto o un hub di intelligenza artificiale in cui ospitare la distribuzione. Per altre informazioni, vedere Opzioni di distribuzione in Azure AI Foundry.
SDK e linguaggi di programmazione
Quali sono gli SDK supportati e i linguaggi di programmazione per l'inferenza del modello di intelligenza artificiale di Azure?
È possibile usare Azure Inference SDK con qualsiasi modello supportato dall'inferenza del modello di intelligenza artificiale di Azure nei servizi di intelligenza artificiale di Azure, la AzureOpenAI
classe in OpenAI SDK o Azure OpenAI SDK.
Cohere SDK, Mistral SDK e SDK specifici del provider di modelli non sono supportati quando si è connessi ai servizi di intelligenza artificiale di Azure.
Per altre informazioni, vedere SDK e linguaggi di programmazione supportati.
L'inferenza del modello di intelligenza artificiale di Azure funziona con la libreria Python più recente rilasciata da OpenAI (versione>=1.0)?
I servizi di intelligenza artificiale di Azure supportano la versione più recente della libreria Python OpenAI (version=1.0).Azure AI services support the latest release of the OpenAI Python library (version>=1.0).
Si sta effettuando una richiesta per un modello che supporta l'inferenza del modello di intelligenza artificiale di Azure, ma viene visualizzato un errore 404. Cosa devo fare?
Assicurarsi di creare una distribuzione per il modello specificato e che il nome della distribuzione corrisponda esattamente al valore passato.model
Anche se il routing non fa distinzione tra maiuscole e minuscole, assicurarsi che non siano presenti punteggiatura o spazi speciali perché si tratta di errori comuni.
Si usa il pacchetto "azure-ai-inference" per Python e viene visualizzato un errore 401 quando si tenta di eseguire l'autenticazione con le chiavi. Cosa devo fare?
La risorsa di Servizi di intelligenza artificiale di Azure richiede la versione azure-ai-inference>=1.0.0b5
per Python. Assicurarsi di usare tale versione.
Si usa OpenAI SDK e viene indicato l'endpoint di inferenza OpenAI di Azure come URL di base (https://<resource-name>.openai.azure.com). Tuttavia, viene visualizzato un errore 404. Cosa devo fare?
Assicurarsi di usare l'endpoint corretto per il servizio Azure OpenAI e il set di credenziali corretto. Assicurarsi anche di usare la classe AzureOpenAI
di OpenAI SDK come meccanismo di autenticazione e URL usati sono diversi.
L'inferenza del modello di intelligenza artificiale di Azure supporta le intestazioni API personalizzate? Le intestazioni personalizzate vengono aggiunte alle richieste API e vengono visualizzati errori HTTP 431.
Le API correnti consentono fino a 10 intestazioni personalizzate, che vengono passate attraverso la pipeline e restituite. Alcuni clienti hanno ora superato questo numero di intestazioni, causando errori HTTP 431. Non esiste alcuna soluzione per questo errore, ad eccezione di ridurre il volume dell'intestazione. Nelle versioni future dell'API non vengono più passate intestazioni personalizzate. È consigliabile non dipendere dalle intestazioni personalizzate nelle architetture di sistema future.
Prezzi e fatturazione
Come viene fatturata l'inferenza del modello di intelligenza artificiale di Azure?
Vengono addebitati input e output alle API, in genere nei token. Non sono previsti costi associati alla risorsa stessa o alle distribuzioni.
Il prezzo del token varia in base a ogni modello e vengono fatturati per 1.000 token. È possibile visualizzare i dettagli sui prezzi prima di distribuire un determinato modello. Per altre informazioni sulla fatturazione, vedere Gestire i costi.
Dove è possibile visualizzare i dettagli della fattura?
La fatturazione e i costi vengono visualizzati in Gestione costi e fatturazione di Azure. È possibile visualizzare i dettagli di utilizzo nella portale di Azure.
La fatturazione non viene visualizzata nel portale di Azure AI Foundry.
Come è possibile inserire un limite di spesa alla fattura?
È possibile configurare un limite di spesa nella portale di Azure in Gestione costi e fatturazione di Azure. Questo limite impedisce di spendere più del limite impostato. Una volta raggiunto il limite di spesa, la sottoscrizione verrà disabilitata e non sarà possibile usare l'endpoint fino al ciclo di fatturazione successivo.
Dati e privacy
Utilizzate i dati della mia azienda per il training di qualche modello?
L'inferenza del modello di intelligenza artificiale di Azure non usa i dati dei clienti per ripetere il training dei modelli e i dati dei clienti non vengono mai condivisi con i provider di modelli.
Impegno per il copyright del cliente
Come si ottiene la copertura in base all'impegno sul copyright del cliente?
L'impegno per il copyright del cliente è un provisioning da includere nelle Condizioni del prodotto Microsoft del 1° dicembre 2023 che descrive l'obbligo di Microsoft di difendere i clienti da determinate attestazioni di proprietà intellettuale non Microsoft relative al contenuto di output. Se l'oggetto dell'attestazione è Contenuto di output generato dal servizio Azure OpenAI (o da qualsiasi altro prodotto coperto che consente ai clienti di configurare i sistemi di sicurezza), per ricevere la copertura, i clienti devono aver implementato tutte le mitigazioni richieste dalla documentazione del servizio Azure OpenAI nell'offerta che ha fornito il contenuto di output. Le mitigazioni necessarie sono documentate qui e aggiornate in modo continuativo. Per i nuovi servizi, le funzionalità, i modelli o i casi d'uso, verranno pubblicati nuovi requisiti CCC e saranno applicati al lancio di tale servizio, funzionalità, modello o caso d'uso. In caso contrario, i clienti avranno sei mesi dal momento della pubblicazione per implementare nuove mitigazioni per mantenere la copertura sotto il CCC. Se un cliente esegue una richiesta, il cliente dovrà dimostrare la conformità ai requisiti pertinenti. Queste mitigazioni sono necessarie per i prodotti coperti che consentono ai clienti di configurare i sistemi di sicurezza, incluso il servizio Azure OpenAI; non influiscono sulla copertura per i clienti che usano altri prodotti coperti.