Progettazione dell'architettura IA
L'intelligenza artificiale è una tecnologia che consente alle macchine di imitare il comportamento umano intelligente. I computer possono usare l'intelligenza artificiale per:
- Analizzare i dati per creare immagini e video.
- Analizzare e sintetizzare il parlato.
- Interagire verbalmente in modi naturali.
- Eseguire stime e generare nuovi dati.
È possibile incorporare l'intelligenza artificiale nelle applicazioni per eseguire funzioni o prendere decisioni che la logica tradizionale o l'elaborazione non possono gestire in modo efficace. In qualità di architetto che progetta soluzioni, è importante comprendere l'intelligenza artificiale e il panorama di Machine Learning e come integrare le soluzioni di Azure nella progettazione del carico di lavoro.
Inizia subito
Centro architetture di Azure offre architetture di esempio, guide all'architettura, linee di base architetturali e idee che è possibile applicare allo scenario. I carichi di lavoro che coinvolgono componenti di intelligenza artificiale e di Machine Learning devono seguire il framework di Azure Well-Architected per i carichi di lavoro AI. Queste linee guida includono principi e guide alla progettazione che influenzano il carico di lavoro di Intelligenza artificiale e Machine Learning nei cinque pilastri dell'architettura. È consigliabile implementare tali raccomandazioni negli scenari e nel contenuto nel Centro architetture di Azure.
Concetti relativi all'intelligenza artificiale
I concetti di intelligenza artificiale includono un'ampia gamma di tecnologie e metodologie che consentono alle macchine di eseguire attività che richiedono in genere l'intelligenza umana. Le sezioni seguenti forniscono una panoramica dei concetti chiave relativi all'intelligenza artificiale.
Algoritmi
algoritmi o algoritmi di Machine Learning sono parti di codice che consentono agli utenti di esplorare, analizzare e trovare significato in set di dati complessi. Ogni algoritmo è un set finito di istruzioni dettagliate non ambigue che un computer può seguire per raggiungere un obiettivo specifico. L'obiettivo di un modello di Machine Learning è stabilire o individuare modelli che gli esseri umani possono usare per eseguire stime o classificare le informazioni. Un algoritmo può descrivere come determinare se un animale domestico è un gatto, un cane, un pesce, un uccello o una lucertola. Un altro algoritmo molto più complesso potrebbe descrivere come identificare una lingua scritta o parlata, analizzarne le parole, convertirle in una lingua diversa e quindi verificare la precisione della traduzione.
Scegliere una famiglia di algoritmi più adatta alle proprie attività. Valutare i vari algoritmi all'interno della famiglia per trovare la soluzione appropriata per il carico di lavoro. Per altre informazioni, vedere Che cosa sono gli algoritmi di Machine Learning?.
Apprendimento automatico
Machine Learning è una tecnica di intelligenza artificiale che usa algoritmi per creare modelli predittivi. Questi algoritmi analizzano i campi dati e "imparano" dai modelli all'interno dei dati per generare modelli. I modelli possono quindi prendere stime o decisioni informate in base ai nuovi dati.
I modelli predittivi vengono convalidati in base ai dati noti, misurati dalle metriche delle prestazioni per scenari aziendali specifici e quindi modificati in base alle esigenze. Questo processo di apprendimento e convalida è detto training. Grazie alla ripetizione periodica del training, i modelli di Machine Learning migliorano nel tempo.
Nella progettazione del carico di lavoro, è possibile usare l'apprendimento automatico se lo scenario include osservazioni passate che è possibile usare in modo affidabile per prevedere le situazioni future. Queste osservazioni possono essere verità universali, come la visione artificiale che rileva una forma di animale da un altro. Oppure queste osservazioni possono essere specifiche della situazione, ad esempio visione artificiale che rileva un potenziale errore di assemblaggio sulle linee di assemblaggio in base ai dati di richiesta di garanzia precedenti.
Per altre informazioni, vedere Che cos'è l'apprendimento automatico?.
Deep Learning
deep learning è un tipo di Machine Learning che può apprendere tramite la propria elaborazione dei dati. Come l'apprendimento automatico, usa anche algoritmi per analizzare i dati. Ma analizza i dati tramite reti neurali artificiali che contengono molti input, output e livelli di elaborazione. Ogni livello può elaborare i dati in modo diverso. L'output di un livello diventa l'input per il successivo. Questo processo consente all'apprendimento avanzato di creare modelli più complessi rispetto all'apprendimento automatico tradizionale.
Il Deep Learning richiede un grande investimento per generare modelli esplorativi o altamente personalizzati. È possibile prendere in considerazione altre soluzioni in questo articolo prima di aggiungere deep learning al carico di lavoro.
Per ulteriori informazioni, vedere Che cos'è l'apprendimento profondo?.
Intelligenza artificiale generativa
l'intelligenza artificiale generativa esegue il training dei modelli per generare contenuto originale in base a molte forme di contenuto, ad esempio linguaggio naturale, visione artificiale, audio o input di immagini. Con l'intelligenza artificiale generativa, è possibile descrivere un output desiderato nel linguaggio quotidiano e il modello può rispondere creando testo, immagine e codice appropriati. Esempi di applicazioni di intelligenza artificiale generative includono Microsoft Copilot e il servizio Azure OpenAI.
copilot è principalmente un'interfaccia utente che consente di scrivere codice, documenti e altri contenuti basati su testo. Si basa sui modelli OpenAI più diffusi ed è integrato in un'ampia gamma di applicazioni e esperienze utente Microsoft.
Azure OpenAI è una piattaforma di sviluppo come servizio che fornisce l'accesso ai potenti modelli linguistici di OpenAI, ad esempio o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo con Vision, GPT-4, GPT-3.5-Turbo e la serie di modelli Embeddings. È possibile adattare questi modelli alle attività specifiche, ad esempio:
- Generazione di contenuti.
- Riepilogo del contenuto.
- Comprensione delle immagini.
- Ricerca semantica.
- Linguaggio naturale per la traduzione del codice.
Modelli linguistici
I modelli linguistici sono un sottogruppo di intelligenza artificiale generativa che si concentra sulle attività di elaborazione del linguaggio naturale, ad esempio la generazione di testo e l'analisi delle emozioni. Questi modelli rappresentano il linguaggio naturale in base alla probabilità che le parole o le sequenze di parole si verifichino in un determinato contesto.
I modelli linguistici convenzionali vengono usati nelle impostazioni con supervisione per scopi di ricerca in cui i modelli vengono sottoposti a training su set di dati di testo ben etichettati per attività specifiche. I modelli linguistici con training preliminare offrono un modo accessibile per iniziare a usare l'intelligenza artificiale. Sono più ampiamente usati negli ultimi anni. Questi modelli vengono sottoposti a training su raccolte di testo su larga scala da Internet tramite reti neurali di Deep Learning. È possibile ottimizzarle in set di dati più piccoli per attività specifiche.
Il numero di parametri o pesi determina le dimensioni di un modello linguistico. I parametri influenzano il modo in cui il modello elabora i dati di input e genera l'output. Durante il training, il modello regola i pesi per ridurre al minimo la differenza tra le stime e i dati effettivi. Questo processo illustra come il modello apprende i parametri. Maggiore è il numero di parametri di un modello, più complesso ed espressivo è. Ma è anche più oneroso dal punto di vista computazionale addestrare e utilizzare.
In generale, i modelli linguistici di piccole dimensioni hanno in genere meno di 10 miliardi di parametri e i modelli linguistici di grandi dimensioni hanno più di 10 miliardi di parametri. Ad esempio, la famiglia di modelli Microsoft Phi-3 ha tre versioni:
- Mini, 3,8 miliardi di parametri
- Parametri piccoli, 7 miliardi
- Medio, 14 miliardi di parametri
Per altre informazioni, vedere catalogo dei modelli linguistici .
Copiloti
La disponibilità dei modelli linguistici ha portato all'emergere di nuovi modi per interagire con applicazioni e sistemi tramite copiloti digitali e agenti specifici del dominio. copiloti sono assistenti di intelligenza artificiale generativi che si integrano nelle applicazioni, spesso come interfacce di chat. Forniscono supporto contestualizzato per le attività comuni in tali applicazioni.
Microsoft Copilot si integra con un'ampia gamma di applicazioni e esperienze utente Microsoft. Si basa su un'architettura aperta in cui gli sviluppatori non Microsoft possono creare plug-in personalizzati per estendere o personalizzare l'esperienza utente con Copilot. Gli sviluppatori partner possono anche creare copiloti personalizzati usando la stessa architettura aperta.
Per altre informazioni, vedere le risorse seguenti:
- Adottare, estendere e creare esperienze con Copilot in Microsoft Cloud
- Copilot Studio
- Azure AI Foundry
Generazione aumentata di recupero
La generazione aumentata di recupero (RAG) è un modello di architettura che aumenta le funzionalità di un modello di linguaggio di grandi dimensioni (LLM), ad esempio ChatGPT, sottoposto a training solo su dati pubblici. È possibile usare questo modello per aggiungere un sistema di recupero che fornisce dati di base pertinenti nel contesto con la richiesta dell'utente. Un sistema di recupero delle informazioni fornisce il controllo sui dati di base usati da un modello linguistico quando formula una risposta. L'architettura RAG consente di definire l'ambito dell'intelligenza artificiale generativa ai contenuti originati da documenti, immagini e altri formati di dati vettorializzati. Rag non è limitato all'archiviazione di ricerca vettoriale. È possibile usare qualsiasi tecnologia di archivio dati.
Per altre informazioni, vedere Progettare e sviluppare una soluzione RAG e Scegliere un servizio di Azure per la ricerca vettoriale.
Servizi di intelligenza artificiale di Azure
Con i servizi di intelligenza artificiale di Azure, gli sviluppatori e le organizzazioni possono usare API e modelli predefiniti e personalizzabili per creare applicazioni intelligenti, pronte per il mercato e responsabili. I casi d'uso includono l'elaborazione del linguaggio naturale per conversazioni, ricerca, monitoraggio, traduzione, riconoscimento vocale, visione e processo decisionale.
Per altre informazioni, vedere le risorse seguenti:
- Scelta di una tecnologia di servizi IA di Azure
- Documentazione dei Servizi di Azure AI
- Scegliere una tecnologia di elaborazione del linguaggio naturale in Azure
Modelli linguistici di intelligenza artificiale
LLMs, ad esempio i modelli OpenAI GPT, sono strumenti potenti che possono generare linguaggio naturale in vari domini e attività. Per scegliere un modello, prendere in considerazione fattori come privacy dei dati, uso etico, accuratezza e distorsione.
I modelli phi aperti sono modelli piccoli e meno a elevato utilizzo di calcolo per soluzioni di intelligenza artificiale generative. Un modello linguistico di piccole dimensioni potrebbe essere più efficiente, interpretabile e spiegabile rispetto a un LLM.
Quando si progetta un carico di lavoro, è possibile usare i modelli linguistici come soluzione ospitata dietro un'API a consumo. In alternativa, per molti modelli linguistici di piccole dimensioni, è possibile ospitare modelli linguistici nel processo o almeno sulla stessa unità di calcolo dell'utente. Quando si usano modelli linguistici nella soluzione, prendere in considerazione la scelta del modello linguistico e le relative opzioni di hosting disponibili per garantire una soluzione ottimizzata per il caso d'uso.
Piattaforme e strumenti di sviluppo di intelligenza artificiale
Le piattaforme e gli strumenti di sviluppo di intelligenza artificiale seguenti consentono di creare, distribuire e gestire modelli di Machine Learning e intelligenza artificiale.
Azure Machine Learning
Azure Machine Learning è un servizio di Machine Learning che è possibile usare per compilare e distribuire modelli. Machine Learning offre interfacce Web e SDK per eseguire il training e la distribuzione di modelli e pipeline di Machine Learning su larga scala. Usare queste funzionalità con framework Python open source, come PyTorch, TensorFlow e scikit-learn.
Per altre informazioni, vedere le risorse seguenti:
- Confrontare prodotti e tecnologie di Microsoft Machine Learning
- documentazione sull'Apprendimento Automatico
- Che cos'è Machine Learning?
Architetture di riferimento di Machine Learning per Azure
Architettura di Base della Chat OpenAI di Azure in una Zona di Atterraggio di Azure
Assegnazione dei punteggi in batch per i modelli Spark di Machine Learning in Azure Databricks
Architettura di riferimento end-to-end OpenAI Baseline è un'architettura di riferimento che descrive come costruire un sistema di chat end-to-end utilizzando i modelli GPT di OpenAI.
Machine Learning automatizzato
Machine Learning automatizzato (AutoML) è il processo di automazione delle attività iterative e dispendiose in termini di tempo dello sviluppo di modelli di Machine Learning. Data scientist, analisti e sviluppatori possono usare AutoML per creare modelli di Machine Learning con scalabilità elevata, efficienza e produttività, mantenendo al contempo la qualità del modello.
Per altre informazioni, vedere le risorse seguenti:
- Che cos’è AutoML?
- Esercitazione : Addestrare un modello di classificazione con AutoML in Machine Learning Studio
- Configurare esperimenti AutoML in Python
- Usare l'estensione dell'interfaccia della riga di comando per Machine Learning
MLflow
Le aree di lavoro di Machine Learning sono compatibili con MLflow, il che significa che è possibile usare un'area di lavoro di Machine Learning nello stesso modo in cui si usa un server MLflow. Questa compatibilità offre i vantaggi seguenti:
- Machine Learning non ospita istanze del server MLflow, ma può usare direttamente le API MLflow.
- È possibile usare un'area di lavoro di Machine Learning come server di rilevamento per qualsiasi codice MLflow, indipendentemente dal fatto che venga eseguito in Machine Learning. È necessario configurare MLflow in modo che punti all'area di lavoro in cui deve verificarsi il rilevamento.
- È possibile eseguire routine di training che usano MLflow in Machine Learning senza apportare modifiche.
Per altre informazioni, vedere MLflow e Machine Learning e MLflow.
Strumenti di intelligenza artificiale generativi
Prompt Flow è una suite di strumenti di sviluppo che è possibile utilizzare per semplificare il ciclo di sviluppo end-to-end delle applicazioni di intelligenza artificiale generativa, dall'ideazione e creazione di prototipi, ai test e alla valutazione, fino alla distribuzione e al monitoraggio in produzione. Supporta la progettazione di richieste tramite l'espressione di azioni in un motore di orchestrazione e flusso modulare.
Azure AI Foundry consente di sperimentare, sviluppare e distribuire app e API di intelligenza artificiale generative in modo responsabile con una piattaforma completa. Il portale di AI Foundry consente di accedere ai servizi di intelligenza artificiale di Azure, ai modelli di base, a un playground e alle risorse per creare, eseguire il training, ottimizzare e distribuire modelli di intelligenza artificiale. È anche possibile valutare le risposte del modello e orchestrare i componenti dell'applicazione prompt con un flusso di prompt per ottenere prestazioni migliori.
Copilot Studio estende Copilot in Microsoft 365. È possibile usare Copilot Studio per creare copiloti personalizzati per scenari interni ed esterni. Usare una piattaforma di sviluppo completa per progettare, testare e pubblicare copiloti. È possibile creare facilmente conversazioni abilitate per l'intelligenza artificiale generative, fornire un maggiore controllo delle risposte per i copiloti esistenti e accelerare la produttività usando flussi di lavoro automatizzati.
Piattaforme dati per intelligenza artificiale
Le piattaforme seguenti offrono soluzioni complete per lo spostamento dei dati, l'elaborazione, l'inserimento, la trasformazione, l'analisi in tempo reale e la creazione di report.
Microsoft Fabric
Microsoft Fabric è una piattaforma di dati e analisi end-to-end per le aziende che richiedono una soluzione unificata. È possibile concedere ai team del carico di lavoro l'accesso ai dati all'interno di Fabric. La piattaforma copre il movimento dei dati, l'elaborazione, l'ingestione, la trasformazione, l'elaborazione di eventi in tempo reale e la creazione di report. Offre una suite completa di servizi, tra cui Fabric Data Engineer, Fabric Data Factory, Fabric Data Science, Fabric Real-Time Intelligence, Fabric Data Warehouse e Fabric Databases.
Il Fabric unifica componenti separati in uno stack coesivo. Anziché affidarsi a database o data warehouse diversi, è possibile centralizzare l'archiviazione dei dati con OneLake. Le funzionalità di intelligenza artificiale sono incorporate all'interno di Fabric, eliminando la necessità di integrazione manuale.
Per altre informazioni, vedere le risorse seguenti:
- Che cos'è Fabric?
- Percorso di Apprendimento : Introduzione a Fabric
- Servizi di intelligenza artificiale in Fabric
- Usare Azure OpenAI in Fabric con l'API REST
- Usare Fabric per l'intelligenza artificiale generativa: guida alla creazione e al miglioramento dei sistemi RAG
- Creare applicazioni di intelligenza artificiale personalizzate con Fabric: Implementare RAG per modelli di linguaggio avanzati
Copiloti in Infrastruttura
È possibile usare Copilot e altre funzionalità di intelligenza artificiale generative per trasformare e analizzare i dati, generare informazioni dettagliate e creare visualizzazioni e report in Infrastruttura e Power BI. È possibile creare un copilota personalizzato o scegliere uno dei copiloti predefiniti seguenti:
- Copilot in Fabric
- Copilot per data science e ingegneria dei dati
- Copilot per Data Factory
- Copilot per data warehouse
- Copilot per Power BI
- Copilot per l'intelligenza in tempo reale
Competenze di intelligenza artificiale nell'infrastruttura
È possibile usare la funzionalità di competenza di Fabric AI per configurare un sistema di intelligenza artificiale generativa per generare query che rispondono alle domande sui dati. Dopo aver configurato una competenza di intelligenza artificiale, è possibile condividerla con i colleghi, che possono quindi porre domande in un linguaggio semplice. In base alle domande formulate, l'intelligenza artificiale genera query sui dati per rispondere a tali domande.
Per altre informazioni, vedere le risorse seguenti:
- Qual è la funzionalità di abilità dell'IA in Fabric?
- Come creare una skill di intelligenza artificiale
- Esempio di competenza di intelligenza artificiale
- Differenza tra una competenza di intelligenza artificiale e un copilota
Piattaforme dati basate su Apache Spark per intelligenza artificiale
Apache Spark è un framework di elaborazione parallela che supporta l'elaborazione in memoria per migliorare le prestazioni delle applicazioni di analisi di Big Data. Spark offre blocchi predefiniti di base per il calcolo dei cluster in memoria. Un processo Spark può caricare e memorizzare nella cache i dati in memoria ed eseguirne ripetutamente query, che è più veloce rispetto alle applicazioni basate su disco, ad esempio Hadoop.
Apache Spark in Microsoft Fabric
Fabric Runtime è una piattaforma integrata in Azure basata su Apache Spark che consente l'implementazione e la gestione di esperienze di data engineering e data science. Fabric Runtime combina i componenti chiave di origini interne e open source, che offrono una soluzione completa.
Fabric Runtime include i componenti chiave seguenti:
Apache Spark è una potente libreria di elaborazione distribuita open source che consente attività di elaborazione e analisi dei dati su larga scala. Apache Spark offre una piattaforma versatile e ad alte prestazioni per esperienze di ingegneria dei dati e data science.
Delta Lake è un livello di archiviazione open source che integra transazioni atomicità, coerenza, isolamento e durabilità (ACID) e altre funzionalità di affidabilità dei dati con Apache Spark. Integrato in Fabric Runtime, Delta Lake migliora le funzionalità di elaborazione dei dati e garantisce la coerenza dei dati tra più operazioni simultanee.
pacchetti a livello predefinito per Java, Scala, Python e R sono pacchetti che supportano linguaggi e ambienti di programmazione diversi. Questi pacchetti vengono installati e configurati automaticamente, in modo che gli sviluppatori possano applicare i propri linguaggi di programmazione preferiti per le attività di elaborazione dati.
Fabric Runtime è basato su un sistema operativo open source affidabile per garantire la compatibilità con varie configurazioni hardware e requisiti di sistema.
Per ulteriori informazioni, vedere Apache Spark runtime in Fabric.
Azure Databricks Runtime per Machine Learning
azure Databricks è una piattaforma di analisi basata su Apache Spark con configurazione con un clic, flussi di lavoro semplificati e un'area di lavoro interattiva per la collaborazione tra data scientist, ingegneri e business analyst.
È possibile usare Databricks Runtime per Machine Learning per avviare un cluster Databricks con tutte le librerie necessarie per il training distribuito. Questa funzionalità offre un ambiente per l'apprendimento automatico e l'analisi scientifica dei dati. Contiene più librerie comuni, tra cui TensorFlow, PyTorch, Keras e XGBoost. Supporta anche il training distribuito tramite Horovod.
Per altre informazioni, vedere le risorse seguenti:
- Documentazione di Azure Databricks
- Funzionalità di Machine Learning in Azure Databricks
- Assegnazione dei punteggi in batch per i modelli Spark di Machine Learning in Azure Databricks
- Panoramica delle funzionalità di Deep Learning per Azure Databricks
Apache Spark in Azure HDInsight
Apache Spark in Azure HDInsight è l'implementazione Microsoft di Apache Spark nel cloud. I cluster Spark in HDInsight sono compatibili con Archiviazione di Azure e Azure Data Lake Storage, quindi è possibile usare cluster HDInsight Spark per elaborare i dati archiviati in Azure.
SynapseML, noto in precedenza come MMLSpark, è la libreria di Machine Learning Microsoft per Apache Spark. Questa libreria open source aggiunge all'ecosistema Spark molti strumenti di deep learning e data science, funzionalità di rete e prestazioni a livello di produzione.
Per altre informazioni, vedere le risorse seguenti:
- caratteristiche e funzionalità di SynapseML
- panoramica di HDInsight
- esercitazione : Creare un'applicazione di Machine Learning Apache Spark in HDInsight
- Procedure consigliate di Apache Spark in HDInsight
- Configurare le impostazioni del cluster Apache Spark di HDInsight
- Creare una pipeline di Machine Learning Apache Spark in HDInsight
Archiviazione dei dati per intelligenza artificiale
È possibile usare le piattaforme seguenti per archiviare, accedere e analizzare in modo efficiente volumi elevati di dati.
Infrastruttura OneLake
OneLake in Fabric è un data lake unificato e logico che è possibile personalizzare per l'intera organizzazione. Funge da hub centrale per tutti i dati di analisi ed è incluso in ogni tenant di Fabric. OneLake in Fabric si basa sulla base di Data Lake Storage.
OneLake in Fabric:
- Supporta tipi di file strutturati e non strutturati.
- Archivia tutti i dati tabulari in formato Delta-Parquet.
- Fornisce un singolo data lake entro i limiti del tenant regolati per impostazione predefinita.
- Supporta la creazione di aree di lavoro all'interno di un tenant in modo che l'organizzazione possa distribuire i criteri di proprietà e accesso.
- Supporta la creazione di vari elementi di dati, ad esempio lakehouse e warehouse, da cui è possibile accedere ai dati.
Per altre informazioni, vedere OneLake, OneDrive per i dati.
Data Lake Storage
Data Lake Storage è un unico repository centralizzato in cui è possibile archiviare i dati strutturati e non strutturati. Usare un data lake per archiviare, accedere e analizzare in modo rapido e semplice un'ampia gamma di dati in un'unica posizione. Non è necessario adeguare i dati per adattarli a una struttura esistente. È invece possibile archiviare i dati nel formato non elaborato o nativo, in genere come file o come oggetti binari di grandi dimensioni o BLOB.
Data Lake Storage offre semantica del file system, sicurezza a livello di file e scalabilità. Poiché queste funzionalità sono basate su Archiviazione BLOB di Azure, si ottiene anche un archivio a livelli a basso costo con funzionalità di disponibilità elevata e ripristino di emergenza.
Data Lake Storage usa l'infrastruttura di Archiviazione di Azure per creare una base per la creazione di data lake aziendali in Azure. Data Lake Storage può gestire più petabyte di informazioni, sostenendo centinaia di gigabit di velocità effettiva in modo da poter gestire grandi quantità di dati.
Per altre informazioni, vedere le risorse seguenti:
Elaborazione dei dati per intelligenza artificiale
È possibile usare gli strumenti seguenti per preparare i dati per le applicazioni di Machine Learning e intelligenza artificiale. Assicurarsi che i dati siano puliti e strutturati in modo da poterli usare per l'analisi avanzata.
Fabric Data Factory
È possibile usare Fabric Data Factory per inserire, preparare e trasformare i dati da più origini dati, ad esempio database, data warehouse, lakehouse e flussi di dati in tempo reale. Questo servizio consente di soddisfare i requisiti di operazioni sui dati quando si progettano carichi di lavoro.
Fabric Data Factory supporta soluzioni di codice e soluzioni senza codice o con poco codice:
Usare pipeline di dati per creare funzionalità del flusso di lavoro su scala cloud. Usare l'interfaccia drag-and-drop per creare flussi di lavoro in grado di aggiornare il flusso di dati, spostare dati di dimensioni petabyte e definire pipeline di controllo del flusso.
Usare flussi di dati come interfaccia a basso codice per inserire dati da centinaia di origini dati e trasformarli usando più di 300 trasformazioni di dati.
Per altre informazioni, vedere scenario end-to-end di Data Factory: Introduzione e architettura.
Azure Databricks
È possibile usare databricks Data Intelligence Platform per scrivere codice per creare un flusso di lavoro di Machine Learning usando la progettazione delle funzionalità. progettazione delle funzionalità è il processo di trasformazione dei dati non elaborati in funzionalità che è possibile usare per eseguire il training di modelli di Machine Learning. Databricks Data Intelligence Platform include funzionalità chiave che supportano la progettazione delle funzionalità:
pipeline di dati inserire dati non elaborati, creare tabelle delle funzionalità, eseguire il training dei modelli ed eseguire l'inferenza batch. Quando si usa la progettazione delle funzionalità in Unity Catalog per eseguire il training e registrare un modello, il modello viene incluso in un pacchetto con i metadati delle funzionalità. Quando si usa il modello per l’assegnazione di punteggi batch o l’inferenza online, recupera automaticamente i valori delle funzionalità. Il chiamante non deve conoscere i valori o includere la logica per cercare o unire le funzionalità per assegnare un punteggio ai nuovi dati.
Modello e funzionalità che servono gli endpoint sono immediatamente accessibili e forniscono millisecondi di latenza.
Monitoraggio consente di garantire le prestazioni e l'accuratezza dei dati e dei modelli.
È anche possibile utilizzare Mosaic AI Vector Search per archiviare e recuperare le rappresentazioni. Gli incorporamenti sono fondamentali per le applicazioni che richiedono ricerche di somiglianza, ad esempio RAG, sistemi di raccomandazione e riconoscimento delle immagini.
Per altre informazioni, vedere Azure Databricks: Gestire i dati per Machine Learning e intelligenza artificiale.
Connettori dati per intelligenza artificiale
Le pipeline di Azure Data Factory e Azure Synapse Analytics supportano molti archivi dati e formati tramite copia, flusso di dati, ricerca, recupero di metadati ed attività di eliminazione. Per visualizzare i connettori dell'archivio dati disponibili, le funzionalità supportate, incluse le configurazioni corrispondenti e le opzioni generiche Open Database Connectivity, vedere Panoramica sui connettori di Azure Data Factory e Azure Synapse Analytics.
Intelligenza artificiale personalizzata
Le soluzioni di intelligenza artificiale personalizzate consentono di affrontare esigenze e sfide aziendali specifiche. Le sezioni seguenti offrono una panoramica di vari strumenti e servizi che è possibile usare per compilare e gestire modelli di intelligenza artificiale personalizzati.
Azure Machine Learning
Azure Machine Learning è un servizio cloud per accelerare e gestire il ciclo di vita dei progetti di apprendimento automatico. I professionisti di Machine Learning, i data scientist e i tecnici possono usare questo servizio nei flussi di lavoro quotidiani per eseguire il training e la distribuzione di modelli e gestire le operazioni di Machine Learning.
Machine Learning offre le funzionalità seguenti:
Selezione algoritmo: Alcuni algoritmi fanno ipotesi specifiche sulla struttura dei dati o sui risultati desiderati. Scegliere un algoritmo adatto alle proprie esigenze in modo da ottenere risultati più utili, stime più accurate e tempi di training più rapidi. Per altre informazioni, vedere Come selezionare gli algoritmi per Machine Learning.
l'ottimizzazione o la messa a punto degli iperparametri: È possibile usare questo processo manuale per trovare configurazioni degli iperparametri che garantiscono le migliori prestazioni. Questa ottimizzazione comporta costi di calcolo significativi. gli iperparametri sono parametri regolabili che forniscono il controllo nel processo di training del modello. Ad esempio, è possibile scegliere il numero di livelli nascosti e il numero di nodi in ogni livello di reti neurali. Le prestazioni del modello dipendono principalmente dagli iperparametri.
È possibile usare Machine Learning per automatizzare l'ottimizzazione degli iperparametri ed eseguire esperimenti in parallelo per ottimizzare in modo efficiente gli iperparametri.
Per altre informazioni, vedere le risorse seguenti:
training modello: è possibile usare in modo iterativo un algoritmo per creare o insegnare modelli. Dopo aver eseguito il training dei modelli, è possibile usarli per analizzare i dati ed eseguire stime.
Durante la fase di training:
Un set di dati noti viene contrassegnato in modo che i singoli campi siano identificabili.
Un algoritmo configurato per eseguire una stima specifica riceve i dati con tag.
L'algoritmo restituisce un modello che acquisisce i modelli identificati nei dati. Il modello usa un set di parametri per rappresentare questi modelli.
Durante la convalida:
I dati aggiornati vengono contrassegnati e usati per testare il modello.
L'algoritmo viene regolato in base alle esigenze ed eventualmente esegue più addestramento.
La fase di test utilizza dati reali senza etichette o obiettivi preselezionati. Se i risultati del modello sono accurati, è pronto per l'uso e può essere distribuito.
Per altre informazioni, vedere le risorse seguenti:
AutoML: Questo processo automatizza le attività iterative e dispendiose in termini di tempo dello sviluppo di modelli di Machine Learning. Può ridurre significativamente il tempo necessario per produrre modelli di Machine Learning pronti per la produzione. AutoML può essere utile per la selezione del modello, l'ottimizzazione degli iperparametri, il training del modello e altre attività, senza richiedere una conoscenza approfondita della programmazione o del dominio.
È possibile usare AutoML quando si vuole che Machine Learning usi una metrica di destinazione specificata per eseguire il training e ottimizzare un modello. Non sono necessarie competenze di data science per identificare una pipeline di Machine Learning end-to-end per i problemi.
I professionisti e gli sviluppatori di Machine Learning in tutti i settori possono usare AutoML per:
- Implementare soluzioni di Machine Learning senza una programmazione completa o una conoscenza di Machine Learning.
- Risparmiare tempo e risorse.
- Applicare le procedure consigliate per l'analisi scientifica dei dati.
- Fornire una soluzione agile per i problemi.
Per altre informazioni, vedere Che cos'è AutoML?.
Punteggio: Questo processo, detto anche previsione, utilizza un modello di apprendimento automatico addestrato per generare valori basati su nuovi dati di ingresso. I valori, o i punteggi, possono rappresentare stime di valori futuri, ma possono anche rappresentare una categoria o un risultato probabile.
Per altre informazioni, vedere le risorse seguenti:
Ingegneria delle caratteristiche e strutturazione: I dati di addestramento sono costituiti da righe e colonne. Ciascuna riga è un'osservazione o un record, mentre le colonne di ogni riga corrispondono alle funzionalità che descrivono ciascun record. In genere, le funzionalità che meglio caratterizzano i modelli nei dati vengono selezionate per creare modelli predittivi.
Sebbene sia possibile usare molti campi dati non elaborati per eseguire il training di un modello, potrebbe essere necessario creare altre funzionalità ingegneriate che forniscono informazioni per differenziare meglio i modelli nei dati. Questo processo è denominato progettazione di funzionalità, in cui si usano le conoscenze del dominio dei dati per creare funzionalità che consentono agli algoritmi di Machine Learning di apprendere meglio.
In Machine Learning, le tecniche di ridimensionamento dei dati e normalizzazione vengono applicate per semplificare la progettazione delle funzionalità. Collettivamente, queste tecniche e progettazione di funzionalità vengono chiamate di definizione delle caratteristiche negli esperimenti AutoML. Per altre informazioni, vedere Funzionalità dei dati in Machine Learning automatizzato.
OpenAI di Azure
In Azure OpenAI, è possibile utilizzare un processo noto come fine-tuning per adattare i modelli OpenAI ai tuoi set di dati personali. Questo passaggio di personalizzazione ottimizza il servizio fornendo:
- Risultati di qualità più elevata rispetto all'utilizzo esclusivo dell'ingegneria rapida .
- La capacità di allenare un modello su un numero di esempi superiore al limite massimo di contesto di richiesta che normalmente permette.
- Risparmio di token a causa di istruzioni più brevi.
- Richieste di bassa latenza, in particolare quando si usano modelli più piccoli.
Per altre informazioni, vedere le risorse seguenti:
- Personalizzare un modello con l'ottimizzazione
- Esercitazione : di ottimizzazione di Azure OpenAI GPT-4o-mini
- Architettura di riferimento della chat end-to-end OpenAI baseline
Servizi di intelligenza artificiale di Azure per intelligenza artificiale personalizzata
servizi di intelligenza artificiale di Azure fornisce funzionalità per creare modelli e applicazioni di intelligenza artificiale personalizzati. Le sezioni seguenti forniscono una panoramica di queste funzionalità chiave.
Riconoscimento vocale personalizzato
Il riconoscimento vocale personalizzato è una funzionalità del servizio Voce di Intelligenza artificiale di Azure. È possibile usare il riconoscimento vocale personalizzato per valutare e migliorare l'accuratezza del riconoscimento vocale per le applicazioni e i prodotti. Usare un modello di riconoscimento vocale personalizzato per la sintesi vocale in tempo reale, la traduzione vocale e la trascrizione batch.
Per impostazione predefinita, il riconoscimento vocale usa un modello linguistico universale come modello di base. Questo modello viene sottoposto a training con i dati di proprietà di Microsoft e riflette la lingua parlata comunemente usata. Il modello di base è sottoposto a training preliminare con dialetti e fonetici che rappresentano vari domini comuni. Quando si effettua una richiesta di riconoscimento vocale, per impostazione predefinita viene usato il modello di base più recente per la lingua supportata. Il modello di base funziona bene nella maggior parte degli scenari di riconoscimento vocale.
È possibile usare un modello personalizzato per aumentare il modello di base. Ad esempio, è possibile migliorare il riconoscimento del vocabolario specifico del dominio specifico di un'applicazione fornendo dati di testo per eseguire il training del modello. È anche possibile migliorare il riconoscimento per condizioni audio specifiche di un'applicazione fornendo dati audio, incluse le trascrizioni di riferimento.
Se i dati seguono un modello, è possibile usare il testo strutturato per eseguire il training di un modello. È possibile specificare pronunce personalizzate e personalizzare la formattazione del testo di visualizzazione con normalizzazione del testo inversa personalizzata, riscrittura personalizzata e filtro personalizzato per il contenuto volgare.
Traduttore personalizzato
Traduttore personalizzato è una funzionalità del servizio Azure AI Translator. Aziende, sviluppatori di app e provider di servizi linguistici possono usare traduttore personalizzato per creare sistemi di traduzione automatica neurale (NMT) personalizzati. I sistemi di traduzione personalizzata si integrano senza problemi nelle applicazioni, nei flussi di lavoro e nei siti Web esistenti.
È possibile usare questa funzionalità per compilare e pubblicare sistemi di traduzione personalizzati da e verso l'inglese. Il traduttore personalizzato supporta oltre trenta lingue che corrispondono direttamente alle lingue per la Traduzione Automatica Neurale (NMT). Per un elenco completo delle lingue, vedere lingue supportate da Translator.
Traduttore personalizzato offre le funzionalità seguenti.
Funzionalità | Descrizione |
---|---|
Applicare la tecnologia NMT | Applicare NMT dal traduttore personalizzato per migliorare la traduzione. |
Creare sistemi che conoscono la terminologia aziendale | Personalizzare e creare sistemi di traduzione usando documenti paralleli che comprendano la terminologia dell'azienda e del settore. |
Uso di un dizionario per la creazione di modelli | Eseguire il training di un modello utilizzando solo i dati del dizionario se non si dispone di un dataset di allenamento. |
Collaborazione con altri utenti | Collaborare con il team condividendo il lavoro con varie persone. |
Accesso ai modelli di traduzione personalizzati | Accedere al modello di traduzione personalizzato in qualsiasi momento usando le applicazioni o i programmi esistenti tramite l'API Traduzione testuale Microsoft V3. |
Modelli personalizzati di Document Intelligence per intelligenza artificiale di Azure
Intelligence per i documenti di Intelligenza artificiale di Azure usa una tecnologia avanzata di Machine Learning per identificare documenti, rilevare ed estrarre informazioni da moduli e documenti e restituire i dati estratti in un output JSON strutturato. Usare Document Intelligence per sfruttare i modelli di analisi dei documenti predefiniti o pre-addestrati o i modelli personalizzati addestrati autonomamente.
I modelli personalizzati di Document Intelligence includono modelli di classificazione personalizzati per scenari in cui è necessario identificare il tipo di documento prima di richiamare il modello di estrazione. È possibile associare un modello di classificazione a un modello di estrazione personalizzato per analizzare ed estrarre campi da moduli e documenti specifici dell'azienda. Combinare modelli di estrazione personalizzati autonomi per creare modelli composti.
Strumenti di intelligenza artificiale personalizzati
I modelli di intelligenza artificiale predefiniti sono utili e sempre più flessibili, ma il modo migliore per ottimizzare l'intelligenza artificiale consiste nel personalizzare un modello in base alle esigenze specifiche. Due strumenti principali per creare modelli di intelligenza artificiale personalizzati sono l'intelligenza artificiale generativa e l'apprendimento automatico tradizionale.
Studio di Azure Machine Learning
azure Machine Learning Studio è un servizio cloud per accelerare e gestire il ciclo di vita del progetto di Machine Learning. I professionisti di Machine Learning, i data scientist e i tecnici possono usarli nei flussi di lavoro quotidiani per eseguire il training e la distribuzione di modelli e gestire le operazioni di Machine Learning.
Compilare ed eseguire il training di modelli di Machine Learning usando qualsiasi tipo di calcolo, inclusi Spark e GPU per carichi di lavoro di intelligenza artificiale di grandi dimensioni su scala cloud.
Eseguire AutoML e usare l'interfaccia utente di trascinamento della selezione per Machine Learning con poco codice.
Implementare operazioni di Machine Learning end-to-end e pipeline ripetibili.
Usare il dashboard di intelligenza artificiale responsabile per il rilevamento delle distorsioni e l'analisi degli errori.
Orchestrare e gestire la progettazione delle richieste e i flussi LLM.
Distribuire modelli tramite endpoint dell'API REST, inferenza in tempo reale e inferenza batch.
Usare le aree di lavoro hub per condividere risorse di calcolo, quota, sicurezza e connettività alle risorse aziendali, centralizzando al contempo la governance per l'IT. Configurare un hub una sola volta, quindi creare aree di lavoro sicure direttamente dallo studio per ogni progetto. Usare hub per gestire il lavoro del team nello studio e nel portale di AI Foundry.
AI Foundry
AI Foundry consente di creare e distribuire in modo efficiente applicazioni di IA generative personalizzate grazie all'ampia gamma di offerte Azure AI.
Creare insieme come un unico team. L'hub di AI Foundry offre sicurezza di livello aziendale e un ambiente collaborativo che include risorse condivise e connessioni a modelli preaddestrati, dati e capacità di calcolo.
Organizzare il lavoro. Il progetto AI Foundry aiuta a salvare lo stato in modo da poter iterare dall'idea iniziale al primo prototipo e alla prima messa in produzione. Invitare facilmente altri utenti a collaborare con l'utente.
Usare la piattaforma e i framework di sviluppo preferiti, tra cui GitHub, Visual Studio Code, LangChain, Semantic Kernel e AutoGen.
Individuare e eseguire il benchmark da oltre 1.600 modelli.
Fornire modelli come servizio (MaaS) tramite API serverless e messa a punto ospitata.
Incorporare più modelli, origini dati e modalità.
Costruisci RAG utilizzando i dati aziendali protetti, senza bisogno di un'ottimizzazione fine.
Orchestrare e gestire la progettazione delle richieste e i flussi LLM.
Progettare e proteggere app e API tramite filtri e controlli configurabili.
Valutare le risposte del modello usando flussi di valutazione predefiniti e personalizzati.
Distribuire innovazioni di intelligenza artificiale nell'infrastruttura gestita da Azure per fornire monitoraggio e governance continui in ambienti diversi.
Monitorare costantemente la sicurezza, la qualità e il consumo di token in produzione delle app distribuite.
Per altre informazioni, vedere portale di AI Foundry e Machine Learning Studio.
Flusso dei prompt nel portale di AI Foundry
flusso prompt nel portale di AI Foundry è uno strumento di sviluppo che è possibile usare per semplificare l'intero ciclo di sviluppo di applicazioni di intelligenza artificiale basate su LLMs. Prompt flow offre una soluzione completa che semplifica il processo di creazione di prototipi, la sperimentazione, l'iterazione e la distribuzione delle applicazioni di intelligenza artificiale.
Il flusso di prompt è una funzionalità che si può utilizzare per generare, personalizzare o eseguire un flusso.
Un flusso è un set di istruzioni che può implementare la logica di intelligenza artificiale. Creare o eseguire flussi tramite strumenti, ad esempio un canvas predefinito o LangChain. È possibile salvare le iterazioni di un flusso come asset. Dopo aver distribuito un flusso, diventa un'API. Non tutti i flussi sono flussi immediati. Il prompt flow è un modo per creare un flusso.
Un prompt è un pacchetto di input inviato a un modello. È costituito dall'input dell'utente, dal messaggio di sistema e da qualsiasi esempio. L'input dell'utente è il testo inviato nella finestra della chat. Il messaggio di sistema è un set di istruzioni per il modello che definisce l'ambito dei relativi comportamenti e funzionalità.
Un flusso di esempio è un flusso di orchestrazione predefinito semplice che mostra il funzionamento dei flussi. È possibile personalizzare un flusso di esempio.
Un prompt di esempio è un prompt definito per uno scenario specifico che è possibile copiare da una libreria e usare as-is o modificarlo nella progettazione della richiesta.
Linguaggi di codice di intelligenza artificiale personalizzati
Il concetto di base dell'intelligenza artificiale è l'uso di algoritmi per analizzare i dati e generare modelli per descrivere, o assegnare punteggi, in modi utili. Gli sviluppatori e i data scientist, e talvolta altri algoritmi, usano il codice di programmazione per scrivere algoritmi. Due dei linguaggi di programmazione più diffusi per lo sviluppo di intelligenza artificiale sono Python e R.
Python è un linguaggio di programmazione di alto livello per utilizzo generico. Ha una sintassi semplice e di facile apprendimento che ne enfatizza la leggibilità. Non esiste alcun passaggio di compilazione. Python ha una libreria standard di grandi dimensioni e supporta la possibilità di aggiungere moduli e pacchetti. Questa funzionalità incoraggia la modularità e consente di espandere le funzionalità quando necessario. Esiste un ampio e crescente ecosistema di librerie di intelligenza artificiale e machine learning per Python, tra cui molti in Azure.
Per altre informazioni, vedere le risorse seguenti:
- Home page del prodotto Python in Azure
- Azure for Python developers (Azure per sviluppatori Python)
- Machine Learning SDK per Python
- Introduzione all'apprendimento automatico con Python e notebook
- scikit-learn, libreria open source per il machine learning in Python
- Libreria Python open-source PyTorch
- TensorFlow, libreria open-source di matematica simbolica
- Tutorial: Applicare modelli di Machine Learning in Funzioni di Azure con Python e TensorFlow
R è un linguaggio e un ambiente per l'elaborazione statistica e la grafica. È possibile usarlo per tutto, dal mapping online di tendenze sociali e di marketing ampie allo sviluppo di modelli finanziari e climatici.
Microsoft adotta completamente il linguaggio di programmazione R e offre molte opzioni per gli sviluppatori R per eseguire il codice in Azure.
Per altre informazioni, vedere Usare R in modo interattivo in Machine Learning.
Per informazioni generali sull'intelligenza artificiale personalizzata in Azure, vedere le risorse seguenti:
- Intelligenza artificiale Microsoft in GitHub: esempi, architetture di riferimento e procedure consigliate
- Machine Learning SDK di Python
- repository di esempi di Machine Learning
- Addestrare modelli R utilizzando la CLI di Machine Learning v2
Storie dei clienti
Molti settori applicano l'IA in modi innovativi e stimolanti. Prendere in considerazione i case study e le storie di successo seguenti:
- Volkswagen: La traduzione automatica parla Volkswagen in 60 lingue
- Assistenza sanitaria per tutti con Kry utilizzando OpenAI di Azure
- PIMCO aumenta il servizio client con una piattaforma di ricerca basata sull'intelligenza artificiale basata su Intelligenza artificiale di Azure
- Legrand e Azure OpenAI: Alimentare soluzioni più intelligenti con strumenti basati sull'AI
- C.H. Robinson supera le vecchie barriere per automatizzare il settore logistico usando Azure AI
Esplorare altre storie dei clienti in relazione all'intelligenza artificiale
Informazioni generali sull'intelligenza artificiale Microsoft
Altre informazioni sull'intelligenza artificiale Microsoft e rimanere aggiornati sulle notizie correlate:
- IA Microsoft
- hub di apprendimento per intelligenza artificiale
- Azure per intelligenza artificiale
- notizie sull'intelligenza artificiale Microsoft
- Intelligenza artificiale Microsoft in GitHub: esempi, architetture di riferimento e procedure consigliate
- Centro architetture di Azure
Passaggio successivo
Risorsa correlata
- diagrammi e descrizioni tecnologiche di architettura per le soluzioni di intelligenza artificiale