Questo articolo descrive diversi modi in cui le piccole e medie imprese (PMI) possono modernizzare gli archivi dati legacy ed esplorare strumenti e funzionalità di Big Data senza eseguare i budget e i set di competenze correnti. Queste soluzioni complete di data warehousing si integrano perfettamente con Azure Machine Learning, servizi di intelligenza artificiale di Azure, Microsoft Power Platform, Microsoft Dynamics 365 e altre tecnologie Microsoft. Queste soluzioni offrono un punto di ingresso semplice per la piattaforma dati SaaS (Software as a Service) completamente gestita in Microsoft Fabric che può espandersi man mano che aumentano le esigenze.
Le pmi che usano SQL Server locale per le soluzioni di data warehousing con meno di 500 GB possono trarre vantaggio dall'uso di questo modello. Usano vari strumenti per l'inserimento dati nella soluzione di data warehousing, tra cui SQL Server Integration Services (SSIS), SQL Server Analysis Services (SSAS), SQL Server Reporting Services (SSRS), stored procedure SQL comuni, estrazione esterna, trasformazione e caricamento (ETL) e strumenti di estrazione, caricamento, trasformazione (ELT), processi di SQL Server Agent e replica snapshot SQL. Le operazioni di sincronizzazione dei dati sono in genere basate su snapshot, eseguite una volta al giorno e non hanno requisiti di creazione di report in tempo reale.
Architettura semplificata
Scaricare un file di Visio di questa architettura.
Un'opportunità di modernizzazione concettuale implica la transizione della soluzione di data warehousing legacy a una combinazione di database SQL di Azure, Istanza gestita di SQL di Azure e Fabric. Questa strategia garantisce un'ampia compatibilità con gli strumenti client SQL Server e SQL tradizionali come SQL Server Management Studio (SSMS). Fornisce anche opzioni di trasferimento in modalità lift-and-shift per i processi esistenti e richiede un upskilling minimo per il team di supporto. Questa soluzione funge da passo iniziale verso una modernizzazione completa, che consente all'organizzazione di adottare completamente un approccio lakehouse man mano che il data warehouse si espande e il set di competenze del team cresce.
Architettura
Scaricare un file di Visio di questa architettura.
I data warehouse SMB legacy possono contenere diversi tipi di dati:
Dati non strutturati, ad esempio documenti e grafica.
Dati semistrutturati, ad esempio log, volumi condivisi cluster, JSON e file XML.
Dati relazionali strutturati, inclusi i database che usano stored procedure per le attività ETL ed ELT.
Flusso di dati
Il flusso di dati seguente corrisponde al diagramma precedente. Illustra l'inserimento del tipo di dati scelto:
Le pipeline di dati di Infrastruttura o le pipeline di Azure Data Factory orchestrano l'inserimento di dati transazionali nella soluzione di data warehousing.
Le pipeline orchestrano il flusso di database legacy e pacchetti SSIS sottoposti a refactoring parziale o migrati in database SQL e Istanza gestita di SQL. È possibile implementare rapidamente questo approccio lift-and-shift, che garantisce una transizione senza problemi da una soluzione SQL locale a un ambiente SaaS di infrastruttura futuro. È possibile modernizzare i database in modo incrementale dopo il trasferimento in modalità lift-and-shift.
Le pipeline possono passare dati non strutturati, semistrutturati e strutturati in Azure Data Lake Storage per l'archiviazione e l'analisi centralizzate con altre origini. Usare questo approccio quando si esegue la fusione dei dati offre un vantaggio aziendale maggiore rispetto alla ripiattaforma dei dati.
Usare le origini dati di Microsoft Dynamics 365 per creare dashboard di Business Intelligence centralizzati nei set di dati aumentati usando gli strumenti di analisi serverless di Fabric. È possibile riportare i dati fusi ed elaborati in Dynamics e usarli per un'ulteriore analisi all'interno di Fabric.
I dati in tempo reale dalle origini di streaming possono accedere al sistema tramite Hub eventi di Azure o altre soluzioni di streaming. Per i clienti con requisiti del dashboard in tempo reale, Fabric Real-Time Analytics può analizzare immediatamente questi dati.
I dati possono essere inseriti nell'infrastruttura centralizzata OneLake per ulteriori analisi, archiviazione e creazione di report usando i collegamenti a Data Lake Storage. Questo processo abilita l'analisi sul posto e facilita il consumo downstream.
Gli strumenti di analisi serverless, ad esempio l'endpoint di Analisi SQL e le funzionalità Di Fabric Spark, sono disponibili su richiesta all'interno di Fabric e non richiedono risorse di cui è stato effettuato il provisioning. Gli strumenti di analisi serverless sono ideali per:
Attività ETL e ELT sui dati di OneLake.
Gestire il livello oro dell'architettura delle medaglie ai report di Power BI tramite la funzionalità DirectLake.
Esplorazioni improvvisate di data science in formato T-SQL o Python.
Prototipazione anticipata per entità di data warehouse.
Fabric è strettamente integrato con potenziali consumer di set di dati multisource, inclusi report front-end di Power BI, Machine Learning, Power Apps, App per la logica di Azure, Funzioni di Azure e app Web del servizio app Azure.
Componenti
Fabric è un servizio di analisi che combina funzionalità di data engineering, data warehousing, data science e dati e BI in tempo reale. In questa soluzione, le funzionalità di ingegneria dei dati di Fabric offrono una piattaforma collaborativa per data engineer, data scientist, analisti dei dati e professionisti bi. Questo componente chiave è basato su motori di calcolo serverless e offre valore aziendale generando informazioni dettagliate distribuite ai clienti.
database SQL e Istanza gestita di SQL sono servizi di database relazionali basati sul cloud. database SQL e Istanza gestita di SQL usare SSMS per sviluppare e gestire elementi legacy come le stored procedure. In questa soluzione questi servizi ospitano il data warehouse aziendale ed eseguono attività ETL ed ELT usando stored procedure o pacchetti esterni. database SQL e Istanza gestita di SQL sono ambienti PaaS (Platform as a Service) che è possibile usare per soddisfare i requisiti di disponibilità elevata e ripristino di emergenza. Assicurarsi di scegliere lo SKU che soddisfi i requisiti. Per altre informazioni, vedere Disponibilità elevata per database SQL e Disponibilità elevata per Istanza gestita di SQL.
SSMS è un ambiente integrato per la gestione dell'infrastruttura SQL che è possibile usare per sviluppare e gestire artefatti legacy, ad esempio stored procedure.
Hub eventi è una piattaforma di streaming di dati in tempo reale e un servizio di inserimento eventi. Hub eventi si integra perfettamente con i servizi dati di Azure e può inserire dati da qualsiasi posizione.
Alternative
È possibile usare hub IoT di Azure per sostituire o integrare Hub eventi. Scegliere la soluzione in base all'origine dei dati di streaming e se è necessaria la clonazione e la comunicazione bidirezionale con i dispositivi di report.
È possibile usare le pipeline di dati di Fabric anziché le pipeline di Data Factory per l'integrazione dei dati. La decisione dipenderà da diversi fattori. Per altre informazioni, vedere Recupero da Azure Data Factory a Data Factory in Infrastruttura.
È possibile usare Fabric Warehouse anziché database SQL o Istanza gestita di SQL per archiviare i dati aziendali. Questo articolo assegna priorità al time-to-market per i clienti che vogliono modernizzare i data warehouse. Per altre informazioni sulle opzioni dell'archivio dati per Fabric, vedere Guida alle decisioni sull'infrastruttura.
Dettagli dello scenario
Quando le PMI modernizzano i data warehouse locali per il cloud, possono adottare strumenti per Big Data per una scalabilità futura o usare soluzioni tradizionali basate su SQL per un'efficienza dei costi, una facilità di manutenzione e una transizione senza problemi. Un approccio ibrido offre il meglio di entrambi i mondi e consente di eseguire facilmente la migrazione di aree dati esistenti usando strumenti moderni e funzionalità di intelligenza artificiale. Le pmi possono mantenere le origini dati basate su SQL in esecuzione nel cloud e modernizzarle in base alle esigenze.
Questo articolo descrive diverse strategie per le PMI per modernizzare gli archivi dati legacy ed esplorare strumenti e funzionalità di Big Data senza estendere i budget e i set di competenze correnti. Queste soluzioni complete di data warehousing di Azure si integrano perfettamente con Azure e servizi Microsoft, inclusi i servizi di intelligenza artificiale, Microsoft Dynamics 365 e Microsoft Power Platform.
Potenziali casi d'uso
Eseguire la migrazione di un data warehouse relazionale locale tradizionale inferiore a 1 TB e usa pacchetti SSIS per orchestrare le stored procedure.
Mesh di dati Dynamics o Microsoft Power Platform Dataverse esistenti con origini Data Lake in batch e in tempo reale.
Usare tecniche innovative per interagire con i dati centralizzati di Azure Data Lake Storage Gen2. Queste tecniche includono l'analisi serverless, il knowledge mining, la fusione dei dati tra domini e l'esplorazione dei dati degli utenti finali, tra cui Fabric Copilot.
Configurare le aziende di e-commerce per adottare un data warehouse per ottimizzare le operazioni.
Questa soluzione non è consigliata per:
Distribuzione greenfield di data warehouse.
La migrazione di data warehouse locali con dimensioni superiori a 1 TB o che sono previste per raggiungere tale dimensione entro un anno.
Considerazioni
Queste considerazioni implementano i pilastri di Azure Well-Architected Framework, che è un set di principi guida che possono essere usati per migliorare la qualità di un carico di lavoro. Per altre informazioni, vedere Microsoft Azure Well-Architected Framework.
Ottimizzazione dei costi
L'ottimizzazione dei costi riguarda l'analisi dei modi per ridurre le spese non necessarie e migliorare l'efficienza operativa. Per altre informazioni, vedere Elenco di controllo per la revisione della progettazione per l'ottimizzazione dei costi.
Il calcolatore dei prezzi di Azure consente di modificare i valori per comprendere in che modo i requisiti specifici influiscono sui costi. È possibile visualizzare un esempio di prezzi per uno scenario di data warehousing SMB nel calcolatore prezzi di Azure.
database SQL prezzi dipendono dai livelli di calcolo e di servizio scelti e dal numero di vCore e unità di transazione di database. Nell'esempio viene descritto un database singolo con calcolo con provisioning e otto vCore e si presuppone che sia necessario eseguire stored procedure in database SQL.
I prezzi di Data Lake Storage Gen2 dipendono dalla quantità di dati archiviati e dalla frequenza con cui si usano i dati. I prezzi di esempio coprono 1 TB di archiviazione dei dati e altri presupposti transazionali. 1 TB si riferisce alle dimensioni del data lake e non alle dimensioni del database legacy originale.
I prezzi dell'infrastruttura dipendono dal prezzo della capacità di Fabric F o dal prezzo Premium per persona. Le funzionalità serverless usano CPU e memoria dalla capacità dedicata acquistata.
I prezzi di Hub eventi dipendono dal livello scelto, dal numero di unità elaborate di cui è stato effettuato il provisioning e dal traffico in ingresso ricevuto. Nell'esempio si presuppone un'unità elaborate nel livello Standard che gestisce più di un milione di eventi al mese.
Collaboratori
Questo articolo viene gestito da Microsoft. Originariamente è stato scritto dai seguenti contributori.
Autore principale:
- Galina Polyakova | Senior Cloud Solution Architect
Per visualizzare i profili LinkedIn non pubblici, accedere a LinkedIn.
Passaggi successivi
- Per i contenuti e i lab di training, vedere Percorsi di apprendimento del data engineer.
- Introduzione a Fabric.
- Esplora tutti i corsi, i percorsi di apprendimento e i moduli.
- Creare un database singolo.
- Creare un Istanza gestita di SQL.
- Creare un account di archiviazione da usare con Data Lake Storage Gen2.
- Creare un hub eventi usando il portale di Azure.