Condividi tramite


Connettori di Power Query (anteprima - ritirati)

Importante

Il supporto del connettore Power Query è stato introdotto come anteprima pubblica controllata in condizioni supplementari per l'utilizzo per le anteprime di Microsoft Azure, ma ora non è più disponibile. Se si dispone di una soluzione di ricerca che usa un connettore Power Query, eseguire la migrazione a una soluzione alternativa.

Eseguire la migrazione entro il 28 novembre 2022

L'anteprima del connettore Power Query è stata annunciata a maggio 2021 e non verrà resa disponibile nella disponibilità generale. Le indicazioni seguenti sulla migrazione sono disponibili per Snowflake e PostgreSQL. Se si usa un connettore diverso e sono necessarie istruzioni per la migrazione, usare le informazioni di contatto tramite posta elettronica fornite nell'iscrizione in anteprima per richiedere assistenza o aprire un ticket con il supporto tecnico di Azure.

Prerequisiti

Eseguire la migrazione di una pipeline di dati Snowflake

Questa sezione illustra come copiare dati da un database Snowflake a un indice di Ricerca cognitiva di Azure . Non esiste alcun processo per l'indicizzazione diretta da Snowflake a Ricerca cognitiva di Azure, quindi questa sezione include una fase di gestione temporanea che copia il contenuto del database in un contenitore BLOB di Archiviazione di Azure. Eseguirai quindi l'indicizzazione da quel contenitore di staging usando una pipeline di Data Factory .

Passaggio 1: Recuperare le informazioni sul database Snowflake

  1. Passare a Snowflake e accedere all'account Snowflake. Un account Snowflake è simile a https://<account_name>.snowflakecomputing.com.

  2. Dopo aver eseguito l'accesso, raccogliere le informazioni seguenti dal riquadro sinistro. Queste informazioni verranno usate nel passaggio successivo:

    • Da Dataselezionare Database e copiare il nome dell'origine del database.
    • In Adminselezionare Users & Roles e copiare il nome dell'utente. Assicurarsi che l'utente disponga delle autorizzazioni di lettura.
    • In Admin, selezionare Accounts e copiare il valore del Locator dell'account.
    • Dall'URL Snowflake, simile a https://app.snowflake.com/<region_name>/xy12345/organization). copiare il nome dell'area. Ad esempio, in https://app.snowflake.com/south-central-us.azure/xy12345/organization, il nome dell'area è south-central-us.azure.
    • In Adminselezionare Warehouse e copiare il nome del warehouse associato al database che verrà usato come origine.

Passaggio 2: Configurare il servizio collegato Snowflake

  1. Accedere a azure Data Factory Studio con l'account Azure.

  2. Selezionare la data factory e quindi selezionare Continua.

  3. Nel menu a sinistra selezionare l'icona Gestisci.

    Screenshot che mostra come scegliere l'icona Gestisci in Azure Data Factory per configurare il servizio collegato Snowflake.

  4. In Servizi collegati, selezionare Nuovo.

    Screenshot che mostra come scegliere Nuovo servizio collegato in Azure Data Factory.

  5. Nel riquadro destro, nella ricerca dell'archivio dati immettere "snowflake". Selezionare il riquadro Snowflake e selezionare Continua.

    Screenshot che mostra come scegliere il riquadro Snowflake nel nuovo archivio dati di Linked Service.

  6. Compilare il modulo Nuovo servizio collegato con i dati raccolti nel passaggio precedente. Il nome account include un valore LOCATOR e la regione, ad esempio xy56789south-central-us.azure.

    Screenshot che mostra come compilare il modulo del servizio collegato Snowflake.

  7. Dopo aver completato il modulo, selezionare Test connessione.

  8. Se il test ha esito positivo, selezionare Crea.

Passaggio 3: Configurare il set di dati Snowflake

  1. Dal menu a sinistra, seleziona l'icona Autore.

  2. Selezionare Set di datie quindi selezionare il menu con i puntini di sospensione Azioni Set di dati (...).

    Screenshot che mostra come scegliere l'icona Autore e l'opzione dei set di dati.

  3. Selezionare Nuovo set di dati.

    Screenshot che mostra come scegliere un nuovo set di dati in Azure Data Factory per Snowflake.

  4. Nel riquadro destro, nella ricerca dell'archivio dati immettere "snowflake". Selezionare il riquadro Snowflake e selezionare Continua.

    Screenshot che mostra come scegliere Snowflake dall'origine dati per il dataset.

  5. In impostare le proprietà:

    • Seleziona il servizio collegato creato nella fase 2 .
    • Selezionare la tabella da importare e quindi selezionare OK.

    Screenshot che mostra come configurare le proprietà del set di dati per Snowflake.

  6. Seleziona Salva.

Creare un nuovo indice nel servizio Ricerca cognitiva di Azure con lo stesso schema di quello attualmente configurato per i dati Snowflake.

È possibile riutilizzare l'indice attualmente in uso per Snowflake Power Connector. Nel portale di Azure individuare l'indice e quindi selezionare definizione di indice (JSON). Selezionare la definizione e copiarla nel corpo della nuova richiesta di indice.

Screenshot che mostra come copiare la configurazione JSON dell'indice di Ricerca cognitiva di Azure esistente per l'indice Snowflake esistente.

Passaggio 5: Configurare il servizio collegato Ricerca cognitiva di Azure

  1. Nel menu a sinistra, selezionare l'icona Gestisci .

    Screenshot che mostra come scegliere l'icona Gestisci in Azure Data Factory per aggiungere un nuovo servizio collegato.

  2. In Servizi collegati, selezionare Nuovo.

    Screenshot che mostra come scegliere Nuovo servizio collegato in Azure Data Factory per Ricerca cognitiva.

  3. Nel riquadro destro, nella ricerca nell'archivio dati immettere "search". Selezionare il riquadro Ricerca di Azure e selezionare Continua.

    Screenshot che mostra come scegliere Nuova ricerca collegata in Azure Data Factory da importare da Snowflake.

  4. Compila i valori del nuovo servizio collegato :

    • Scegliere la sottoscrizione di Azure in cui risiede il servizio Ricerca cognitiva di Azure.
    • Scegliere il servizio Ricerca cognitiva di Azure con l'indicizzatore del connettore Power Query.
    • Fare clic su Crea.

    Screenshot che mostra come scegliere Nuovo servizio di ricerca collegato in Azure Data Factory con le relative proprietà da importare da Snowflake.

Passaggio 6: Configurare il set di dati di Ricerca cognitiva di Azure

  1. Nel menu a sinistra selezionare icona Autore.

  2. Selezionare Set di datie quindi selezionare il menu Azioni set di dati puntini di sospensione (...).

    Screenshot che mostra come scegliere l'icona Autore e l'opzione set di dati per Ricerca cognitiva.

  3. Selezionare Nuovo set di dati.

    Screenshot che mostra come scegliere un nuovo set di dati in Azure Data Factory.

  4. Nel riquadro destro, nella ricerca nell'archivio dati immettere "search". Selezionare il riquadro Azure Search e selezionare Continua.

    Screenshot che mostra come scegliere un servizio Ricerca cognitiva di Azure per un set di dati in Azure Data Factory da usare come sink.

  5. In Imposta le proprietà:

    • Selezionare il servizio collegato creato di recente nel passaggio 5 .

    • Scegliere l'indice di ricerca che hai creato in Fase 4.

    • Seleziona OK.

      Screenshot che mostra come scegliere Nuovo servizio collegato di ricerca in Azure Data Factory per Snowflake.

  6. Seleziona Salva.

Passaggio 7: Configurare il servizio collegato Archiviazione Blob di Azure

  1. Dal menu a sinistra, selezionare l'icona Gestisci.

    Screenshot che mostra come scegliere l'icona Gestisci in Azure Data Factory per collegare un nuovo servizio.

  2. In Servizi collegatiselezionare Nuovo.

    Screenshot che mostra come scegliere Nuovo servizio collegato in Azure Data Factory per assegnare un account di archiviazione.

  3. Nel riquadro destro, nella ricerca dell'archivio dati immettere "storage". Selezionare il riquadro Archiviazione BLOB di Azure e selezionare Continua.

    Screenshot che mostra come scegliere Nuovo servizio di archiviazione BLOB collegato da usare come sink per Snowflake in Azure Data Factory.

  4. Compilare i valori del nuovo servizio collegato :

    • Scegliere il tipo di autenticazione: URI SAS (firma di accesso condiviso). È possibile usare solo questo tipo di autenticazione per importare dati da Snowflake in Archiviazione BLOB di Azure.

    • Generare un URL di firma di accesso condiviso per l'account di archiviazione che verrà usato per la gestione temporanea. Incolla l'URL SAS del blob nel campo URL SAS.

    • Fare clic su Crea.

      Screenshot che mostra come compilare il modulo Nuovo servizio di ricerca collegato in Azure Data Factory con le relative proprietà da importare da SnowFlake.

Passaggio 8: Configurare il set di dati di archiviazione

  1. Nel menu a sinistra selezionare Autore icona.

  2. Selezionare Set di datie quindi selezionare il menu azioni dei set di dati (...).

    Screenshot che mostra come scegliere l'opzione dell'icona Autore e set di dati.

  3. Selezionare Nuovo set di dati.

    Screenshot che mostra come scegliere un nuovo set di dati per l'archiviazione in Azure Data Factory.

  4. Nel riquadro destro, nella ricerca dell'archivio dati immettere "storage". Selezionare il riquadro Archiviazione BLOB di Azure e selezionare Continua.

    Screenshot che mostra come scegliere un nuovo archivio BLOB in Azure Data Factory per la fase di staging.

  5. Selezionare il formato DelimitedText e selezionare Continua.

  6. In impostare le proprietà:

    • In servizio collegatoselezionare il servizio collegato creato in passaggio 7.

    • In Percorso file, scegliere il contenitore che sarà la destinazione per il processo di staging e selezionare OK.

      Screenshot che mostra come configurare le proprietà per il set di dati di archiviazione per Snowflake in Azure Data Factory.

    • Nel delimitatore di riga, seleziona avanzamento riga (\n).

    • Seleziona la casella Prima riga come intestazione.

    • Seleziona Salva.

      Screenshot che mostra come salvare una configurazione DelimitedText da usare come sink per Snowflake.

Passaggio 9: Configurare la pipeline

  1. Nel menu a sinistra selezionare icona Autore.

  2. Selezionare Pipelinese quindi selezionare il menu con i puntini di sospensione Pipelines Actions (...).

    Screenshot che mostra come scegliere l'icona Autore e l'opzione Pipeline per configurare la trasformazione dei dati Snowflake.

  3. Selezionare New pipeline (Nuova pipeline).

    Screenshot che mostra come scegliere una nuova pipeline in Azure Data Factory da creare per l'inserimento di dati Snowflake.

  4. Creare e configurare le attività di Data Factory copiate da Snowflake al contenitore di Archiviazione di Azure:

    • Espandere Sposta & trasformazione sezione e trascinare e rilasciare 'attività Copia dati nell'area di disegno dell'editor di pipeline vuota.

      Screenshot che mostra come trascinare e rilasciare un'attività di copia dati nel canvas della pipeline per copiare dati da Snowflake.

    • Aprire la scheda Generale. Accettare i valori predefiniti, a meno che non sia necessario personalizzare l'esecuzione.

    • Nella scheda Origine selezionare la tabella Snowflake. Lasciare le opzioni rimanenti con i valori predefiniti.

      Screenshot che mostra come configurare la Source in una pipeline per importare dati da Snowflake.

    • Nella scheda sink:

      • Selezionare il dataset Storage DelimitedText creato nel Passaggio 8.

      • In estensione del file, aggiungi .csv.

      • Lasciare le opzioni rimanenti con i valori predefiniti.

        Screenshot che mostra come configurare il sink in una pipeline per spostare i dati da Snowflake ad Azure Storage.

    • Seleziona Salva.

  5. Configurare le attività copiate dal BLOB di Archiviazione di Azure in un indice di ricerca:

    • Espandi Sposta & Trasforma e trascina e rilascia Attività Copia dati sull'area di disegno dell'editor di pipeline vuota.

      Screenshot che mostra come trascinare e rilasciare un'attività Copia dati nella tela di pipeline per indicizzare dall'archivio.

    • Nella scheda generale accettare i valori predefiniti, a meno che non sia necessario personalizzare l'esecuzione.

    • Nella scheda Origine:

      • Selezionare set di dati DelimitedText di archiviazione creato in passaggio 8.
      • Nel campo del percorso file digitare, quindi selezionare il percorso del file con caratteri jolly.
      • Lasciare tutti i campi rimanenti con i valori predefiniti.

      Screenshot che illustra come configurare l'origine in una pipeline per importare dati da Blob Storage all'indice di Ricerca Cognitiva di Azure per la fase di staging.

    • Nella scheda sink, selezionare l'indice di Ricerca cognitiva di Azure. Lasciare le opzioni rimanenti con i valori predefiniti.

      Screenshot che mostra come configurare il Sink in una pipeline per importare dati da Blob storage all'indice di Ricerca cognitiva di Azure come passaggio finale della pipeline.

    • Seleziona Salva.

Passaggio 10: Configurare l'ordine attività

  1. Nell'editor dell'area di disegno della pipeline, seleziona il quadrato verde piccolo sul bordo del riquadro attività della pipeline. Trascinarlo nell'attività "Gli indici dall'account di archiviazione alla Ricerca Cognitiva di Azure" per impostare l'ordine di esecuzione.

  2. Seleziona Salva.

    Screenshot che mostra come collegare le attività della pipeline per fornire l'ordine di esecuzione per Snowflake.

Passaggio 11: Aggiungere un trigger della pipeline

  1. Selezionare Aggiungi trigger per pianificare l'esecuzione della pipeline e selezionare Nuovo/Modifica.

    Screenshot che mostra come aggiungere un nuovo trigger per una pipeline in Data Factory da eseguire per Snowflake.

  2. Nell'elenco a tendina Scegli trigger, seleziona Nuovo.

    Screenshot che mostra come selezionare l'aggiunta di un nuovo trigger per una pipeline in Data Factory per Snowflake.

  3. Esaminare le opzioni del trigger per eseguire la pipeline e selezionare OK.

    Screenshot che mostra come configurare un trigger per eseguire una pipeline in Data Factory per Snowflake.

  4. Seleziona Salva.

  5. Seleziona Pubblica.

    Come pubblicare una pipeline in Data Factory per l'ingestione in Snowflake e l'indicizzazione.

Eseguire la migrazione di una pipeline di dati PostgreSQL

Questa sezione illustra come copiare dati da un database PostgreSQL a un indice di Ricerca cognitiva di Azure . Non esiste alcun processo per l'indicizzazione diretta da PostgreSQL a Ricerca cognitiva di Azure, quindi questa sezione include una fase di gestione temporanea che copia il contenuto del database in un contenitore BLOB di Archiviazione di Azure. Eseguirai quindi l'indicizzazione da tale contenitore di staging usando una pipeline di Data Factory .

Passaggio 1: Configurare il servizio collegato PostgreSQL

  1. Accedere a azure Data Factory Studio con l'account Azure.

  2. Scegliere il Data Factory e selezionare Continua.

  3. Nel menu a sinistra selezionare l'icona Gestisci.

    Come scegliere l'icona Gestisci in Azure Data Factory.

  4. In Servizi collegati, selezionare Nuovo.

    Screenshot che mostra come scegliere Nuovo servizio collegato in Azure Data Factory.

  5. Nel riquadro destro, nella ricerca nell'archivio dati immettere "postgresql". Selezionare il riquadro PostgreSQL che rappresenta dove si trova il database PostgreSQL (Azure o altro) e selezionare Continua. In questo esempio il database PostgreSQL si trova in Azure.

    Come scegliere l'archivio dati PostgreSQL per un servizio collegato in Azure Data Factory.

  6. Compilare i valori del nuovo servizio collegato :

    • In Metodo di selezione account, selezionare Immettere manualmente.

    • Nella pagina Panoramica del Database Azure per PostgreSQL nel portale di Azure, incollare i seguenti valori nei rispettivi campi.

      • Aggiungi nome del server a nome di dominio completamente qualificato.
      • Aggiungere il nome utente amministratore al nome utente .
      • Aggiungere database al nome del database .
      • Inserire la password dell'utente amministratore in password nome utente.
      • Fare clic su Crea.

      Scegli l'icona Gestisci in Azure Data Factory

Passaggio 2: Configurare il set di dati PostgreSQL

  1. Nel menu a sinistra selezionare icona Autore.

  2. Selezionare Datasete quindi selezionare il menu Azioni sui dataset (...).

    Screenshot che mostra come scegliere l'opzione icona Autore e set di dati.

  3. Selezionare Nuovo set di dati.

    Screenshot che mostra come scegliere un nuovo set di dati in Azure Data Factory.

  4. Nel riquadro destro, nella ricerca nell'archivio dati immettere "postgresql". Selezionare il riquadro Azure PostgreSQL. Selezionare Continua.

    Screenshot che mostra come scegliere l'archivio dati PostgreSQL per un set di dati in Azure Data Factory.

  5. Compilare i valori delle proprietà impostate :

    • Scegliere il servizio collegato PostgreSQL creato nel passaggio 1 .

    • Selezionare la tabella da importare/indicizzare.

    • Seleziona OK.

      Screenshot che mostra come impostare le proprietà postgreSQL per il set di dati in Azure Data Factory.

  6. Seleziona Salva.

Creare un nuovo di indice nel servizio Ricerca cognitiva di Azure con lo stesso schema usato per i dati PostgreSQL.

È possibile riutilizzare l'indice attualmente in uso per PostgreSQL Power Connector. Nel portale di Azure individuare l'indice e quindi selezionare definizione di indice (JSON). Selezionare la definizione e copiarla nel corpo della nuova richiesta di indice.

Screenshot che mostra come copiare la configurazione JSON dell'indice di Ricerca cognitiva di Azure esistente.

Passaggio 4: Configurare il servizio collegato Ricerca cognitiva di Azure

  1. Nel menu a sinistra selezionare l'icona Gestisci.

    Screenshot che mostra come scegliere l'icona Gestisci in Azure Data Factory per collegare un servizio.

  2. In Servizi collegati, selezionare Nuovo.

    Screenshot che mostra come scegliere Nuovo servizio collegato in Azure Data Factory.

  3. Nel riquadro destro, nella ricerca nell'archivio dati immettere "search". Selezionare il riquadro Azure Search e selezionare Continua.

    Screenshot che mostra come scegliere Nuovo servizio di ricerca collegato in Azure Data Factory.

  4. Compila i valori di nuovo servizio collegato:

    • Scegliere la sottoscrizione di Azure in cui risiede il servizio Ricerca cognitiva di Azure.
    • Scegli il servizio di Ricerca Cognitiva di Azure che ha l'indicizzatore del connettore Power Query.
    • Fare clic su Crea.

    Screenshot che mostra come scegliere Nuovo servizio di ricerca collegato in Azure Data Factory con le relative proprietà da importare da PostgreSQL.

Passaggio 5: Configurare il set di dati di Ricerca cognitiva di Azure

  1. Nel menu a sinistra selezionare icona Autore.

  2. Selezionare Datasete quindi selezionare il menu a tre puntini delle azioni sui dataset (...).

    Screenshot che mostra come scegliere l'icona Autore e l'opzione set di dati.

  3. Selezionare Nuovo set di dati.

    Screenshot che mostra come scegliere un nuovo set di dati in Azure Data Factory.

  4. Nel riquadro destro, nella ricerca nell'archivio dati immettere "search". Selezionare il riquadro Azure Search e selezionare Continua.

    Screenshot che mostra come scegliere un servizio Ricerca cognitiva di Azure per un set di dati in Azure Data Factory.

  5. In Impostare le proprietà:

    • Selezionare il servizio creato collegato per la Ricerca cognitiva di Azure al Passaggio 4 .

    • Seleziona l'indice che hai creato come parte di Passaggio 3.

    • Seleziona OK.

      Screenshot che mostra come compilare Set Properties for search dataset (Imposta proprietà per il set di dati di ricerca).

  6. Seleziona Salva.

Passaggio 6: Configurare il servizio collegato di Archiviazione BLOB di Azure

  1. Dal menu a sinistra, seleziona l'icona Gestisci.

    Screenshot che mostra come scegliere l'icona Gestisci in Azure Data Factory per collegare un servizio.

  2. Nella sezione Servizi collegati, selezionare Nuovo.

    Screenshot che mostra come scegliere Nuovo servizio collegato in Azure Data Factory.

  3. Nel riquadro destro, nella ricerca dell'archivio dati immettere "storage". Selezionare il riquadro archiviazione BLOB di Azure e selezionare Continua.

    Screenshot che mostra come scegliere un nuovo archivio dati

  4. Inserire i valori di nuovo servizio collegato:

    • Scegliere il tipo di autenticazione : URI SAS. È possibile usare solo questo metodo per importare dati da PostgreSQL in Archiviazione BLOB di Azure.

    • Generare un URL di firma di accesso condiviso per l'account di archiviazione che verrà usato per la gestione temporanea e copiare l'URL di firma di accesso condiviso del BLOB nel campo URL di firma di accesso condiviso.

    • Fare clic su Crea.

      Screenshot che mostra come compilare il modulo Nuovo servizio di ricerca collegato in Azure Data Factory con le relative proprietà da importare da PostgreSQL.

Passaggio 7: Configurare il set di dati di archiviazione

  1. Selezionare l'icona Autore dal menu a sinistra.

  2. Selezionare Set di datie quindi selezionare il menu con i tre puntini Datasets Actions (...).

    Screenshot che mostra come scegliere l'icona Autore e l'opzione set di dati.

  3. Selezionare Nuovo set di dati.

    Screenshot che mostra come scegliere un nuovo set di dati in Azure Data Factory.

  4. Nel riquadro destro, nella ricerca dell'archivio dati immettere "storage". Selezionare il riquadro Archiviazione Blob di Azure e selezionare Continua.

    Screenshot che mostra come scegliere un nuovo archivio dati Blob in Azure Data Factory.

  5. Seleziona il formato DelimitedText e seleziona Continua.

  6. In delimitatore di rigaselezionare avanzamento riga (\n).

  7. Seleziona la casella "Prima riga come intestazione".

  8. Seleziona Salva.

    Screenshot che mostra le opzioni per importare dati nel BLOB di Archiviazione di Azure.

Passaggio 8: Configurare la pipeline

  1. Dal menu a sinistra, seleziona l'icona Autore .

  2. Selezionare Pipelinee quindi selezionare il menu con i puntini di sospensione Pipelines Actions (...).

    Screenshot che mostra come scegliere l'icona Autore e l'opzione Pipeline.

  3. Selezionare New pipeline (Nuova pipeline).

    Screenshot che mostra come scegliere una nuova pipeline in Azure Data Factory.

  4. Creare e configurare le attività di Data Factory che copiano da PostgreSQL al contenitore di Archiviazione di Azure.

    • Espandi , sposta &, trasforma la sezione e trascina e rilascia l'attività Copia dati nell'area vuota dell'editor di pipeline.

      Screenshot che mostra come trascinare e rilasciare in Azure Data Factory per copiare dati da PostgreSQL.

    • Aprire la scheda Generale, accettare i valori predefiniti, a meno che non sia necessario personalizzare l'esecuzione.

    • Nella scheda Origine selezionare la tabella PostgreSQL. Lasciare le opzioni rimanenti con i valori predefiniti.

      Screenshot che mostra come configurare Source per importare dati da PostgreSQL nell'Archiviazione Blob di Azure durante la fase di staging.

    • Nella scheda sink:

      • Selezionare il dataset DelimitedText PostgreSQL di archiviazione configurato nel passaggio Step 7.

      • In Estensione di file, aggiungere .csv

      • Lasciare le opzioni rimanenti con i valori predefiniti.

        Screenshot che mostra come configurare il sink per importare dati da PostgreSQL nel BLOB di Archiviazione di Azure.

    • Seleziona Salva.

  5. Configurare le attività che copiano da Archiviazione di Azure a un indice di ricerca:

    • Espandi Sposta & trasforma la sezione e trascina e rilascia l'attività Copia dati nell'area di disegno dell'editor di pipeline vuota.

      Screenshot che mostra come trascinare e rilasciare in Azure Data Factory per configurare un'attività di copia.

    • Nella scheda Generale lasciare i valori predefiniti, a meno che non sia necessario personalizzare l'esecuzione.

    • Nella scheda Origine:

      • Selezionare il set di dati di origine di archiviazione configurato in Passaggio 7.
      • Nel campo Tipo percorso file selezionare percorso del file con caratteri jolly.
      • Lasciare tutti i campi rimanenti con i valori predefiniti.

      Screenshot che mostra come configurare l'origine per l'indicizzazione da Storage a indice di Ricerca Cognitiva di Azure.

    • Nella scheda Sink, selezionare l'indice di Ricerca cognitiva di Azure. Lasciare le opzioni rimanenti con i valori predefiniti.

      Screenshot che mostra come configurare il sink per l'indicizzazione da Azure Storage all'indice di Azure Cognitive Search.

    • Seleziona Salva.

Passaggio 9: Configurare l'ordine delle attività

  1. Nell'editor canvas pipeline selezionare il piccolo quadrato verde al bordo dell'attività della pipeline. Trascinarlo nell'attività "Indici dall'account di archiviazione a Ricerca cognitiva di Azure" per impostare l'ordine di esecuzione.

  2. Seleziona Salva.

    Screenshot che mostra come configurare l'ordine di attività nella pipeline per l'esecuzione corretta.

Passaggio 10: Aggiungere un trigger della pipeline

  1. Selezionare Aggiungi trigger per pianificare l'esecuzione della pipeline e selezionare Nuovo/Modifica.

    Screenshot che mostra come aggiungere un nuovo trigger per una pipeline in Data Factory.

  2. Nel menu a discesa Scegli trigger, seleziona Nuovo.

    Screenshot che mostra come selezionare l'aggiunta di un nuovo trigger per una pipeline in Data Factory.

  3. Esaminare le opzioni di attivazione per eseguire la pipeline e selezionare OK.

    Screenshot che mostra come configurare un trigger per eseguire una pipeline in Data Factory.

  4. Seleziona Salva.

  5. Seleziona Pubblica.

    Screenshot che mostra come pubblicare una pipeline in Data Factory per la copia di dati PostgreSQL.

Contenuto storico per l'anteprima del connettore Power Query

Un connettore Power Query viene usato con un indicizzatore di ricerca per automatizzare l'inserimento dei dati da varie origini dati, incluse quelle in altri provider di servizi cloud. Usa Power Query per recuperare i dati.

Le origini dati supportate nell'anteprima includono:

  • Amazon Redshift
  • Elasticsearch
  • PostgreSQL
  • Oggetti Salesforce
  • Report di Salesforce
  • Smartsheet
  • Fiocco di neve

Funzionalità supportata

I connettori di Power Query vengono usati negli indicizzatori. Un indicizzatore in Ricerca cognitiva di Azure è un crawler che estrae dati e metadati ricercabili da un'origine dati esterna e popola un indice in base ai mapping da campo a campo tra l'indice e l'origine dati. Questo approccio viene talvolta definito "modello pull" perché il servizio esegue il pull dei dati in senza dover scrivere codice che aggiunge dati a un indice. Gli indicizzatori offrono agli utenti un modo pratico per indicizzare il contenuto dall'origine dati senza dover scrivere il proprio crawler o il modello di push.

Gli indicizzatori che fanno riferimento alle fonti dati di Power Query offrono lo stesso livello di supporto per insiemi di competenze, pianificazioni, logica di rilevamento delle modifiche al watermark elevato e la maggior parte dei parametri supportati dagli altri indicizzatori.

Prerequisiti

Anche se non è più possibile usare questa funzionalità, sono stati soddisfatti i requisiti seguenti durante l'anteprima:

  • Servizio di ricerca cognitiva di Azure in una regione supportata .

  • Registrazione in anteprima. Questa funzionalità deve essere abilitata nel back-end.

  • Account di archiviazione BLOB di Azure, usato come intermediario per i dati. I dati verranno trasmessi dall'origine dati, quindi all'archivio BLOB, quindi all'indice. Questo requisito esiste solo con l'anteprima controllata iniziale.

Disponibilità regionale

L'anteprima era disponibile solo nei servizi di ricerca nelle aree seguenti:

  • Stati Uniti centrali
  • Stati Uniti orientali
  • Stati Uniti orientali 2
  • Stati Uniti centro-settentrionali
  • Europa settentrionale
  • Stati Uniti centro-meridionali
  • Stati Uniti centro-occidentali
  • Europa occidentale
  • Stati Uniti occidentali
  • Stati Uniti occidentali 2

Limiti dell'anteprima

In questa sezione vengono descritte le limitazioni specifiche della versione corrente dell'anteprima.

  • Il pull dei dati binari dall'origine dati non è supportato.

  • La sessione di debug non è supportata.

Introduzione all'uso del portale di Azure

Il portale di Azure offre il supporto per i connettori di Power Query. Eseguendo il campionamento dei dati e la lettura dei metadati nel contenitore, la procedura guidata Importa dati in Ricerca cognitiva di Azure può creare un indice predefinito, eseguire il mapping dei campi di origine ai campi dell'indice di destinazione e caricare l'indice in un'unica operazione. A seconda delle dimensioni e della complessità dei dati di origine, è possibile avere un indice di ricerca full-text operativo in pochi minuti.

Il video seguente illustra come configurare un connettore Power Query in Ricerca cognitiva di Azure.

Passaggio 1: Preparare i dati di origine

Assicurarsi che l'origine dati contenga dati. La procedura guidata per l'Importazione dei dati legge i metadati ed esegue campionamenti per inferire uno schema di indice, oltre a caricare i dati dalla fonte dati. Se i dati non sono presenti, la procedura guidata verrà interrotta e verrà restituito un errore.

Passaggio 2: Avviare l'importazione guidata dei dati

Dopo l'approvazione per l'anteprima, il team di Ricerca cognitiva di Azure fornirà un link al portale di Azure che utilizza un flag di funzionalità per accedere ai connettori di Power Query. Aprire questa pagina e avviare la procedura guidata dalla barra dei comandi nella pagina del servizio Ricerca cognitiva di Azure selezionando Importa dati.

Passaggio 3: selezionare l'origine dati

Esistono alcune origini dati da cui è possibile eseguire il pull dei dati usando questa anteprima. Tutte le origini dati che usano Power Query includeranno un "Powered By Power Query" nel relativo riquadro. Selezionare l'origine dati.

Screenshot della pagina Selezionare un'origine dati.

Dopo aver selezionato l'origine dati, selezionare Avanti: Configurare i dati per passare alla sezione successiva.

Passaggio 4: Configurare i dati

In questo passaggio si configurerà la connessione. Ogni origine dati richiederà informazioni diverse. Per alcune origini dati, la documentazione di Power Query fornisce altri dettagli su come connettersi ai dati.

Dopo aver specificato le credenziali di connessione, selezionare Avanti.

Passaggio 5: selezionare i dati

L'importazione guidata visualizzerà l'anteprima di varie tabelle disponibili nell'origine dati. In questo passaggio si verificherà una tabella contenente i dati da importare nell'indice.

Screenshot dell'anteprima dei dati.

Dopo aver selezionato la tabella, selezionare Avanti.

Passaggio 6: Trasformare i dati (facoltativo)

I connettori di Power Query offrono un'esperienza di interfaccia utente avanzata che consente di modificare i dati in modo da poter inviare i dati corretti all'indice. È possibile rimuovere colonne, filtrare le righe e molto altro ancora.

Non è necessario trasformare i dati prima di importarli in Ricerca cognitiva di Azure.

Screenshot della pagina Trasforma i tuoi dati.

Per altre informazioni sulla trasformazione dei dati con Power Query, vedere Uso di Power Query in Power BI Desktop.

Dopo la trasformazione dei dati, selezionare Avanti.

Passaggio 7: Aggiungere l'archiviazione BLOB di Azure

L'anteprima del connettore Power Query richiede attualmente di fornire un account di archiviazione BLOB. Questo passaggio esiste solo con l'anteprima controllata iniziale. Questo account di archiviazione BLOB fungerà da archivio temporaneo per i dati che passano dall'origine dati a un indice di Ricerca cognitiva di Azure.

È consigliabile fornire una stringa di connessione dell'account di archiviazione con accesso completo:

{ "connectionString" : "DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key>;" }

È possibile ottenere la stringa di connessione dal portale di Azure passando al pannello dell'account di archiviazione > Impostazioni > chiavi (per gli account di archiviazione classici) o Impostazioni > chiavi di accesso (per gli account di archiviazione di Azure Resource Manager).

Dopo aver specificato un nome e una stringa di connessione dell'origine dati, selezionare "Avanti: Aggiungere competenze cognitive (facoltativo)".

Passaggio 8: Aggiungere competenze cognitive (facoltativo)

l'arricchimento tramite intelligenza artificiale è un'estensione degli indicizzatori che possono essere usati per rendere i tuoi contenuti più facili da trovare.

È possibile aggiungere eventuali arricchimenti che aggiungono vantaggio allo scenario. Al termine, selezionare Avanti: Personalizzare l'indice di destinazione.

Passaggio 9: Personalizzare l'indice di destinazione

Nella pagina Indice dovrebbe essere visualizzato un elenco di campi con un tipo di dati e una serie di caselle di controllo per l'impostazione degli attributi di indice. La procedura guidata può generare un elenco di campi in base ai metadati e eseguendo il campionamento dei dati di origine.

È possibile selezionare gli attributi in blocco selezionando la casella di controllo nella parte superiore di una colonna di attributi. Scegliere Recuperabile e Cercabile per ogni campo che deve essere restituito a un'app client e soggetto all'elaborazione della ricerca full-text. Si noterà che i numeri interi non sono ricercabili full-text o con approssimazione (i numeri vengono valutati letteralmente e sono spesso utili nei filtri).

Per altre informazioni, vedere la descrizione degli attributi dell'indice e degli analizzatori del linguaggio.

Dedicare qualche istante alla revisione delle selezioni. Dopo aver eseguito la procedura guidata, vengono create strutture di dati fisiche e non sarà possibile modificare la maggior parte delle proprietà per questi campi senza eliminare e ricreare tutti gli oggetti.

Screenshot della pagina Creare la tua pagina indice.

Al termine, selezionare Avanti: Crea un indicizzatore.

Passaggio 10: Creare un indicizzatore

L'ultimo passaggio crea l'indicizzatore. La denominazione dell'indicizzatore consente di esistere come risorsa autonoma, che è possibile pianificare e gestire indipendentemente dall'indice e dall'oggetto origine dati, creata nella stessa sequenza di procedura guidata.

L'output della procedura guidata Importa dati è un indicizzatore che indicizza l'origine dati e importa i dati selezionati in un indice su Azure Cognitive Search.

Quando si crea l'indicizzatore, è possibile scegliere facoltativamente di eseguire l'indicizzatore in base a una pianificazione e aggiungere il rilevamento delle modifiche. Per aggiungere il rilevamento delle modifiche, designare una colonna "punto di riferimento alto".

Screenshot della pagina Crea indicizzatore.

Dopo aver completato la compilazione di questa pagina, selezionare Invia.

Politica di rilevamento delle modifiche del limite massimo

Questo criterio di rilevamento delle modifiche si basa su una colonna "high water mark" che acquisisce la versione o l'ora dell'ultimo aggiornamento di una riga.

Requisiti

  • Tutti gli inserimenti specificano un valore per la colonna.
  • Tutti gli aggiornamenti a un elemento modificano anche il valore della colonna.
  • Il valore di questa colonna aumenta in base a ogni modifica o aggiornamento.

Nomi di colonna non supportati

I nomi dei campi in un indice di Ricerca cognitiva di Azure devono soddisfare determinati requisiti. Uno di questi requisiti è che alcuni caratteri come "/" non sono consentiti. Se un nome di colonna nel database non soddisfa questi requisiti, il rilevamento dello schema di indice non riconoscerà la colonna come nome di campo valido e non verrà visualizzata come campo suggerito per l'indice. In genere, l'uso di mapping dei campi risolverebbe questo problema, ma i mapping dei campi non sono supportati nel portale.

Per indicizzare il contenuto da una colonna della tabella con un nome di campo non supportato, rinominare la colonna durante la fase "Trasforma i dati" del processo di importazione dei dati. Ad esempio, è possibile rinominare una colonna denominata "Codice di fatturazione/Cap" in "zipcode". Rinominando la colonna, il rilevamento dello schema di indice lo riconoscerà come nome di campo valido e lo aggiungerà come suggerimento alla definizione dell'indice.

Passaggi successivi

Questo articolo ha illustrato come eseguire il pull dei dati usando i connettori di Power Query. Poiché questa funzionalità di anteprima non è più disponibile, spiega anche come eseguire la migrazione di soluzioni esistenti a uno scenario supportato.

Per altre informazioni sugli indicizzatori, vedere Indicizzatori in Ricerca cognitiva di Azure.