Connettori di Power Query (anteprima - ritirati)
Importante
Il supporto del connettore Power Query è stato introdotto come anteprima pubblica controllata in condizioni supplementari per l'utilizzo per le anteprime di Microsoft Azure, ma ora non è più disponibile. Se si dispone di una soluzione di ricerca che usa un connettore Power Query, eseguire la migrazione a una soluzione alternativa.
Eseguire la migrazione entro il 28 novembre 2022
L'anteprima del connettore Power Query è stata annunciata a maggio 2021 e non verrà resa disponibile nella disponibilità generale. Le indicazioni seguenti sulla migrazione sono disponibili per Snowflake e PostgreSQL. Se si usa un connettore diverso e sono necessarie istruzioni per la migrazione, usare le informazioni di contatto tramite posta elettronica fornite nell'iscrizione in anteprima per richiedere assistenza o aprire un ticket con il supporto tecnico di Azure.
Prerequisiti
- Un account di archiviazione di Azure. Se non ne hai uno, crea un account di archiviazione.
- An Azure Data Factory. Se non ne hai uno, crea un Data Factory. Vedere i prezzi delle pipeline di Data Factory prima dell'implementazione per comprendere i costi associati. Controllare anche i prezzi di Data Factory tramite esempi.
Eseguire la migrazione di una pipeline di dati Snowflake
Questa sezione illustra come copiare dati da un database Snowflake a un indice di Ricerca cognitiva di Azure . Non esiste alcun processo per l'indicizzazione diretta da Snowflake a Ricerca cognitiva di Azure, quindi questa sezione include una fase di gestione temporanea che copia il contenuto del database in un contenitore BLOB di Archiviazione di Azure. Eseguirai quindi l'indicizzazione da quel contenitore di staging usando una pipeline di Data Factory .
Passaggio 1: Recuperare le informazioni sul database Snowflake
Passare a Snowflake e accedere all'account Snowflake. Un account Snowflake è simile a https://<account_name>.snowflakecomputing.com.
Dopo aver eseguito l'accesso, raccogliere le informazioni seguenti dal riquadro sinistro. Queste informazioni verranno usate nel passaggio successivo:
- Da Dataselezionare Database e copiare il nome dell'origine del database.
- In Adminselezionare Users & Roles e copiare il nome dell'utente. Assicurarsi che l'utente disponga delle autorizzazioni di lettura.
- In Admin, selezionare Accounts e copiare il valore del Locator dell'account.
- Dall'URL Snowflake, simile a
https://app.snowflake.com/<region_name>/xy12345/organization)
. copiare il nome dell'area. Ad esempio, inhttps://app.snowflake.com/south-central-us.azure/xy12345/organization
, il nome dell'area èsouth-central-us.azure
. - In Adminselezionare Warehouse e copiare il nome del warehouse associato al database che verrà usato come origine.
Passaggio 2: Configurare il servizio collegato Snowflake
Accedere a azure Data Factory Studio con l'account Azure.
Selezionare la data factory e quindi selezionare Continua.
Nel menu a sinistra selezionare l'icona Gestisci.
In Servizi collegati, selezionare Nuovo.
Nel riquadro destro, nella ricerca dell'archivio dati immettere "snowflake". Selezionare il riquadro Snowflake e selezionare Continua.
Compilare il modulo Nuovo servizio collegato con i dati raccolti nel passaggio precedente. Il nome account include un valore LOCATOR e la regione, ad esempio
xy56789south-central-us.azure
.Dopo aver completato il modulo, selezionare Test connessione.
Se il test ha esito positivo, selezionare Crea.
Passaggio 3: Configurare il set di dati Snowflake
Dal menu a sinistra, seleziona l'icona Autore.
Selezionare Set di datie quindi selezionare il menu con i puntini di sospensione Azioni Set di dati (
...
).Selezionare Nuovo set di dati.
Nel riquadro destro, nella ricerca dell'archivio dati immettere "snowflake". Selezionare il riquadro Snowflake e selezionare Continua.
In impostare le proprietà:
- Seleziona il servizio collegato creato nella fase 2 .
- Selezionare la tabella da importare e quindi selezionare OK.
Seleziona Salva.
Passaggio 4: Creare un nuovo indice in Ricerca cognitiva di Azure
Creare un nuovo indice nel servizio Ricerca cognitiva di Azure con lo stesso schema di quello attualmente configurato per i dati Snowflake.
È possibile riutilizzare l'indice attualmente in uso per Snowflake Power Connector. Nel portale di Azure individuare l'indice e quindi selezionare definizione di indice (JSON). Selezionare la definizione e copiarla nel corpo della nuova richiesta di indice.
Passaggio 5: Configurare il servizio collegato Ricerca cognitiva di Azure
Nel menu a sinistra, selezionare l'icona Gestisci .
In Servizi collegati, selezionare Nuovo.
Nel riquadro destro, nella ricerca nell'archivio dati immettere "search". Selezionare il riquadro Ricerca di Azure e selezionare Continua.
Compila i valori del nuovo servizio collegato :
- Scegliere la sottoscrizione di Azure in cui risiede il servizio Ricerca cognitiva di Azure.
- Scegliere il servizio Ricerca cognitiva di Azure con l'indicizzatore del connettore Power Query.
- Fare clic su Crea.
Passaggio 6: Configurare il set di dati di Ricerca cognitiva di Azure
Nel menu a sinistra selezionare icona Autore.
Selezionare Set di datie quindi selezionare il menu Azioni set di dati puntini di sospensione (
...
).Selezionare Nuovo set di dati.
Nel riquadro destro, nella ricerca nell'archivio dati immettere "search". Selezionare il riquadro Azure Search e selezionare Continua.
In Imposta le proprietà:
Selezionare il servizio collegato creato di recente nel passaggio 5 .
Scegliere l'indice di ricerca che hai creato in Fase 4.
Seleziona OK.
Seleziona Salva.
Passaggio 7: Configurare il servizio collegato Archiviazione Blob di Azure
Dal menu a sinistra, selezionare l'icona Gestisci.
In Servizi collegatiselezionare Nuovo.
Nel riquadro destro, nella ricerca dell'archivio dati immettere "storage". Selezionare il riquadro Archiviazione BLOB di Azure e selezionare Continua.
Compilare i valori del nuovo servizio collegato :
Scegliere il tipo di autenticazione: URI SAS (firma di accesso condiviso). È possibile usare solo questo tipo di autenticazione per importare dati da Snowflake in Archiviazione BLOB di Azure.
Generare un URL di firma di accesso condiviso per l'account di archiviazione che verrà usato per la gestione temporanea. Incolla l'URL SAS del blob nel campo URL SAS.
Fare clic su Crea.
Passaggio 8: Configurare il set di dati di archiviazione
Nel menu a sinistra selezionare Autore icona.
Selezionare Set di datie quindi selezionare il menu azioni dei set di dati (
...
).Selezionare Nuovo set di dati.
Nel riquadro destro, nella ricerca dell'archivio dati immettere "storage". Selezionare il riquadro Archiviazione BLOB di Azure e selezionare Continua.
Selezionare il formato DelimitedText e selezionare Continua.
In impostare le proprietà:
In servizio collegatoselezionare il servizio collegato creato in passaggio 7.
In Percorso file, scegliere il contenitore che sarà la destinazione per il processo di staging e selezionare OK.
Nel delimitatore di riga, seleziona avanzamento riga (\n).
Seleziona la casella Prima riga come intestazione.
Seleziona Salva.
Passaggio 9: Configurare la pipeline
Nel menu a sinistra selezionare icona Autore.
Selezionare Pipelinese quindi selezionare il menu con i puntini di sospensione Pipelines Actions (
...
).Selezionare New pipeline (Nuova pipeline).
Creare e configurare le attività di Data Factory copiate da Snowflake al contenitore di Archiviazione di Azure:
Espandere Sposta & trasformazione sezione e trascinare e rilasciare 'attività Copia dati nell'area di disegno dell'editor di pipeline vuota.
Aprire la scheda Generale. Accettare i valori predefiniti, a meno che non sia necessario personalizzare l'esecuzione.
Nella scheda Origine selezionare la tabella Snowflake. Lasciare le opzioni rimanenti con i valori predefiniti.
Nella scheda sink:
Selezionare il dataset Storage DelimitedText creato nel Passaggio 8.
In estensione del file, aggiungi .csv.
Lasciare le opzioni rimanenti con i valori predefiniti.
Seleziona Salva.
Configurare le attività copiate dal BLOB di Archiviazione di Azure in un indice di ricerca:
Espandi Sposta & Trasforma e trascina e rilascia Attività Copia dati sull'area di disegno dell'editor di pipeline vuota.
Nella scheda generale accettare i valori predefiniti, a meno che non sia necessario personalizzare l'esecuzione.
Nella scheda Origine:
- Selezionare set di dati DelimitedText di archiviazione creato in passaggio 8.
- Nel campo del percorso file digitare, quindi selezionare il percorso del file con caratteri jolly.
- Lasciare tutti i campi rimanenti con i valori predefiniti.
Nella scheda sink, selezionare l'indice di Ricerca cognitiva di Azure. Lasciare le opzioni rimanenti con i valori predefiniti.
Seleziona Salva.
Passaggio 10: Configurare l'ordine attività
Nell'editor dell'area di disegno della pipeline, seleziona il quadrato verde piccolo sul bordo del riquadro attività della pipeline. Trascinarlo nell'attività "Gli indici dall'account di archiviazione alla Ricerca Cognitiva di Azure" per impostare l'ordine di esecuzione.
Seleziona Salva.
Passaggio 11: Aggiungere un trigger della pipeline
Selezionare Aggiungi trigger per pianificare l'esecuzione della pipeline e selezionare Nuovo/Modifica.
Nell'elenco a tendina Scegli trigger, seleziona Nuovo.
Esaminare le opzioni del trigger per eseguire la pipeline e selezionare OK.
Seleziona Salva.
Seleziona Pubblica.
Eseguire la migrazione di una pipeline di dati PostgreSQL
Questa sezione illustra come copiare dati da un database PostgreSQL a un indice di Ricerca cognitiva di Azure . Non esiste alcun processo per l'indicizzazione diretta da PostgreSQL a Ricerca cognitiva di Azure, quindi questa sezione include una fase di gestione temporanea che copia il contenuto del database in un contenitore BLOB di Archiviazione di Azure. Eseguirai quindi l'indicizzazione da tale contenitore di staging usando una pipeline di Data Factory .
Passaggio 1: Configurare il servizio collegato PostgreSQL
Accedere a azure Data Factory Studio con l'account Azure.
Scegliere il Data Factory e selezionare Continua.
Nel menu a sinistra selezionare l'icona Gestisci.
In Servizi collegati, selezionare Nuovo.
Nel riquadro destro, nella ricerca nell'archivio dati immettere "postgresql". Selezionare il riquadro PostgreSQL che rappresenta dove si trova il database PostgreSQL (Azure o altro) e selezionare Continua. In questo esempio il database PostgreSQL si trova in Azure.
Compilare i valori del nuovo servizio collegato :
In Metodo di selezione account, selezionare Immettere manualmente.
Nella pagina Panoramica del Database Azure per PostgreSQL nel portale di Azure, incollare i seguenti valori nei rispettivi campi.
- Aggiungi nome del server a nome di dominio completamente qualificato.
- Aggiungere il nome utente amministratore al nome utente .
- Aggiungere database al nome del database .
- Inserire la password dell'utente amministratore in password nome utente.
- Fare clic su Crea.
Passaggio 2: Configurare il set di dati PostgreSQL
Nel menu a sinistra selezionare icona Autore.
Selezionare Datasete quindi selezionare il menu Azioni sui dataset (
...
).Selezionare Nuovo set di dati.
Nel riquadro destro, nella ricerca nell'archivio dati immettere "postgresql". Selezionare il riquadro Azure PostgreSQL. Selezionare Continua.
Compilare i valori delle proprietà impostate :
Seleziona Salva.
Passaggio 3: Creare un nuovo indice in Ricerca cognitiva di Azure
Creare un nuovo di indice nel servizio Ricerca cognitiva di Azure con lo stesso schema usato per i dati PostgreSQL.
È possibile riutilizzare l'indice attualmente in uso per PostgreSQL Power Connector. Nel portale di Azure individuare l'indice e quindi selezionare definizione di indice (JSON). Selezionare la definizione e copiarla nel corpo della nuova richiesta di indice.
Passaggio 4: Configurare il servizio collegato Ricerca cognitiva di Azure
Nel menu a sinistra selezionare l'icona Gestisci.
In Servizi collegati, selezionare Nuovo.
Nel riquadro destro, nella ricerca nell'archivio dati immettere "search". Selezionare il riquadro Azure Search e selezionare Continua.
Compila i valori di nuovo servizio collegato:
- Scegliere la sottoscrizione di Azure in cui risiede il servizio Ricerca cognitiva di Azure.
- Scegli il servizio di Ricerca Cognitiva di Azure che ha l'indicizzatore del connettore Power Query.
- Fare clic su Crea.
Passaggio 5: Configurare il set di dati di Ricerca cognitiva di Azure
Nel menu a sinistra selezionare icona Autore.
Selezionare Datasete quindi selezionare il menu a tre puntini delle azioni sui dataset (
...
).Selezionare Nuovo set di dati.
Nel riquadro destro, nella ricerca nell'archivio dati immettere "search". Selezionare il riquadro Azure Search e selezionare Continua.
In Impostare le proprietà:
Selezionare il servizio creato collegato per la Ricerca cognitiva di Azure al Passaggio 4 .
Seleziona l'indice che hai creato come parte di Passaggio 3.
Seleziona OK.
Seleziona Salva.
Passaggio 6: Configurare il servizio collegato di Archiviazione BLOB di Azure
Dal menu a sinistra, seleziona l'icona Gestisci.
Nella sezione Servizi collegati, selezionare Nuovo.
Nel riquadro destro, nella ricerca dell'archivio dati immettere "storage". Selezionare il riquadro archiviazione BLOB di Azure e selezionare Continua.
Inserire i valori di nuovo servizio collegato:
Scegliere il tipo di autenticazione : URI SAS. È possibile usare solo questo metodo per importare dati da PostgreSQL in Archiviazione BLOB di Azure.
Generare un URL di firma di accesso condiviso per l'account di archiviazione che verrà usato per la gestione temporanea e copiare l'URL di firma di accesso condiviso del BLOB nel campo URL di firma di accesso condiviso.
Fare clic su Crea.
Passaggio 7: Configurare il set di dati di archiviazione
Selezionare l'icona Autore dal menu a sinistra.
Selezionare Set di datie quindi selezionare il menu con i tre puntini Datasets Actions (
...
).Selezionare Nuovo set di dati.
Nel riquadro destro, nella ricerca dell'archivio dati immettere "storage". Selezionare il riquadro Archiviazione Blob di Azure e selezionare Continua.
Seleziona il formato DelimitedText e seleziona Continua.
In delimitatore di rigaselezionare avanzamento riga (\n).
Seleziona la casella "Prima riga come intestazione".
Seleziona Salva.
Passaggio 8: Configurare la pipeline
Dal menu a sinistra, seleziona l'icona Autore .
Selezionare Pipelinee quindi selezionare il menu con i puntini di sospensione Pipelines Actions (
...
).Selezionare New pipeline (Nuova pipeline).
Creare e configurare le attività di Data Factory che copiano da PostgreSQL al contenitore di Archiviazione di Azure.
Espandi , sposta &, trasforma la sezione e trascina e rilascia l'attività Copia dati nell'area vuota dell'editor di pipeline.
Aprire la scheda Generale, accettare i valori predefiniti, a meno che non sia necessario personalizzare l'esecuzione.
Nella scheda Origine selezionare la tabella PostgreSQL. Lasciare le opzioni rimanenti con i valori predefiniti.
Nella scheda sink:
Selezionare il dataset DelimitedText PostgreSQL di archiviazione configurato nel passaggio Step 7.
In Estensione di file, aggiungere .csv
Lasciare le opzioni rimanenti con i valori predefiniti.
Seleziona Salva.
Configurare le attività che copiano da Archiviazione di Azure a un indice di ricerca:
Espandi Sposta & trasforma la sezione e trascina e rilascia l'attività Copia dati nell'area di disegno dell'editor di pipeline vuota.
Nella scheda Generale lasciare i valori predefiniti, a meno che non sia necessario personalizzare l'esecuzione.
Nella scheda Origine:
- Selezionare il set di dati di origine di archiviazione configurato in Passaggio 7.
- Nel campo Tipo percorso file selezionare percorso del file con caratteri jolly.
- Lasciare tutti i campi rimanenti con i valori predefiniti.
Nella scheda Sink, selezionare l'indice di Ricerca cognitiva di Azure. Lasciare le opzioni rimanenti con i valori predefiniti.
Seleziona Salva.
Passaggio 9: Configurare l'ordine delle attività
Nell'editor canvas pipeline selezionare il piccolo quadrato verde al bordo dell'attività della pipeline. Trascinarlo nell'attività "Indici dall'account di archiviazione a Ricerca cognitiva di Azure" per impostare l'ordine di esecuzione.
Seleziona Salva.
Passaggio 10: Aggiungere un trigger della pipeline
Selezionare Aggiungi trigger per pianificare l'esecuzione della pipeline e selezionare Nuovo/Modifica.
Nel menu a discesa Scegli trigger, seleziona Nuovo.
Esaminare le opzioni di attivazione per eseguire la pipeline e selezionare OK.
Seleziona Salva.
Seleziona Pubblica.
Contenuto storico per l'anteprima del connettore Power Query
Un connettore Power Query viene usato con un indicizzatore di ricerca per automatizzare l'inserimento dei dati da varie origini dati, incluse quelle in altri provider di servizi cloud. Usa Power Query per recuperare i dati.
Le origini dati supportate nell'anteprima includono:
- Amazon Redshift
- Elasticsearch
- PostgreSQL
- Oggetti Salesforce
- Report di Salesforce
- Smartsheet
- Fiocco di neve
Funzionalità supportata
I connettori di Power Query vengono usati negli indicizzatori. Un indicizzatore in Ricerca cognitiva di Azure è un crawler che estrae dati e metadati ricercabili da un'origine dati esterna e popola un indice in base ai mapping da campo a campo tra l'indice e l'origine dati. Questo approccio viene talvolta definito "modello pull" perché il servizio esegue il pull dei dati in senza dover scrivere codice che aggiunge dati a un indice. Gli indicizzatori offrono agli utenti un modo pratico per indicizzare il contenuto dall'origine dati senza dover scrivere il proprio crawler o il modello di push.
Gli indicizzatori che fanno riferimento alle fonti dati di Power Query offrono lo stesso livello di supporto per insiemi di competenze, pianificazioni, logica di rilevamento delle modifiche al watermark elevato e la maggior parte dei parametri supportati dagli altri indicizzatori.
Prerequisiti
Anche se non è più possibile usare questa funzionalità, sono stati soddisfatti i requisiti seguenti durante l'anteprima:
Servizio di ricerca cognitiva di Azure in una regione supportata .
Registrazione in anteprima. Questa funzionalità deve essere abilitata nel back-end.
Account di archiviazione BLOB di Azure, usato come intermediario per i dati. I dati verranno trasmessi dall'origine dati, quindi all'archivio BLOB, quindi all'indice. Questo requisito esiste solo con l'anteprima controllata iniziale.
Disponibilità regionale
L'anteprima era disponibile solo nei servizi di ricerca nelle aree seguenti:
- Stati Uniti centrali
- Stati Uniti orientali
- Stati Uniti orientali 2
- Stati Uniti centro-settentrionali
- Europa settentrionale
- Stati Uniti centro-meridionali
- Stati Uniti centro-occidentali
- Europa occidentale
- Stati Uniti occidentali
- Stati Uniti occidentali 2
Limiti dell'anteprima
In questa sezione vengono descritte le limitazioni specifiche della versione corrente dell'anteprima.
Il pull dei dati binari dall'origine dati non è supportato.
La sessione di debug non è supportata.
Introduzione all'uso del portale di Azure
Il portale di Azure offre il supporto per i connettori di Power Query. Eseguendo il campionamento dei dati e la lettura dei metadati nel contenitore, la procedura guidata Importa dati in Ricerca cognitiva di Azure può creare un indice predefinito, eseguire il mapping dei campi di origine ai campi dell'indice di destinazione e caricare l'indice in un'unica operazione. A seconda delle dimensioni e della complessità dei dati di origine, è possibile avere un indice di ricerca full-text operativo in pochi minuti.
Il video seguente illustra come configurare un connettore Power Query in Ricerca cognitiva di Azure.
Passaggio 1: Preparare i dati di origine
Assicurarsi che l'origine dati contenga dati. La procedura guidata per l'Importazione dei dati legge i metadati ed esegue campionamenti per inferire uno schema di indice, oltre a caricare i dati dalla fonte dati. Se i dati non sono presenti, la procedura guidata verrà interrotta e verrà restituito un errore.
Passaggio 2: Avviare l'importazione guidata dei dati
Dopo l'approvazione per l'anteprima, il team di Ricerca cognitiva di Azure fornirà un link al portale di Azure che utilizza un flag di funzionalità per accedere ai connettori di Power Query. Aprire questa pagina e avviare la procedura guidata dalla barra dei comandi nella pagina del servizio Ricerca cognitiva di Azure selezionando Importa dati.
Passaggio 3: selezionare l'origine dati
Esistono alcune origini dati da cui è possibile eseguire il pull dei dati usando questa anteprima. Tutte le origini dati che usano Power Query includeranno un "Powered By Power Query" nel relativo riquadro. Selezionare l'origine dati.
Dopo aver selezionato l'origine dati, selezionare Avanti: Configurare i dati per passare alla sezione successiva.
Passaggio 4: Configurare i dati
In questo passaggio si configurerà la connessione. Ogni origine dati richiederà informazioni diverse. Per alcune origini dati, la documentazione di Power Query fornisce altri dettagli su come connettersi ai dati.
- PostgreSQL
- oggetti Salesforce
- dei report di Salesforce
Dopo aver specificato le credenziali di connessione, selezionare Avanti.
Passaggio 5: selezionare i dati
L'importazione guidata visualizzerà l'anteprima di varie tabelle disponibili nell'origine dati. In questo passaggio si verificherà una tabella contenente i dati da importare nell'indice.
Dopo aver selezionato la tabella, selezionare Avanti.
Passaggio 6: Trasformare i dati (facoltativo)
I connettori di Power Query offrono un'esperienza di interfaccia utente avanzata che consente di modificare i dati in modo da poter inviare i dati corretti all'indice. È possibile rimuovere colonne, filtrare le righe e molto altro ancora.
Non è necessario trasformare i dati prima di importarli in Ricerca cognitiva di Azure.
Per altre informazioni sulla trasformazione dei dati con Power Query, vedere Uso di Power Query in Power BI Desktop.
Dopo la trasformazione dei dati, selezionare Avanti.
Passaggio 7: Aggiungere l'archiviazione BLOB di Azure
L'anteprima del connettore Power Query richiede attualmente di fornire un account di archiviazione BLOB. Questo passaggio esiste solo con l'anteprima controllata iniziale. Questo account di archiviazione BLOB fungerà da archivio temporaneo per i dati che passano dall'origine dati a un indice di Ricerca cognitiva di Azure.
È consigliabile fornire una stringa di connessione dell'account di archiviazione con accesso completo:
{ "connectionString" : "DefaultEndpointsProtocol=https;AccountName=<your storage account>;AccountKey=<your account key>;" }
È possibile ottenere la stringa di connessione dal portale di Azure passando al pannello dell'account di archiviazione > Impostazioni > chiavi (per gli account di archiviazione classici) o Impostazioni > chiavi di accesso (per gli account di archiviazione di Azure Resource Manager).
Dopo aver specificato un nome e una stringa di connessione dell'origine dati, selezionare "Avanti: Aggiungere competenze cognitive (facoltativo)".
Passaggio 8: Aggiungere competenze cognitive (facoltativo)
l'arricchimento tramite intelligenza artificiale è un'estensione degli indicizzatori che possono essere usati per rendere i tuoi contenuti più facili da trovare.
È possibile aggiungere eventuali arricchimenti che aggiungono vantaggio allo scenario. Al termine, selezionare Avanti: Personalizzare l'indice di destinazione.
Passaggio 9: Personalizzare l'indice di destinazione
Nella pagina Indice dovrebbe essere visualizzato un elenco di campi con un tipo di dati e una serie di caselle di controllo per l'impostazione degli attributi di indice. La procedura guidata può generare un elenco di campi in base ai metadati e eseguendo il campionamento dei dati di origine.
È possibile selezionare gli attributi in blocco selezionando la casella di controllo nella parte superiore di una colonna di attributi. Scegliere Recuperabile e Cercabile per ogni campo che deve essere restituito a un'app client e soggetto all'elaborazione della ricerca full-text. Si noterà che i numeri interi non sono ricercabili full-text o con approssimazione (i numeri vengono valutati letteralmente e sono spesso utili nei filtri).
Per altre informazioni, vedere la descrizione degli attributi dell'indice e degli analizzatori del linguaggio.
Dedicare qualche istante alla revisione delle selezioni. Dopo aver eseguito la procedura guidata, vengono create strutture di dati fisiche e non sarà possibile modificare la maggior parte delle proprietà per questi campi senza eliminare e ricreare tutti gli oggetti.
Al termine, selezionare Avanti: Crea un indicizzatore.
Passaggio 10: Creare un indicizzatore
L'ultimo passaggio crea l'indicizzatore. La denominazione dell'indicizzatore consente di esistere come risorsa autonoma, che è possibile pianificare e gestire indipendentemente dall'indice e dall'oggetto origine dati, creata nella stessa sequenza di procedura guidata.
L'output della procedura guidata Importa dati è un indicizzatore che indicizza l'origine dati e importa i dati selezionati in un indice su Azure Cognitive Search.
Quando si crea l'indicizzatore, è possibile scegliere facoltativamente di eseguire l'indicizzatore in base a una pianificazione e aggiungere il rilevamento delle modifiche. Per aggiungere il rilevamento delle modifiche, designare una colonna "punto di riferimento alto".
Dopo aver completato la compilazione di questa pagina, selezionare Invia.
Politica di rilevamento delle modifiche del limite massimo
Questo criterio di rilevamento delle modifiche si basa su una colonna "high water mark" che acquisisce la versione o l'ora dell'ultimo aggiornamento di una riga.
Requisiti
- Tutti gli inserimenti specificano un valore per la colonna.
- Tutti gli aggiornamenti a un elemento modificano anche il valore della colonna.
- Il valore di questa colonna aumenta in base a ogni modifica o aggiornamento.
Nomi di colonna non supportati
I nomi dei campi in un indice di Ricerca cognitiva di Azure devono soddisfare determinati requisiti. Uno di questi requisiti è che alcuni caratteri come "/" non sono consentiti. Se un nome di colonna nel database non soddisfa questi requisiti, il rilevamento dello schema di indice non riconoscerà la colonna come nome di campo valido e non verrà visualizzata come campo suggerito per l'indice. In genere, l'uso di mapping dei campi risolverebbe questo problema, ma i mapping dei campi non sono supportati nel portale.
Per indicizzare il contenuto da una colonna della tabella con un nome di campo non supportato, rinominare la colonna durante la fase "Trasforma i dati" del processo di importazione dei dati. Ad esempio, è possibile rinominare una colonna denominata "Codice di fatturazione/Cap" in "zipcode". Rinominando la colonna, il rilevamento dello schema di indice lo riconoscerà come nome di campo valido e lo aggiungerà come suggerimento alla definizione dell'indice.
Passaggi successivi
Questo articolo ha illustrato come eseguire il pull dei dati usando i connettori di Power Query. Poiché questa funzionalità di anteprima non è più disponibile, spiega anche come eseguire la migrazione di soluzioni esistenti a uno scenario supportato.
Per altre informazioni sugli indicizzatori, vedere Indicizzatori in Ricerca cognitiva di Azure.