Risolvere i problemi relativi alle soluzioni per dati sanitari in Microsoft Fabric
Questo articolo fornisce informazioni su alcuni problemi o errori che potrebbero essere visualizzati quando utilizzi soluzioni per dati sanitari in Microsoft Fabric e su come risolverli. L'articolo include anche alcune indicazioni per il monitoraggio delle applicazioni.
Se il problema persiste dopo aver seguito le indicazioni in questo articolo, crea un ticket per l'incidente per il team di supporto.
Risoluzione dei problemi relativi alla distribuzione
A volte, potresti riscontrare problemi intermittenti quando distribuisci soluzioni per dati sanitari nell'area di lavoro Fabric. Di seguito sono riportati alcuni problemi comunemente osservati e le soluzioni alternative per risolverli:
La creazione della soluzione non riesce o richiede troppo tempo.
Errore: la creazione della soluzione sanitaria è in corso da più di 5 minuti e/o non riesce.
Causa: questo errore si verifica se è presente un'altra soluzione sanitaria che condivide lo stesso nome o che è stata eliminata di recente.
Soluzione: se hai eliminato una soluzione di recente, attendi da 30 a 60 minuti prima di tentare un'altra distribuzione.
La distribuzione di funzionalità non riesce.
Errore: le funzionalità delle soluzioni per dati sanitari non vengono distribuite.
Soluzione: verifica se la funzionalità è elencata nella sezione Gestisci funzionalità distribuite.
- Se la funzionalità non è elencata nella tabella, prova a distribuirla di nuovo. Seleziona il riquadro della funzionalità e quindi il pulsante Distribuisci nell'area di lavoro.
- Se la funzionalità è elencata nella tabella con il valore di stato Distribuzione non riuscita, ridistribuisci la capacità. In alternativa, puoi creare un nuovo ambiente di soluzioni per dati sanitari e ridistribuire lì la funzionalità.
Risolvere i problemi relativi a tabelle non identificate
Quando le tabelle delta vengono create nella lakehouse per la prima volta, potrebbero essere temporaneamente visualizzate come "non identificate" o vuote nella visualizzazione Explorer di lakehouse. Tuttavia, dopo alcuni minuti dovrebbero apparire correttamente nella cartella delle tabelle.
Eseguire di nuovo la pipeline di dati
Per una nuova esecuzione end-to-end dei dati di esempio, attieniti alla seguente procedura:
Esegui un'istruzione Spark SQL da un notebook per eliminare tutte le tabelle da un lakehouse. Ecco un esempio:
lakehouse_name = "<lakehouse_name>" tables = spark.sql(f"SHOW TABLES IN {lakehouse_name}") for row in tables.collect(): spark.sql(f"DROP TABLE {lakehouse_name}.{row[1]}")
Usa Esplora file OneLake per eseguire la connessione a OneLake in Esplora file di Windows.
Passa alla cartella dell'area di lavoro in Esplora file di Windows. In
<solution_name>.HealthDataManager\DMHCheckpoint
, elimina tutte le cartelle corrispondenti in<lakehouse_id>
/<table_name>
. In alternativa, puoi anche usare Microsoft Spark Utilities (MSSparkUtils) per Fabric per eliminare la cartella.Esegui di nuovo le pipeline di dati, a partire dall'inserimento dei dati clinici nel lakehouse Bronze.
Monitorare le applicazioni Apache Spark con Azure Log Analytics
I log delle applicazioni Apache Spark vengono inviati a un'istanza dell'area di lavoro di Azure Log Analytics su cui è possibile eseguire query. Usa questa query Kusto di esempio per filtrare i log specifici delle soluzioni per dati sanitari:
AppTraces
| where Properties['LoggerName'] contains "Healthcaredatasolutions"
or Properties['LoggerName'] contains "DMF"
or Properties['LoggerName'] contains "RMT"
| limit 1000
I log della console del notebook registrano anche RunId
per ogni esecuzione. Puoi utilizzare questo valore per recuperare i log per un'esecuzione specifica, come illustrato nella query di esempio seguente:
AppTraces
| where Properties['RunId'] == "<RunId>"
Per informazioni generali sul monitoraggio, vedi Utilizzare l'hub di monitoraggio di Fabric.
Usare Esplora file OneLake
L'applicazione Esplora file OneLake integra perfettamente OneLake con Esplora file di Windows. Puoi utilizzare Esplora file OneLake per visualizzare qualsiasi cartella o file distribuito nell'area di lavoro Fabric. Puoi anche vedere i dati di esempio, i file e le cartelle di OneLake e i file del punto di controllo.
Usare Azure Storage Explorer
Puoi anche utilizzare Azure Storage Explorer per:
- Accedere ai file OneLake nei tuoi lakehouse Fabric
- Eseguire la connessione al percorso del file URL di OneLake
Reimpostare la versione runtime Spark nell'area di lavoro Fabric
Per impostazione predefinita, tutte le nuove aree di lavoro Fabric usano la versione runtime di Fabric, che attualmente è Runtime 1.3. Tuttavia, le soluzioni per dati sanitari supportano solo Runtime 1.2.
Pertanto, dopo aver distribuito le soluzioni per dati sanitari nell'area di lavoro, assicurati che la versione di runtime di Fabric predefinita sia impostata Runtime 1.2 (Apache Spark 3.4 e Delta Lake 2.4). In caso contrario, la pipeline di dati e le esecuzioni del notebook possono non riuscire. Per altre informazioni, vedi Supporto per più runtime in Fabric.
Segui questi passaggi per esaminare/aggiornare la versione runtime di Fabric:
Vai all'area di lavoro delle soluzioni per dati sanitari e seleziona Impostazioni area di lavoro.
Nella pagina delle impostazioni dell'area di lavoro, espandi la casella a discesa Ingegneria dei dati/Data Science e seleziona Impostazioni Spark.
Nella scheda Ambiente, aggiorna il valore Versione runtime a 1.2 (Spark 3.4, Delta 2.4) e salva le modifiche.
Aggiornare l'interfaccia utente Fabric ed Esplora file OneLake
A volte, potresti notare che l'interfaccia utente Fabric o Esplora file di OneLake non sempre aggiorna il contenuto dopo ogni esecuzione del notebook. Se non vedi il risultato previsto nell'interfaccia utente dopo l'esecuzione di un qualsiasi passaggio di esecuzione (ad esempio la creazione di una nuova cartella o lakehouse o l'inserimento di nuovi dati in una tabella), prova ad aggiornare l'artefatto (tabella, lakehouse, cartella). Questo aggiornamento può spesso eliminare le discrepanze prima di esplorare altre opzioni o indagare ulteriormente.