Condividi tramite


Risolvere i problemi del connettore di formato ORC in Azure Data Factory e Azure Synapse

SI APPLICA A: Azure Data Factory Azure Synapse Analytics

Suggerimento

Provare Data Factory in Microsoft Fabric, una soluzione di analisi all-in-one per le aziende. Microsoft Fabric copre tutto, dallo spostamento dati al data science, all'analisi in tempo reale, alla business intelligence e alla creazione di report. Vedere le informazioni su come iniziare una nuova prova gratuita!

Questo articolo fornisce suggerimenti per risolvere i problemi comuni relativi al connettore di formato ORC in Azure Data Factory e Azure Synapse.

Codice errore: OrcJavaInvocationException

  • Messaggio: An error occurred when invoking Java, message: %javaException;.

  • Cause e raccomandazioni: cause diverse possono causare questo errore. Controllare l'elenco di seguito per un’analisi delle possibili cause e raccomandazioni correlate.

    Analisi delle cause Elemento consigliato
    Quando il messaggio di errore contiene le stringhe "java.lang.OutOfMemory", "Spazio heap Java" e "doubleCapacity", in genere si tratta di un problema di gestione della memoria in una versione precedente del runtime di integrazione. Se si usa il runtime di integrazione self-hosted, è consigliabile eseguire l'aggiornamento alla versione più recente.
    Quando il messaggio di errore contiene la stringa "java.lang.OutOfMemory", il runtime di integrazione non dispone di risorse sufficienti per elaborare i file. Limitare le esecuzioni simultanee nel runtime di integrazione. Per il runtime di integrazione self-hosted, passare a un computer potente con memoria uguale o superiore a 8 GB.
    Quando il messaggio di errore contiene la stringa "NullPointerReference", la causa potrebbe essere un errore temporaneo. Ripetere l'operazione. Se il problema persiste, contattare il supporto tecnico.
    Quando il messaggio di errore contiene la stringa "BufferOverflowException", la causa potrebbe essere un errore temporaneo. Ripetere l'operazione. Se il problema persiste, contattare il supporto tecnico.
    Quando il messaggio di errore contiene la stringa "java.lang.ClassCastException:org.apache.hadoop.hive.serde2.io.HiveCharWritable non può essere sottoposta a cast a org.apache.hadoop.io.Text", la causa potrebbe essere un problema di conversione dei tipi in Java Runtime. In genere, significa che i dati di origine non possono essere gestiti correttamente in Java Runtime. Si tratta di un problema di dati. Provare a usare una stringa anziché char o varchar nei dati in formato ORC.

Codice errore: OrcDateTimeExceedLimit

  • Messaggio: The Ticks value '%ticks;' for the datetime column must be between valid datetime ticks range -621355968000000000 and 2534022144000000000.

  • Causa: se il valore datetime è '0001-01-01 00:00:00', potrebbe essere causato dalle differenze tra il calendario julian e il calendario gregoriano.

  • Raccomandazione: controllare il valore tick ed evitare di usare il valore datetime '0001-01-01 00:00:00'.

Per altre informazioni sulla risoluzione dei problemi, usare le risorse seguenti: