Bekanntes Problem: Pipeline schlägt beim Kopieren von Daten in ein Data Warehouse mit Staging fehl
Die Datenpipelinekopienaktivität schlägt fehl, wenn Daten aus Azure Blob Storage in ein Data Warehouse mit aktiviertem Staging kopiert werden. Da das Staging aktiviert ist, verwendet die Copy-Aktivität Parquet als Staging-Format. Der Parquet-Zeichenfolgentyp kann jedoch nicht in einen Dezimaltyp im Data Warehouse kopiert werden.
Status: Offen
Produktbereich: Data Factory
Symptome
Die Copy-Aktivität der Datenpipeline schlägt mit einem ähnlichen Fehler wie ErrorCode=DWCopyCommandOperationFailed,'Type=Microsoft.DataTransfer.Common.Shared.HybridDeliveryException,Message='DataWarehouse' Copy Command operation failed with error ''Column '' of type 'DECIMAL(32, 6)' is not compatible with external data type 'Parquet physical type: BYTE_ARRAY, logical type: UTF8', please try with 'VARCHAR(8000)'
fehl.
Lösungen und Problemumgehungen
Um dieses Problem zu umgehen: Kopieren Sie die Daten zunächst in die Lakehouse-Tabelle mit dem Typ decimal
. Kopieren Sie dann die Daten aus der Lakehouse-Tabelle in das Datenlager.