Foutklassen in Azure Databricks
Van toepassing op: Databricks SQL-
Databricks Runtime 12.2 en hoger
Foutklassen zijn beschrijvende, door mensen leesbare tekenreeksen die uniek zijn voor de foutvoorwaarde.
U kunt foutklassen gebruiken om fouten in uw toepassing programmatisch te verwerken zonder dat u het foutbericht hoeft te parseren.
Dit is een lijst met veelvoorkomende, benoemde foutvoorwaarden die worden geretourneerd door Azure Databricks.
Databricks Runtime en Databricks SQL
ADD_DEFAULT_UNSUPPORTED
Kan <statementType>
opdracht niet uitvoeren omdat DEFAULT
waarden niet worden ondersteund bij het toevoegen van nieuwe kolommen aan eerder bestaande doelgegevensbron met tabelprovider: '<dataSource>
'.
AGGREGATE_FUNCTIE_MET_NIET-DETERMINISTISCHE_UITDRUKKING
Niet-deterministische expressie <sqlExpr>
mag niet worden weergegeven in de argumenten van een statistische functie.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Kan modeluitvoer niet parseren bij het casten naar het opgegeven returnType: "<dataType>
", antwoord-JSON was: "<responseString>
". Werk het returnType bij zodat deze overeenkomt met de inhoud van het type dat wordt vertegenwoordigd door de antwoord-JSON en voer de query opnieuw uit.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
De werkelijke modeluitvoer heeft meer dan één kolom<responseString>
'. Het opgegeven retourtype["<dataType>
"] heeft echter slechts één kolom. Werk het returnType bij met hetzelfde aantal kolommen als de modeluitvoer en voer de query opnieuw uit.
AI_FUNCTIE_HTTP_AANVRAAG_FOUT
Er is een fout opgetreden bij het maken van een HTTP-aanvraag voor functie-<funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE (Ongeldige HTTP-reactie van AI-functie)
Ongeldig HTTP-antwoord voor functie-<funcName>
: <errorMessage>
Ongeldige maximum woorden AI-functie
Het maximum aantal woorden moet een niet-negatief geheel getal zijn, maar kreeg <maxWords>
.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
De opgegeven modelparameters (<modelParameters>
) zijn ongeldig in de AI_QUERY
functie voor het leveren van eindpunten<endpointName>
'.
Zie AI_FUNCTION_INVALID_MODEL_PARAMETERS voor meer informatie
AI_FUNCTION_INVALID_RESPONSE_FORMAT_TYPE
AI-functie: '<functionName>
' vereist een geldige <format>
tekenreeks voor responseFormat
parameter, maar de volgende antwoordindeling is gevonden: '<invalidResponseFormat>
'. Uitzondering: <errorMessage>
AI_Functie_JSON_Parse_Fout
Er is een fout opgetreden bij het parseren van het JSON-antwoord voor functie-<funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Kan het schema voor het servereindpunt niet parseren<endpointName>
": <errorMessage>
, antwoord-JSON was: "<responseJson>
".
Stel de parameter returnType
handmatig in de AI_QUERY
-functie in om schemaresolutie te overschrijven.
AI_FUNCTION_UNSUPPORTED_ERROR
De functie <funcName>
wordt niet ondersteund in de huidige omgeving. Het is alleen beschikbaar in Databricks SQL Pro en serverloos.
AI_FUNCTIE_NIET_ONDERSTEUNDE_VERZOEK
Kan de SQL-functie<functionName>
niet evalueren omdat het opgegeven argument van <invalidValue>
<invalidDataType>
heeft, maar alleen de volgende typen worden ondersteund: <supportedDataTypes>
. Werk de functieaanroep bij om een argument van het tekenreekstype op te geven en voer de query opnieuw uit.
AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT
Er is een niet-ondersteunde antwoordindeling gevonden.
Zie AI_FUNCTION_UNSUPPORTED_RESPONSE_FORMAT voor meer informatie
AI_FUNCTIE_NIET_ONDERSTEUND_RETURN_TYPE
AI-functie: "<functionName>
" biedt geen ondersteuning voor het volgende type als retourtype: "<typeName>
". Het retourtype moet een geldig SQL-type zijn dat wordt begrepen door Catalyst en wordt ondersteund door de AI-functie. Huidige ondersteunde typen omvatten: <supportedValues>
AI_ONJUIST_ARGUMENT_WAARDE_FOUT
Opgegeven waarde "<argValue>
" wordt niet ondersteund door argument "<argName>
". Ondersteunde waarden zijn: <supportedValues>
AI_QUERY_ENDPOINT_NOT_SUPPORT_STRUCTURED_OUTPUT
Verwachtte dat het taaktype van het servereindpunt "Chat" zou zijn voor gestructureerde uitvoerondersteuning, maar vond '<taskType>
' bij het eindpunt '<endpointName>
'.
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Opgegeven "<sqlExpr>
" wordt niet ondersteund door het argument returnType.
AI_SEARCH_CONFLICTING_QUERY_PARAM_SUPPLY_ERROR
Conflicterende parameters gedetecteerd voor vector_search
SQL-functie: <conflictParamNames>
.<hint>
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR (Fout: Ondersteunde kolomtype voor AI-zoekembedding niet beschikbaar)
vector_search
SQL-functie met het insluiten van het kolomtype <embeddingColumnType>
wordt niet ondersteund.
AI_SEARCH_EMPTY_QUERY_PARAM_ERROR
vector_search
SQL-functie ontbreekt in de queryinvoerparameter, geeft u ten minste één op van: <parameterNames>
.
AI_SEARCH_HYBRID_QUERY_PARAM_DEPRECATION_ERROR
De parameter query
voor vector_search
SQL-functie wordt niet ondersteund voor hybrid
vectorzoekopdrachten. Gebruik in plaats daarvan query_text
.
AI_ZOEK_HYBRIDE_TEKST_NIET_GEVONDEN_FOUT
Querytekst niet gevonden in de SQL-functie vector_search
voor hybrid
vectorzoekopdracht. Geef query_text
op.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
vector_search
SQL-functie met het indextype <indexType>
wordt niet ondersteund.
Fout: input voor ontbrekende inbedding van AI-zoekopdracht ontbreekt.
query_vector
moet worden opgegeven voor index-<indexName>
omdat deze niet is gekoppeld aan een eindpunt van het insluitmodel.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Fout bij het omzetten van de vector_search
SQL-functiequery van spark-type <dataType>
naar scala-native objecten tijdens het coderen van aanvragen met de volgende fout: <errorMessage>
.
AI_ZOEKOPDRACHT_TYPE_NIET_ONDERSTEUND_FOUT
vector_search
SQL-functie met querytype <unexpectedQueryType>
wordt niet ondersteund. Geef er een op van: <supportedQueryTypes>
.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
vector_search
SQL-functie met num_results groter dan <maxLimit>
wordt niet ondersteund. De opgegeven limiet is <requestedLimit>
. Probeer het opnieuw met num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Voor het gebruik van naamparameterquery's moeten alle parameters worden benoemd. Ontbrekende namen van parameters: <exprs>
.
ALLE_PARTITIEKOLOMMEN_NIET_TOEGESTAAN
Kan niet alle kolommen gebruiken voor partitiekolommen.
WIJZIG_SCHEMA_BESTAAT_NIET
Kan <scheduleType>
niet wijzigen in een tabel zonder een bestaand schema of een bestaande trigger. Voeg een schema of trigger toe aan de tabel voordat u deze probeert te wijzigen.
ALTER_TABLE_KOLOM_BESCHRIJVING_DUPLICAAT
De ALTER TABLE <type>
kolom <columnName>
specificeert descriptor “<optionName>
” meer dan één keer, wat ongeldig is.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Naam <name>
is dubbelzinnig in geneste gemeenschappelijke tabeluitdrukkingen.
Stel <config>
in op 'CORRECTED
', zodat de naam die is gedefinieerd in de binnenste CTE voorrang krijgt. Als deze optie is ingesteld op 'LEGACY
', hebben buitenste CTE-definities voorrang.
Zie https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
AMBIGUE_KOLOM_OF_VELD
Kolom of veld <name>
is dubbelzinnig en heeft <n>
overeenkomende velden.
AMBIGUE_KOLOM_REFERENTIE
Kolom <name>
is niet eenduidig. Dit komt doordat u meerdere DataFrames hebt samengevoegd en sommige van deze DataFrames hetzelfde zijn.
Deze kolom verwijst naar een van de DataFrames, maar Spark kan niet achterhalen welke.
Geef de DataFrames verschillende namen via DataFrame.alias
voordat je ze samenvoegt.
en geef de kolom op met gekwalificeerde naam, bijvoorbeeld df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
ONDUUIDELIJKE_BELEMMERING
Dubbelzinnige verwijzing naar beperking <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
Laterale kolomalias <name>
is dubbelzinnig en heeft <n>
overeenkomsten.
AMBIGUOUS_REFERENCE
De verwijzing <name>
is niet eenduidig, kan zijn: <referenceNames>
.
ONDUIDELIJKE_REFERENTIE_NAAR_VELDEN
Dubbelzinnige verwijzing naar het veld <field>
. Deze wordt <count>
keer weergegeven in het schema.
ANALYSE_BEPERKINGEN_NIET_ONDERSTEUND
ANALYZE CONSTRAINTS
wordt niet ondersteund.
ANSI_CONFIG_KAN_NIET_WORDEN_UITGESCHAKELD
De ANSI SQL-configuratie <config>
kan niet worden uitgeschakeld in dit product.
AQE_THREAD_INTERRUPTED
AQE-thread wordt onderbroken, waarschijnlijk vanwege annulering van query's door de gebruiker.
ARGUMENT_NIET_CONSTANT
De functie <functionName>
bevat een parameter <parameterName>
op positie <pos>
waarvoor een constant argument is vereist. Bereken het argument <sqlExpr>
afzonderlijk en geef het resultaat door als een constante.
ARITHMETIC_OVERFLOW
<message>
.
<alternative>
Stel indien nodig <config>
in op 'false' om deze fout te omzeilen.
Zie ARITHMETIC_OVERFLOW voor meer informatie
ASSIGNMENT_ARITY_MISMATCH
Het aantal kolommen of variabelen dat is toegewezen of een alias heeft: <numTarget>
komt niet overeen met het aantal bronexpressies: <numExpr>
.
AS_OF_JOIN
Ongeldige as-of koppeling.
Voor meer informatie, zie AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
Het gebruik van standaardwaarden wordt niet ondersteund wanneerrescuedDataColumn
is ingeschakeld. U kunt deze controle mogelijk verwijderen door spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
in te stellen op false, maar de standaardwaarden zijn niet van toepassing en null-waarden worden nog steeds gebruikt.
AVRO_ONVERENIGBARE_LEESTYPE
Kan Avro-<avroPath>
niet converteren naar SQL <sqlPath>
omdat het oorspronkelijke gecodeerde gegevenstype <avroType>
is, maar u probeert het veld te lezen als <sqlType>
, wat tot een onjuist antwoord zou leiden.
Als u dit veld wilt lezen, schakelt u de SQL-configuratie in: 'spark.sql.legacy.avro.allowIncompatibleSchema'.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Het gebruik van positionele veldkoppeling wordt niet ondersteund wanneer rescuedDataColumn
of failOnUnknownFields
is ingeschakeld. Verwijder deze opties om door te gaan.
BATCH_METADATA_NIET_GEVONDEN
Kan batch-<batchMetadataFile>
niet vinden.
BIGQUERY_OPTIES_ZIJN_WEDERZIJDS_UITSLUITEND
Referenties voor BigQuery-verbindingen moeten worden opgegeven met de parameter 'GoogleServiceAccountKeyJson' of met alle van 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'.
binaire rekenkundige overloop
<value1> <symbol> <value2>
overloop veroorzaakt. Gebruik <functionName>
om het overloopprobleem te negeren en NULL
te retourneren.
BOOLEAN_UITSPRAAK_MET_LEGE_RIJ
Booleaanse uitdrukking <invalidStatement>
is ongeldig. Er wordt één rij met een waarde van het BOOLEAN
type verwacht, maar er is een lege rij.
Ingebouwde catalogus
<operation>
biedt geen ondersteuning voor ingebouwde catalogi.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
De methode <methodName>
kan niet worden aangeroepen op een streaming Dataset/DataFrame.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
kan de sortering van het type/subtypen van bucketkolommen niet wijzigen, maar vond de bucketkolom <columnName>
in de tabel <tableName>
.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN
wordt niet ondersteund voor partitiekolommen, maar de partitiekolom <columnName>
gevonden in de tabel <tableName>
.
KAN GEEN EVENT-TIJD KOLOM TOEWIJZEN ZONDER WATERMERK
Watermerk moet worden gedefinieerd om de kolom voor gebeurtenistijd opnieuw toe te wijzen. Kan de definitie van het watermerk niet vinden in de streamingquery.
CANNOT_CAST_DATATYPE
Kan <sourceType>
niet casten naar <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Kan Protobuf-<protobufColumn>
niet converteren naar SQL <sqlColumn>
omdat het schema niet compatibel is (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Kan <protobufType>
van Protobuf niet converteren naar sql-type <toType>
.
**Note:** Only proceed if the context supports translating such technical identifiers. Otherwise, leaving it as is can be acceptable: -Cannot convert SQL type to Protobuf Field type
Kan SQL-<sqlColumn>
niet converteren naar Protobuf <protobufColumn>
omdat het schema niet compatibel is (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Kan SQL-<sqlColumn>
niet converteren naar Protobuf-<protobufColumn>
omdat <data>
geen gedefinieerde waarden bevat voor enum: <enumString>
.
KAN_STATUS_NIET_KOPIËREN
Kan de catalogusstatus, zoals de huidige database en tijdelijke weergaven van Unity Catalog, niet kopiëren naar een verouderde catalogus.
KAN_DATA_BRONTABEL_NIET_MAKEN
Kan de gegevensbrontabel niet maken <tableName>
:
Zie CANNOT_CREATE_DATA_SOURCE_TABLE voor meer informatie
KAN_URL_NIET_DECODEN
De opgegeven URL kan niet worden gedecodeerd: <url>
. Zorg ervoor dat de URL correct is opgemaakt en probeer het opnieuw.
KAN_NIET_VERWIJDEREN_SYSTEEM_BEHEERD
Systeemeigendom <resourceType>
kan niet worden verwijderd.
KAN_AMBIGUE_BEPERKING_NIET_VERWIJDEREN
Kan de beperking met de naam <constraintName>
niet verwijderen omdat deze gebruikt wordt door een CHECK
beperking.
en een PRIMARY KEY
of FOREIGN KEY
beperking. U kunt de PRIMARY KEY
verwijderen of
FOREIGN KEY
beperking op query's:
ALTER TABLE
..
DROP PRIMARY KEY
of
ALTER TABLE
..
DROP FOREIGN KEY
..
KAN_GEEN_VERBINDING_MAKEN
Kan geen verbinding maken met externe <jdbcDialectName>
-database. Controleer de verbindingsgegevens en referenties, zoals host, poort, gebruiker, wachtwoord en database. ** Als u denkt dat de informatie juist is, controleert u de netwerkconfiguratie van uw werkruimte en zorgt u ervoor dat deze geen uitgaande beperkingen heeft voor de host. Controleer ook of de host binnenkomende verbindingen vanuit het netwerk waar de Spark-clusters van de werkruimte zijn geïmplementeerd, niet blokkeert. ** Gedetailleerd foutbericht: <causeErrorMessage>
.
Kan_Geen_Verbinding_Maken_SERVERLESS
Kan geen verbinding maken met externe <jdbcDialectName>
-database. Controleer de verbindingsgegevens en referenties, zoals host, poort, gebruiker, wachtwoord en database. ** Als u denkt dat de informatie juist is, sta dan binnenkomend verkeer van het internet naar uw host toe, omdat u serverloze compute gebruikt. Als uw netwerkbeleid geen inkomend internetverkeer toestaat, gebruikt u niet Serverless Compute of neemt u contact op met uw Databricks-vertegenwoordiger voor meer informatie over serverloze privénetwerken. ** Gedetailleerd foutbericht: <causeErrorMessage>
.
KAN_NIET_AANROEPEN_IN_TRANSFORMATIES
Gegevenssettransformaties en -acties kunnen alleen worden aangeroepen door het stuurprogramma, niet binnen andere gegevenssettransformaties; Bijvoorbeeld: dataset1.map(x => dataset2.values.count() * x) is ongeldig omdat de transformatie van waarden en de actie aantal niet kunnen worden uitgevoerd in de transformatie van de gegevensset1.map. Zie SPARK
-28702 voor meer informatie.
KAN_FUNCTION_KLASSE_NIET_LADEN
Kan klasse <className>
niet laden bij het registreren van de functie <functionName>
. Controleer of deze zich in het klassepad bevindt.
KAN_PROTOBUF_KLASSE_NIET_LADEN
Kan de Protobuf-klasse met de naam <protobufClassName>
niet laden.
<explanation>
.
KAN_TOESTANDSWINKEL_NIET_LADEN
Er is een fout opgetreden tijdens het laden.
Zie CANNOT_LOAD_STATE_STORE voor meer informatie
KAN_ONVERENIGBARE_GEGEVENS_TYPE_NIET_SAMENVOEGEN
Het samenvoegen van niet-compatibele gegevenstypen <left>
en <right>
is mislukt. Controleer de gegevenstypen van de kolommen die worden samengevoegd en zorg ervoor dat ze compatibel zijn. Overweeg indien nodig de kolommen naar compatibele gegevenstypen te casten voordat u de samenvoegbewerking probeert uit te voeren.
KAN_SCHEMA'S_NIET_SAMENVOEGEN
Het samenvoegen van schema's is mislukt:
Eerste schema:
<left>
Schema dat niet kan worden samengevoegd met het oorspronkelijke schema:
<right>
.
KAN_CONFIGURATIE_NIET_WIJZIGEN
Kan de waarde van de Spark-configuratie niet wijzigen: <key>
.
Zie ook https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
KAN_DECIMAAL_NIET_PARSEN
Kan decimaal niet parseren. Zorg ervoor dat de invoer een geldig getal is met optionele decimaaltekens of kommascheidingstekens.
KAN_INTERVAL_NIET_PARSEN
Kan <intervalString>
niet parseren. Zorg ervoor dat de opgegeven waarde een geldige indeling heeft voor het definiëren van een interval. U kunt naar de documentatie verwijzen voor de juiste indeling. Als het probleem zich blijft voordoen, controleert u of de invoerwaarde niet null of leeg is en probeert u het opnieuw.
KAN_JSON_VELD_NIET_PARSEN
Kan de veldnaam <fieldName>
en de waarde <fieldValue>
van het JSON-tokentype <jsonType>
niet parseren om het Spark-gegevenstype <dataType>
te richten.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Fout bij het parseren van descriptorbytes in Protobuf FileDescriptorSet.
TIJDSSTEMPEL_KAN_NIET_WORDEN_VERWERKT
<message>
. Gebruik <func>
om ongeldige invoertekenreeks te tolereren en in plaats daarvan NULL
te retourneren.
KAN_TABEL_NIET_OPVRAGEN_TIJDENS_INITIALISATIE
Kan tijdens de initialisatie geen query uitvoeren op MV/ST.
Zie CANNOT_QUERY_TABLE_DURING_INITIALIZATION voor meer informatie
KAN_GEARCHIVEERD_BESTAND_NIET_LEZEN
Kan bestand niet lezen op pad <path>
omdat het is gearchiveerd. Pas uw queryfilters aan om gearchiveerde bestanden uit te sluiten.
KAN_BESTAND_NIET_LEZEN
Kan het bestand <format>
niet lezen bij het pad: <path>
.
Zie CANNOT_READ_FILE voor meer informatie
KAN_GEVOELIGE_SLEUTEL_NIET_LEZEN_VAN_VEILIGE_PROVIDER
Kan gevoelige sleutel '<key>
' niet lezen van een beveiligde provider.
CANNOT_RECOGNIZE_HIVE_TYPE
Kan de tekenreeks van het hive-type niet herkennen: <fieldType>
, kolom: <fieldName>
. Het opgegeven gegevenstype voor het veld kan niet worden herkend door Spark SQL. Controleer het gegevenstype van het opgegeven veld en controleer of het een geldig Spark SQL-gegevenstype is. Raadpleeg de Spark SQL-documentatie voor een lijst met geldige gegevenstypen en de bijbehorende indeling. Als het gegevenstype juist is, moet u ervoor zorgen dat u een ondersteunde versie van Spark SQL gebruikt.
KAN_UC_NIET_REFEREREN_IN_HMS
Kan niet verwijzen naar een Unity Catalog <objType>
in Hive Metastore-objecten.
KAN_GERESERVEERDE_EIGENSCHAP_NIET_VERWIJDEREN
Kan gereserveerde eigenschap niet verwijderen: <property>
.
KAN_NIET_HERNOEMEN_TUSSEN_CATALOGI
Het wijzigen van de naam van een <type>
in verschillende catalogi is niet toegestaan.
KAN_NIET_HERNOEMEN_TUSSEN_SCHEMA'S
Het wijzigen van de naam van een <type>
tussen schema's is niet toegestaan.
KAN_DATAFRAMEKOLOM_NIET_OPLOSSEN
Kan de gegevensframekolom <name>
niet oplossen. Het komt waarschijnlijk door illegale verwijzingen zoals df1.select(df2.col("a"))
.
KAN_STERUITBREIDING_NIET_OPLOSSEN
Kan <targetString>
.* opgegeven invoerkolommen <columns>
niet oplossen. Controleer of de opgegeven tabel of struct bestaat en toegankelijk is in de invoerkolommen.
KAN_RECHTEN_NIET_HERSTELLEN_VOOR_PAD
Kan geen machtigingen instellen voor het gemaakte pad <path>
terug naar <permission>
.
KAN_NIET_OPPERVLAAKKIG_KOPIEREN_TUSSEN_UC_EN_HMS
Het is niet mogelijk om tabellen ondiep te klonen tussen Unity Catalog en Hive Metastore.
KAN_NIET_OPPERVLAKKIG_GEKLOOND_IN_GENESTE_STRUCTUREN
Het is niet mogelijk tabel <table>
ondiep te klonen omdat het al een ondiepe kloon is.
KAN_EEN_NIET_UC_BEHEERDE_TABEL_NIET_OPPERVLAKKIG_KLONEN_ALS_BRON_OF_DOEL
Shallow clone wordt alleen ondersteund voor het tabeltype MANAGED
. De tabel <table>
is niet MANAGED
tabel.
KAN_VELD_NIET_BIWERKEN
Kan <table>
veld <fieldName>
type niet bijwerken:
Zie CANNOT_UPDATE_FIELD voor meer informatie
KAN_DATATYPE_NIET_UPCASTEN
Kan <expression>
niet omhoog casten van <sourceType>
naar <targetType>
.
<details>
KAN_KRYO_NIET_GEBRUIKEN
Kan kryo-serialisatiecodec niet laden. Kryo-serialisatie kan niet worden gebruikt in de Spark Connect-client. Gebruik Java-serialisatie, geef een aangepaste codec op of gebruik in plaats daarvan Spark Classic.
KAN_VERBINDING_NIET_VALIDEREN
Validatie van <jdbcDialectName>
verbinding wordt niet ondersteund. Neem contact op met databricks-ondersteuning voor alternatieve oplossingen of stel spark.databricks.testConnectionBeforeCreation in op false om verbindingstests over te slaan voordat u een verbindingsobject maakt.
KAN_DE_STATUSOPSLAG_NIET_SCHRIJVEN
Fout bij het schrijven van statusopslagbestanden voor provider-<providerClass>
.
Zie CANNOT_WRITE_STATE_STORE voor meer informatie.
CAST_INVALID_INPUT
De waarde <expression>
van het type <sourceType>
kan niet worden omgezet in <targetType>
omdat deze ongeldig is. Corrigeer de waarde volgens de syntaxis of wijzig het doeltype. Gebruik try_cast
om onjuiste invoer te tolereren en in plaats daarvan NULL
te retourneren.
Zie CAST_INVALID_INPUT voor meer informatie
CAST_OVERFLOW
De waarde <value>
van het type <sourceType>
kan niet worden omgezet in <targetType>
vanwege een overloop. Gebruik try_cast
om overloop te verdragen en in plaats daarvan NULL
te retourneren.
CAST_OVERFLOW_BIJ_TABELINSERTIE
Kan geen waarde van <sourceType>
type toewijzen aan de <targetType>
kolom of variabele <columnName>
vanwege een overloop. Gebruik try_cast
voor de invoerwaarde om in plaats daarvan overloop te tolereren en NULL
te retourneren.
CATALOGUS_NIET_GEVONDEN
De catalogus <catalogName>
niet gevonden. Overweeg om de SQL-configuratie-<config>
in te stellen op een catalogusinvoegtoepassing.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Controlepuntblok <rddBlockId>
niet gevonden!
De uitvoerder die deze partitie oorspronkelijk heeft gecontroleerd, is niet meer actief of de oorspronkelijke RDD is onbeheerd.
Als dit probleem zich blijft voordoen, kunt u overwegen om in plaats daarvan rdd.checkpoint()
te gebruiken, wat langzamer is dan lokale controlepunten, maar meer fouttolerant.
Circulare klasseverwijzing
Kan geen kringverwijzingen in klasse hebben, maar de kringverwijzing van klasse <t>
.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
moet <method1>
of <method2>
overschrijven.
Klasse niet ondersteund door kaartobjecten
MapObjects
biedt geen ondersteuning voor de klasse <cls>
als resulterende verzameling.
CLEANROOM_COMMANDS_NIET_ONDERSTEUND
Clean Room-opdrachten worden niet ondersteund
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Ongeldige naam om te verwijzen naar een <type>
in een schone kamer. Gebruik de naam van een <type>
in de schone ruimte volgens de indeling [catalogus]. [schema]. [<type>
].
Als u niet zeker weet welke naam u moet gebruiken, kunt u 'SHOW ALL IN CLEANROOM
[clean_room]' uitvoeren en de waarde in de kolom 'naam' gebruiken.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Er is een bestandsmelding ontvangen voor het bestand: <filePath>
, maar deze bestaat niet meer. Zorg ervoor dat bestanden niet worden verwijderd voordat ze worden verwerkt. Als u de stream wilt voortzetten, kunt u de Spark SQL-configuratie <config>
op true instellen.
CLOUD_PROVIDER_ERROR
Fout bij cloudprovider: <message>
CLUSTERING_KOLOMMEN_NIET_OVEREENKOMSTIG
Opgegeven clustering komt niet overeen met die van de bestaande tabel <tableName>
.
Opgegeven clusteringkolommen: [<specifiedClusteringString>
].
Bestaande clusteringkolommen: [<existingClusteringString>
].
CLUSTERING_NIET_ONDERSTEUND
'<operation>
' biedt geen ondersteuning voor clustering.
Automatisch groeperen op eigenschap niet ingeschakeld
Neem contact op met uw Databricks-vertegenwoordiger om de cluster-by-auto-functie in te schakelen.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Schakel clusteringTable.enableClusteringTableFeature in om CLUSTER BY
AUTO te gebruiken.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY
AUTO vereist dat Predictive Optimization is ingeschakeld.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY
AUTO wordt alleen ondersteund in UC Managed Tables.
CODEC_NOT_AVAILABLE
De codec <codecName>
is niet beschikbaar.
Zie CODEC_NOT_AVAILABLE voor meer informatie
CODEC_SHORT_NAME_NOT_FOUND
Kan geen korte naam vinden voor de codec <codecName>
.
ONGELDIGE_NAAM_SORTERING
De waarde <collationName>
vertegenwoordigt geen juiste sorteringsnaam. Voorgestelde geldige sorteringsnamen: [<proposals>
].
ONGELDIGE_SORTERING_PROVIDER
De waarde <provider>
vertegenwoordigt geen juiste sorteringsprovider. Ondersteunde providers zijn: [<supportedProviders>
].
COLLATION_MISMATCH
Kan niet bepalen welke sortering moet worden gebruikt voor tekenreeksfuncties en operatoren.
Zie COLLATION_MISMATCH voor meer informatie
COLLECTIE_GROOTTE_LIMIET_OVERSCHREDEN
Kan geen matrix maken met <numberOfElements>
elementen die de limiet voor de matrixgrootte <maxRoundedArrayLength>
overschrijden,
Zie COLLECTION_SIZE_LIMIT_EXCEEDED voor meer informatie
KOLOM_ALIASEN_NIET_TOEGESTAAN
Kolomaliassen zijn niet toegestaan in <op>
.
KOLOM_BESTAAT_AL
De kolom <columnName>
bestaat al. Kies een andere naam of wijzig de naam van de bestaande kolom.
KOLOM_ARRAY_ELEMENT_TYPE_VERGELIJKING
Sommige waarden in het veld <pos>
zijn niet compatibel met het kolommatrixtype. Verwacht type <type>
.
COLUMN_MASKS_ABAC_MISMATCH
Kolommaskers kunnen niet worden opgelost op <tableName>
omdat er een onjuiste overeenkomst is tussen kolommaskers die zijn overgenomen van beleid en expliciet gedefinieerde kolommaskers. Als u wilt doorgaan, schakelt u ABAC (Attribute Based Access Control) uit en neemt u contact op met databricks-ondersteuning.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Het maken van CHECK
beperking voor tabel <tableName>
met beleid voor kolommaskers wordt niet ondersteund.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Een <statementType>
verklaring probeerde een kolommaskerbeleid toe te wijzen aan een kolom die twee of meer andere kolommen omvatte, waarnaar in de USING COLUMNS
-lijst wordt verwezen met dezelfde naam <columnName>
, wat ongeldig is.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Beleid voor kolommaskers voor <tableName>
worden niet ondersteund:
Zie COLUMN_MASKS_FEATURE_NOT_SUPPORTED voor meer informatie
COLUMN_MASKS_ONVERENIGBARE_SCHEMA_WIJZIGING
Kan niet <statementType> <columnName>
uit tabel <tableName>
omdat er naar wordt verwezen in een kolommaskerbeleid voor kolom <maskedColumn>
. De eigenaar van de tabel moet dit beleid verwijderen of wijzigen voordat u doorgaat.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
bewerkingen bieden geen ondersteuning voor beleid voor kolommaskers in de brontabel <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
MERGE INTO
-bewerkingen bieden geen ondersteuning voor het schrijven naar tabel <tableName>
met kolommaskerbeleid.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Deze instructie heeft geprobeerd een beleid voor kolommaskers toe te wijzen aan een kolom <columnName>
met meerdere naamonderdelen, wat ongeldig is.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Deze instructie heeft geprobeerd een beleid voor kolommaskers toe te wijzen aan een kolom en de USING COLUMNS
lijst bevat de naam <columnName>
met meerdere naamonderdelen, wat ongeldig is.
COLUMN_MASKS_NOT_ENABLED
Ondersteuning voor het definiëren van kolommaskers is niet ingeschakeld
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Beleid voor kolommaskers wordt alleen ondersteund in Unity Catalog.
COLUMN_MASKS_SHOW_PARTITIONS_UNSUPPORTED
SHOW PARTITIONS
opdracht wordt niet ondersteund voor<format>
tabellen met kolommaskers.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
kloon van tabel <tableName>
met kolommaskerbeleid wordt niet ondersteund.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
klonen naar tabel <tableName>
met kolommaskerbeleid wordt niet ondersteund.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Het gebruik van een constante als parameter in een kolommaskerbeleid wordt niet ondersteund. Werk de SQL-opdracht bij om de constante uit de definitie van het kolommasker te verwijderen en voer de opdracht opnieuw uit.
COLUMN_MASKS_NIET_ONDERSTEUNDE_PROVIDER
Kan <statementType>
opdracht niet uitvoeren omdat het toewijzen van beleid voor kolommaskers niet wordt ondersteund voor de doelgegevensbron met tabelprovider: '<provider>
'.
COLUMN_MASKS_NIET_ONDERSTEUNDE_SUBQUERY
Kan geen <operation>
uitvoeren voor tabel <tableName>
omdat deze een of meer beleidsregels voor kolommaskers bevat met subquery-expressies die nog niet worden ondersteund. Neem contact op met de eigenaar van de tabel om het beleid voor kolommaskers bij te werken om door te gaan.
COLUMN_MASKS_GEBRUIK_KOLOMNAAM_ZELFDE_ALS_DOELKOLOM
De kolom <columnName>
dezelfde naam had als de doelkolom, die ongeldig is; verwijder de kolom uit de USING COLUMNS
lijst en voer de opdracht opnieuw uit.
KOLOM_NIET_GEDEFINIEERD_IN_TABEL
<colType>
kolom <colName>
is niet gedefinieerd in tabel <tableName>
, de gedefinieerde tabelkolommen zijn: <tableCols>
.
KOLOM_NIET_GEVONDEN
De kolom <colName>
kan niet worden gevonden. Controleer de spelling en juistheid van de kolomnaam volgens de SQL-configuratie <caseSensitiveConfig>
.
KOLOM_VOLGORDE_BUITEN_BEREIK
Kolom ordinaal buiten grenzen. Het aantal kolommen in de tabel is <attributesLength>
, maar de kolomordinaal is <ordinal>
.
Kenmerken zijn het volgende: <attributes>
.
COMMA_PRECEDING_CONSTRAINT_ERROR
Onverwachte ',' vóór de definitie van een of meer beperkingen. Zorg ervoor dat de beperkingscomponent niet begint met een komma wanneer kolommen (en verwachtingen) niet zijn gedefinieerd.
Opmerking over verbinding nog niet geïmplementeerd.
De opdracht COMMENT ON CONNECTION
is nog niet geïmplementeerd
VERGELIJKER_GEEFT_NULL_TERUG
De vergelijkingsfunctie heeft een NULL
geretourneerd voor een vergelijking tussen <firstValue>
en <secondValue>
.
Het moet een positief geheel getal retourneren voor 'groter dan', 0 voor 'gelijk' en een negatief geheel getal voor 'kleiner dan'.
Als u wilt terugkeren naar afgeschaft gedrag waarbij NULL
wordt behandeld als 0 (gelijk), moet u 'spark.sql.legacy.allowNullComparisonResultInArraySort' instellen op 'true'.
COMPLEX_EXPRESSIE_ONDERSTEUNDE_INVOER
Kan invoergegevenstypen voor de expressie niet verwerken: <expression>
.
Zie COMPLEX_EXPRESSION_UNSUPPORTED_INPUT voor meer informatie
concurrente query
Een ander exemplaar van deze query [id: <queryId>
] is zojuist gestart door een gelijktijdige sessie [bestaande runId: <existingQueryRunId>
nieuwe runId: <newQueryRunId>
].
CONCURRENT_SCHEDULER_INSUFFICIENT_SLOT
Het minimale aantal vrije slots dat vereist is in het cluster is <numTasks>
, maar het cluster heeft maar <numSlots>
slots vrij. Query loopt vast of mislukt. Vergroot de clustergrootte om door te gaan.
Gelijktijdige_stream_log_update
Gelijktijdige update naar het logboek. Er zijn meerdere streaming-taken gedetecteerd voor <batchId>
.
Zorg ervoor dat slechts één streamingtaak tegelijk wordt uitgevoerd op een specifieke controlepuntlocatie.
CONFIG_NIET_BESCHIKBAAR
Configuratie-<config>
is niet beschikbaar.
Conflicterende directorystructuren
Conflicterende mapstructuren gedetecteerd.
Verdachte paden:
<discoveredBasePaths>
Als opgegeven paden partitiemappen zijn, stelt u 'basePath' in de opties van de gegevensbron in om de hoofdmap van de tabel op te geven.
Als er meerdere hoofdmappen zijn, laad deze dan afzonderlijk en voeg ze vervolgens samen.
CONFLICTERENDE_PARTITIE_KOLOMNAMEN
Conflicterende namen van partitiekolommen gedetecteerd:
<distinctPartColLists>
Voor gepartitioneerde tabelmappen mogen gegevensbestanden alleen live zijn in leaf-mappen.
En mappen op hetzelfde niveau moeten dezelfde partitiekolomnaam hebben.
Controleer de volgende mappen op onverwachte bestanden of inconsistente partitiekolomnamen:
<suspiciousPaths>
Conflictveroorzakende_Provider
De opgegeven provider <provider>
is inconsistent met de bestaande catalogusprovider <expectedProvider>
. Gebruik 'USING <expectedProvider>
' en voer de opdracht opnieuw uit.
CONNECT
Algemene Spark Connect-fout.
Zie CONNECT- voor meer informatie
CONNECTION_ALREADY_EXISTS
Kan geen verbinding maken <connectionName>
omdat deze al bestaat.
Kies een andere naam, verwijder of vervang de bestaande verbinding of voeg de IF NOT EXISTS
-component toe om bestaande verbindingen te tolereren.
VERBINDINGSNAAM_MAG_NIET_LEEG_ZIJN
Kan deze opdracht niet uitvoeren omdat de verbindingsnaam niet leeg moet zijn.
VERBINDING_NIET_GEVONDEN
Kan deze opdracht niet uitvoeren omdat de verbindingsnaam <connectionName>
niet is gevonden.
VERBINDINGSOPTIE_NIET_ONDERSTEUND
Verbindingen van het type '<connectionType>
' bieden geen ondersteuning voor de volgende opties: <optionsNotSupported>
. Ondersteunde opties: <allowedOptions>
.
VERBINDINGSTYPE_NIET_ONDERSTEUND
Kan geen verbinding maken van het type<connectionType>
. Ondersteunde verbindingstypen: <allowedTypes>
.
CONNECT_SESSION_MIGRATION
Algemene sessiemigratiefout (userId: <userId>
, sessionId: <sessionId>
, serverSessionId: <serverSessionId>
).
Zie CONNECT_SESSION_MIGRATION voor meer informatie
CONSTRAINTS_VEREISTEN_UNITY_CATALOGUS
Tabelbeperkingen worden alleen ondersteund in Unity Catalog.
CONVERSIE_ONGELDIGE_INVOER
De waarde <str> (<fmt>
) kan niet worden geconverteerd naar <targetType>
omdat deze ongeldig is. Corrigeer de waarde volgens de syntaxis of wijzig de indeling. Gebruik <suggestion>
om onjuiste invoer te tolereren en in plaats daarvan NULL
te retourneren.
COPY_INTO_COLUMN_ARITY_MISMATCH
Kan niet schrijven naar <tableName>
, de reden is
Zie COPY_INTO_COLUMN_ARITY_MISMATCH voor meer informatie
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Ongeldig schema <scheme>
.
COPY INTO
bronreferenties ondersteunt momenteel alleen s3/s3n/s3a/wasbs/abfss.
INLOGGEGEVENS_VEREIST_VOOR_KOPIËREN
COPY INTO
broncredentials moeten <keyList>
specificeren.
KOPIËREN_IN_GEDUPLICEERDE_BESTANDEN_KOPIËREN_NIET_TOEGESTAAN
Gedupliceerde bestanden zijn vastgelegd in een gelijktijdige COPY INTO
bewerking. Probeer het later opnieuw.
KOPIËREN_IN_VERSLEUTELING_NIET_TOEGESTAAN_OP
Ongeldig schema <scheme>
.
COPY INTO
bronversleuteling ondersteunt momenteel alleen s3/s3n/s3a/abfss.
Kopiëren naar versleuteling niet ondersteund voor Azure
COPY INTO
versleuteling ondersteunt alleen ADLS Gen2 of abfss:// bestandsschema
Kopiëren_niet_mogelijk_zonder_versleuteling_verplicht
COPY INTO
bronversleuteling moet '<key>
' specificeren.
Kopiëren naar vereist codering met verwacht
Ongeldige versleutelingsoptie <requiredKey>
.
COPY INTO
bronversleuteling moet '<requiredKey>
' = '<keyValue>
' opgeven.
Kopieer_in_voorziening_onverenigbare_instelling
De COPY INTO
functie<feature>
is niet compatibel met<incompatibleSetting>
.
KOPIËREN_IN_NON_BLIND_APPEND_NIET_TOEGESTAAN
COPY INTO
behalve het toevoegen van gegevens mag niet gelijktijdig worden uitgevoerd met andere transacties. Probeer het later opnieuw.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO
is het niet gelukt om zijn status te laden, het maximum aantal nieuwe pogingen is overschreden.
COPY_INTO_SCHEMA_KOMT_NIET OVEREEN_MET_DOELTABEL
Er is een niet-overeenkomend schema gedetecteerd tijdens het kopiëren naar de Delta-tabel (tabel: <table>
).
Dit kan duiden op een probleem met de binnenkomende gegevens, of het Delta-tabelschema kan automatisch worden ontwikkeld op basis van de binnenkomende gegevens door de instelling in te stellen:
COPY_OPTIONS
('mergeSchema' = 'true')
Schemaverschil:
<schemaDiff>
KOPIE_IN_BRONBESTANDSFORMAAT_NIET_ONDERSTEUND
De indeling van de bronbestanden moet een van CSV-, JSON-, AVRO-, ORC-, PARQUET
, TEKST of BINARYFILE
zijn. Het gebruik van COPY INTO
in Delta-tabellen als de bron wordt niet ondersteund, omdat dubbele gegevens mogelijk worden opgenomen na OPTIMIZE
-bewerkingen. Deze controle kan worden uitgeschakeld door de SQL-opdracht uit te voeren set spark.databricks.delta.copyInto.formatCheck.enabled = false
.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
De bronmap bevat geen parseerbare bestanden van het type <format>
. Controleer de inhoud van '<source>
'.
De fout kan worden stilgelaten door '<config>
' in te stellen op 'false'.
COPY_INTO_STATE_INTERNAL_ERROR
Er is een interne fout opgetreden tijdens het verwerken van COPY INTO
status.
Zie COPY_INTO_STATE_INTERNAL_ERROR voor meer informatie
COPY_INTO_SYNTAX_ERROR
Kan de opdracht COPY INTO
niet parseren.
Zie COPY_INTO_SYNTAX_ERROR voor meer informatie
KOPIËREN_NAAR_NIET-ONDERSTEUNDE_FUNCTIE
De COPY INTO
functie '<feature>
' wordt niet ondersteund.
KOPIE_UITLAADFORMAAT_TYPE_NIET_ONDERSTEUND
Kan geen gegevens in de indeling '<formatType>
' ontladen. Ondersteunde indelingen voor <connectionType>
zijn: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOG_NIET_GËIMPLEMENTEERD
De opdracht CREATE FOREIGN SCHEMA
is nog niet geïmplementeerd
CREATE_FOREIGN_TABLE_NOG_NIET_GEÏMPLEMENTEERD
De opdracht CREATE FOREIGN TABLE
is nog niet geïmplementeerd
CREATE_OR_REFRESH_MV_ST_ASYNC
Kan niet CREATE
OF REFRESH
gerealiseerde weergaven of streamingtabellen met ASYNC
opgegeven. Verwijder ASYNC
uit de verklaring CREATE
of REFRESH
, of gebruik REFRESH ASYNC
om bestaande gematerialiseerde weergaven of streamingtabellen asynchroon te vernieuwen.
CREATE_PERMANENTE_WEERGAVE_ZONDER_ALIAS
Het is niet toegestaan om de permanente weergave te maken <name>
zonder expliciet een alias toe te wijzen voor de expressie <attr>
.
TAABELKOLOM_DESCRIPTOR_DUPLICAAT
De CREATE TABLE
kolom <columnName>
specificeert descriptor “<optionName>
” meer dan één keer, wat ongeldig is.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Kan weergave <viewName>
niet maken, de reden hiervoor is
Zie CREATE_VIEW_COLUMN_ARITY_MISMATCH voor meer informatie
GEBRUIKERSGEGEVENS_ONTBREKEN
Geef referenties op bij het maken of bijwerken van externe locaties.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
De CSV-optie enforceSchema
kan niet worden ingesteld wanneer u rescuedDataColumn
of failOnUnknownFields
gebruikt, omdat kolommen worden gelezen op naam in plaats van rangschikkelijk.
Cyclische Functie Referentie
Verwijzing naar cyclische functie gedetecteerd: <path>
.
DATABRICKS_DELTA_NIET_INGESCHAKELD
Databricks Delta is niet ingeschakeld in uw account.<hints>
DATATYPE_MISMATCH
Kan <sqlExpr>
niet oplossen omdat het gegevenstype niet overeenkomt:
Zie DATATYPE_MISMATCH voor meer informatie
DATATYPE_MISSING_SIZE
DataType <type>
vereist een lengteparameter, bijvoorbeeld <type>
(10). Geef de lengte op.
DATA_LINEAGE_BEVEILIGDE_WEERGAVE_BLAD_NODE_HEEFT_GEEN_CONNECTIE
De poging om afstamming te schrijven is mislukt: ontbrekende overeenkomstige relatie met beleid voor CLM/RLS.
GEGEVENSBRON_BESTAAT_AL
De gegevensbron<provider>
bestaat al. Kies een andere naam voor de nieuwe gegevensbron.
DATA_SOURCE_EXTERNAL_ERROR
Er is een fout opgetreden bij het opslaan naar een externe gegevensbron.
GEGEVENSBRON_BESTAAT_NIET
De gegevensbron<provider>
is niet gevonden. Zorg ervoor dat de gegevensbron is geregistreerd.
GEGEVENSBRON_NIET_GEVONDEN
Kan de gegevensbron niet vinden: <provider>
. Zorg ervoor dat de providernaam juist is en dat het pakket correct is geregistreerd en compatibel is met uw Spark-versie.
DE_BRONOPTIE_BEVAT_ONGELDIGE_TEKENS
Optie <option>
mag niet leeg zijn en mag geen ongeldige tekens, queryreeksen of parameters bevatten.
DATA_BRON_OPTIE_IS_VEREIST
Optie <option>
is vereist.
Data_Bron_Tabel_Schema_Verschil
Het schema van de gegevensbrontabel komt niet overeen met het verwachte schema. Als u de DataFrameReader.schema-API gebruikt of een tabel maakt, moet u het schema niet opgeven.
Gegevensbronschema: <dsSchema>
Verwacht schema: <expectedSchema>
DATA_BRON_URL_NIET_TOEGESTAAN
JDBC-URL is niet toegestaan in opties voor gegevensbronnen. Geef in plaats daarvan de opties host, poort en database op.
DATUMTIJD_VELD_BUITEN_BEREIK
<rangeMessage>
. Stel indien nodig <ansiConfig>
in op 'false' om deze fout te omzeilen.
DATETIME_OVERFLOW (datum/tijd overschrijding)
Overloop van datum/tijdbewerking: <operation>
.
DC_API_QUOTA_EXCEEDED
U hebt het API-quotum voor de gegevensbron overschreden <sourceName>
.
Zie DC_API_QUOTA_EXCEEDED voor meer informatie
DC_CONNECTION_ERROR
Kan geen verbinding maken met de <sourceName>
bron. Foutcode: <errorCode>
.
Zie DC_CONNECTION_ERROR voor meer informatie
DC_DYNAMICS_API_ERROR
Er is een fout opgetreden in Dynamics API-aanroepen, errorCode: <errorCode>
.
Zie DC_DYNAMICS_API_ERROR voor meer informatie
DC_NETSUITE_ERROR
Fout opgetreden in Netsuite JDBC-aanroepen, errorCode: <errorCode>
.
Zie DC_NETSUITE_ERROR voor meer informatie
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: geen toegewezen waarde
Er is een schemawijziging opgetreden in de tabel <tableName>
van de <sourceName>
bron.
Zie DC_SCHEMA_CHANGE_ERROR voor meer informatie
DC_SERVICENOW_API_ERROR
Er is een fout opgetreden in ServiceNow-API-aanroepen, errorCode: <errorCode>
.
Zie DC_SERVICENOW_API_ERROR voor meer informatie
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
Opname voor object <objName>
is onvolledig omdat de Salesforce API-querytaak te lang duurde, is mislukt of handmatig is geannuleerd.
Als u het opnieuw wilt proberen, kunt u de hele pijplijn opnieuw uitvoeren of deze specifieke doeltabel vernieuwen. Als de fout zich blijft voordoen, dient u een ticket in. Vacature-ID: <jobId>
. Taakstatus: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Er is een fout opgetreden in Sharepoint-API-aanroepen, errorCode: <errorCode>
.
Zie DC_SHAREPOINT_API_ERROR voor meer informatie
DC_SOURCE_API_ERROR
Er is een fout opgetreden in de <sourceName>
API-aanroep. Bron-API-type: <apiType>
. Foutcode: <errorCode>
.
Dit kan soms gebeuren wanneer u een <sourceName>
API-limiet hebt bereikt. Als u de API-limiet niet hebt overschreden, probeert u de connector opnieuw uit te voeren. Als het probleem zich blijft voordoen, dient u een ticket in.
DC_UNSUPPORTED_ERROR
Er is een niet-ondersteunde fout opgetreden in de gegevensbron <sourceName>
.
Zie DC_UNSUPPORTED_ERROR voor meer informatie
DC_WORKDAY_RAAS_API_ERROR
Er is een fout opgetreden in raas-API-aanroepen van Workday, errorCode: <errorCode>
.
Zie DC_WORKDAY_RAAS_API_ERROR voor meer informatie
DECIMALE_NAUWKEURIGHEID_OVERTREFT_MAXIMALE_NAUWKEURIGHEID
Decimale precisie <precision>
overschrijdt de maximale precisie <maxPrecision>
.
DEFAULT_DATABASE_BESTAAT_NIET
Standaarddatabase <defaultDatabase>
bestaat niet, maak deze eerst of wijzig de standaarddatabase in <defaultDatabase>
.
Standaardbestand niet gevonden
Het is mogelijk dat de onderliggende bestanden zijn bijgewerkt. U kunt de cache in Spark expliciet ongeldig maken door de opdracht 'REFRESH TABLE
tableName' uit te voeren in SQL of door het betrokken gegevensset/dataframe opnieuw te maken. Als de schijfcache verouderd is of de onderliggende bestanden zijn verwijderd, kunt u de schijfcache handmatig ongeldig maken door het cluster opnieuw op te starten.
DEFAULT_PLACEMENT_INVALID
Een DEFAULT
trefwoord in een MERGE
, INSERT
, UPDATE
of SET VARIABLE
opdracht kan niet rechtstreeks worden toegewezen aan een doelkolom omdat deze deel uitmaakte van een expressie.
Bijvoorbeeld: UPDATE
SET c1 = DEFAULT
is toegestaan, maar UPDATE T
SET c1 = ``DEFAULT`` + 1
is niet toegestaan.
DEFAULT_UNSUPPORTED
Kan <statementType>
opdracht niet uitvoeren omdat DEFAULT
waarden niet worden ondersteund voor de doelgegevensbron met tabelprovider: '<dataSource>
'.
BESCHRIJF_JSON_NIET_UITGEBREID
DESCRIBE TABLE
... AS JSON wordt alleen ondersteund wanneer [EXTENDED|FORMATTED
] is opgegeven.
Bijvoorbeeld: DESCRIBE EXTENDED <tableName>
AS JSON wordt ondersteund, maar DESCRIBE <tableName>
AS JSON niet.
ANDERE_DELTA_TABEL_GELEZEN_DOOR_STREAMING_BRON
De streamingquery was aan het lezen van een onverwachte Delta-tabel (id = '<newTableId>
').
Het las vroeger uit een andere Delta-tabel (id = '<oldTableId>
') volgens het controlepunt.
Dit kan gebeuren wanneer u de code hebt gewijzigd om te lezen uit een nieuwe tabel of u hebt verwijderd en
een tabel opnieuw gemaakt. Draai uw wijziging terug of verwijder het controlepunt voor de streamingquery
opnieuw beginnen vanaf nul.
DISTINCT_VENSTERFUNCTIE_NIET_ONDERSTEUND
Afzonderlijke vensterfuncties worden niet ondersteund: <windowExpr>
.
DIVIDE_BY_ZERO
Delen door nul. Gebruik try_divide
om te tolereren dat deler 0 is en NULL
in plaats daarvan retourneert. Stel indien nodig <config>
in op 'false' om deze fout te omzeilen.
Zie DIVIDE_BY_ZERO voor meer informatie
DLT-verwachtingen niet ondersteund
Verwachtingen worden alleen ondersteund binnen een Delta Live Tables-werkstroom.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED
VIEWs met een CLUSTER BY
-clausule worden alleen ondersteund in een Delta Live Tables-pijplijn.
DLT_WEERGAVE_LOCATIE_NIET_ONDERSTEUND
<mv>
-locaties worden alleen ondersteund in een Delta Live Tables-pijplijn.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
<mv>
schema's met een opgegeven type worden alleen ondersteund in een Delta Live Tables-pijplijn.
DLT_VIEW_TABLE_CONSTRAINTS_NIET_ONDERSTEUND
CONSTRAINT
clausules in een weergave worden alleen ondersteund in een Delta Live Tables-pijplijn.
DROP_SCHEDULE_DOES_NOT_EXIST (dropschema bestaat niet)
Kan SCHEDULE
niet verwijderen in een tabel zonder een bestaand schema of een bestaande trigger.
DUPLICATED_CTE_NAMES
CTE-definitie mag geen dubbele namen hebben: <duplicateNames>
.
GEDUPLICEERDE_VELDNAAM_IN_ARROW_STRUCTUUR
Duplicaat veldnamen in Arrow Struct zijn niet toegestaan, we hebben <fieldNames>
gezien.
DUPLICATED_MAP_KEY
Dubbele kaartsleutel <key>
is gevonden. Controleer de invoergegevens.
Als u de dubbele sleutels wilt verwijderen, kunt u <mapKeyDedupPolicy>
instellen op 'LAST_WIN
' zodat de sleutel die voor het laatst is ingevoegd voorrang krijgt.
GEDUPLICEERDE_METRISCHE_NAAM
De metrische naam is niet uniek: <metricName>
. Dezelfde naam kan niet worden gebruikt voor metrische gegevens met verschillende resultaten.
Meerdere exemplaren van metrische gegevens met hetzelfde resultaat en dezelfde naam zijn echter toegestaan (bijvoorbeeld zelf-joins).
DUPLICAAT_TOEWIJZINGEN
De kolommen of variabelen <nameList>
verschijnen meer dan eens als doellocaties voor toewijzing.
DUBBELE_CLAUSULES
Dubbele clausules gevonden: <clauseName>
. Verwijder een van deze.
DUPLICAAT_SLEUTEL
Dubbele sleutels <keyColumn>
gevonden.
DUPLICAAT_ROUTINE_PARAMETER_TOEWIJZING
Het aanroepen van routine-<routineName>
is ongeldig omdat deze meerdere argumenttoewijzingen bevat voor dezelfde parameternaam <parameterName>
.
Zie DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT voor meer informatie
DUPLICATE_ROUTINE_PARAMETER_NAMEN
Er zijn dubbele namen gevonden in de parameterlijst van de door de gebruiker gedefinieerde routine-<routineName>
: <names>
.
Dubbele_Routine_Keert_Kolommen_Terug
Er zijn dubbele kolommen gevonden in de kolomlijst van de RETURNS
clausule van de gebruikersgedefinieerde routine <routineName>
: <columns>
.
Het uitzenden van rijen ouder dan de watermerk is niet toegestaan.
Vorig knooppunt heeft een rij gegenereerd met eventTime=<emittedRowEventTime>
die ouder is dan current_watermark_value=<currentWatermark>
Dit kan leiden tot correctheidsproblemen in de stateful operators stroomafwaarts in de uitvoeringspijplijn.
Corrigeer de operatorlogica om rijen uit te zenden na de huidige globale watermerkwaarde.
LEGE_JSON_VELDWAARDE
Kan een lege tekenreeks voor het gegevenstype <dataType>
niet parseren.
LEGE_LOKAAL_BESTAND_IN_OPSLAGTOEGANG_VRAGEN
Leeg lokaal bestand in faseringsquery <operation>
LEGE_SCHEMA_NIET_ONDERSTEUND_VOOR_DATABRON
De <format>
gegevensbron ondersteunt niet het schrijven van lege of geneste lege schema's. Zorg ervoor dat het gegevensschema ten minste één of meer kolommen bevat.
ENCODER_NIET_GEVONDEN
Er is geen encoder van het type <typeName>
gevonden voor de interne weergave van Spark SQL.
Overweeg om het invoertype te wijzigen in een van de typen die worden ondersteund volgens '<docroot>
/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
Eindelabel <endLabel>
kan niet bestaan zonder beginlabel.
EIND_OFFSET_HEEFT_HOGERE_OFFSET_VOOR_TOPIC_PARTITIE_DAN_LAATSTE_MET_TRIGGER_BESCHIKBAARNU
Sommige partities in Kafka-onderwerpen rapporteren een beschikbare offset die kleiner is dan de eindoffset tijdens het uitvoeren van een query met Trigger.AvailableNow. De fout kan tijdelijk zijn: start uw query opnieuw op en rapporteert als u hetzelfde probleem nog steeds ziet.
meest recente offset: <latestOffset>
, eindoffset: <endOffset>
EIND_OFFSET_HEEFT_HOGERE_OFFSET_VOOR_TOPIC_PARTITIE_DAN_OPGEHAALD
Voor de Kafka-gegevensbron met Trigger.AvailableNow moet de eindoffset per onderwerppartitie lager of gelijk zijn aan de vooraf opgehaalde offset. De fout kan tijdelijk zijn: start uw query opnieuw op en rapporteert als u hetzelfde probleem nog steeds ziet.
vooraf opgehaalde offset: <prefetchedOffset>
, eindoffset: <endOffset>
.
FOUT_LEZEN_AVRO_ONBEKENDE_VINGERAFDRUK
Fout bij het lezen van avro-gegevens: er is een onbekende vingerafdruk opgetreden: <fingerprint>
, niet zeker welk schema moet worden gebruikt.
Dit kan gebeuren als u extra schema's hebt geregistreerd nadat u de Spark-context hebt gestart.
GEBEURTENIS_LOG_VEREIST_GEDEELDE_BEREKENING
Kan geen query's uitvoeren op gebeurtenislogboeken van een toegewezen of Geen isolatie gedeeld cluster. Gebruik in plaats daarvan een gedeeld cluster of een Databricks SQL-warehouse.
GEBEURTENISLOGBOEK_ONBESCHIKBAAR
Er zijn geen gebeurtenislogboeken beschikbaar voor <tableOrPipeline>
. Probeer het later opnieuw nadat gebeurtenissen zijn gegenereerd
GEBEURTENIS_LOG_NIET_ONDERSTEUND_TABEL_TYPE
Het tabeltype van <tableIdentifier>
is <tableType>
.
Het uitvoeren van query's op gebeurtenislogboeken ondersteunt alleen gerealiseerde weergaven, streamingtabellen of Delta Live Tables-pijplijnen
DE TIJD VAN DE GEBEURTENIS STAAT NIET OP HET TIMESTAMP TYPE
De gebeurtenistijd <eventName>
heeft het ongeldige type <eventType>
, terwijl er werd verwacht dat het “TIMESTAMP
” zou zijn.
Overschrijding van de limietlengte
Overschrijdt de lengtelimiet voor tekens/varchartypen: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT
kolom <columnName>
werd opgelost en werd verwacht een StructType te zijn, maar type <dataType>
werd gevonden.
UITGEZONDERD_OVERLAPPENDE_KOLOMMEN
Kolommen in een EXCEPT
-lijst moeten onderscheiden en niet overlappend zijn, maar resulteren in (<columns>
).
Behalve opgeloste kolommen zonder overeenkomst
EXCEPT
kolommen [<exceptColumns>
] zijn opgelost, maar komen niet overeen met een van de kolommen [<expandedColumns>
] uit de steruitbreiding.
UITZONDERING_ONOPGELOSTE_KOLOM_IN_STRUCTUUR_EXPANSIE
De kolom-/veldnaam <objectName>
in de EXCEPT
-clausule kan niet worden opgelost. Bedoelde u een van de volgende: [<objectList>
]?
Opmerking: tijdens een struct-uitbreiding mogen geneste kolommen in de EXCEPT
-clausule geen kwalificaties bevatten (tabelnaam, bovenliggende structkolomnaam, enzovoort); verwijder kwalificaties als ze worden gebruikt met geneste kolommen.
EXECUTOR_BROADCAST_JOIN_OOM
Er is onvoldoende geheugen om de broadcast-relatie op te bouwen <relationClassName>
. Relationele grootte = <relationSize>
. Totaal geheugen dat door deze taak wordt gebruikt = <taskMemoryUsage>
. Metrische gegevens van executor Memory Manager: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
] Schakel broadcasts voor deze query uit met behulp van 'set spark.sql.autoBroadcastJoinThreshold=-1' of gebruik join-hint om shuffle join af te dwingen.
EXECUTOR_BROADCAST_JOIN_STORE_OOM
Er is onvoldoende geheugen om de broadcast-relatie op te slaan <relationClassName>
. Relationele grootte = <relationSize>
. StorageLevel = <storageLevel>
. [sparkPlanId: <sparkPlanId>
] Schakel broadcasts voor deze query uit met behulp van 'set spark.sql.autoBroadcastJoinThreshold=-1' of gebruik join-hint om shuffle join af te dwingen.
ONMIDDELLIJKE_UITVOERING_DUPLICAAT_ARGUMENT_ALIASEN
De USING
component van deze EXECUTE IMMEDIATE
opdracht bevatte meerdere argumenten met dezelfde alias (<aliases>
), die ongeldig is; Werk de opdracht bij om unieke aliassen op te geven en probeer het vervolgens opnieuw.
VERWACHT_PERMANENTE_WEERGAVE_NIET_TIJDENLIJK
'<operation>
' verwacht een permanente weergave, maar <viewName>
is een tijdelijke weergave.
EXPECT_TABLE_NOT_VIEW
'<operation>
' verwacht een tabel, maar <viewName>
is een weergave.
Zie EXPECT_TABLE_NOT_VIEW voor meer informatie
EXPECT_VIEW_NOT_TABLE
De tabel <tableName>
biedt geen ondersteuning voor <operation>
.
Zie EXPECT_VIEW_NOT_TABLE voor meer informatie
UITDRUKKING_DECODERING_MISLUKT
Kan een rij niet decoderen naar een waarde van de expressies: <expressions>
.
EXPRESSION_CODERING_MISLUKT
Kan een waarde van de uitdrukkingen niet omzetten: <expressions>
in een rij.
UITDRUKKINGSTYPE_IS_NIET_SORTEERBAAR
Kolomexpressie <expr>
kan niet worden gesorteerd omdat het type <exprType>
niet kan worden gesorteerd.
EXTERNE_TABEL_ONGELDIG_SCHEMA
Externe tabellen bieden geen ondersteuning voor het <scheme>
schema.
FABRIC_REFRESH_INVALID_SCOPE
Fout bij het uitvoeren van 'REFRESH FOREIGN <scope> <name>
'. Kan Fabric-<scope>
niet rechtstreeks vernieuwen, gebruik alstublieft 'REFRESH FOREIGN CATALOG <catalogName>
' om de Fabric-catalogus in plaats daarvan te vernieuwen.
UITVOERING_UDF_MISLUKT
Door de gebruiker gedefinieerde functie (<functionName>
: (<signature>
) =><result>
) is mislukt vanwege: <reason>
.
MISLUKTE_FUNCTIE_AANROEP
Het voorbereiden van de functie <funcName>
voor aanroep is mislukt. Controleer de argumenten van de functie.
FAILED_JDBC
JDBC <url>
is mislukt bij de bewerking:
Zie FAILED_JDBC voor meer informatie
FAILED_PARSE_STRUCT_TYPE
Kan de struct niet parseren: <raw>
.
FAILED_READ_FILE
Fout tijdens het lezen van bestand <path>
.
Zie FAILED_READ_FILE voor meer informatie
MISCAMPO REGISTER_KLASSE_MET_KRYO
Het registreren van klassen bij Kryo is mislukt.
MISLUKT_HERNOEMEN_PAD
Kan de naam van <sourcePath>
niet wijzigen in <targetPath>
omdat de bestemming al bestaat.
FOUT BIJ HERNAMEN TIJDELIJK BESTAND
Kan de naam van het tijdelijke bestand <srcPath>
niet wijzigen in <dstPath>
omdat FileSystem.rename false heeft geretourneerd.
RIJ_MISLUKT_NAAR_JSON
Kan de rijwaarde <value>
van de klasse <class>
niet converteren naar het sql-doeltype <sqlType>
in de JSON-indeling.
NIET_GELADEN_ROUTINE
Kan routine-<routineName>
niet laden.
Kan_niet_verwerken_Te_complex
De instructie, inclusief potentiële SQL-functies en weergaven waarnaar wordt verwezen, was te complex om te parseren.
Als u deze fout wilt beperken, verdeelt u de instructie in meerdere, minder complexe segmenten.
FUNCTIE_NIET_INGESCHAKELD
De functie <featureName>
is niet ingeschakeld. U kunt de configuratie-<configKey>
instellen op <configValue>
om deze mogelijkheid in te schakelen.
FUNCTIE_NIET_OP_CLASSIC_WAREHOUSE
<feature>
wordt niet ondersteund in klassieke SQL-warehouses. Als u deze functie wilt gebruiken, gebruikt u een Pro- of Serverless SQL Warehouse.
FEATURE_REQUIRES_UC
<feature>
wordt niet ondersteund zonder Unity Catalog. Als u deze functie wilt gebruiken, schakelt u Unity Catalog in.
FUNCTIE_NIET_BESCHIKBAAR
<feature>
wordt niet ondersteund in uw omgeving. Als u deze functie wilt gebruiken, neemt u contact op met databricks-ondersteuning.
VELD_BESTAAT_AL
Kan kolom <op>
niet maken omdat <fieldNames>
al in <struct>
bestaat.
VELD_NIET_GEVONDEN
Geen zodanig structuurveld <fieldName>
in <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Bestand in tijdelijk pad <path>
bestaat al, maar OVERWRITE
is niet gespecificeerd
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Er is een fout opgetreden in de door de gebruiker opgegeven functie in flatMapGroupsWithState. Reden: <reason>
FORBIDDEN_DATASOURCE_IN_SERVERLESS
Het uitvoeren van query's op de gegevensbron <source>
in serverloze berekeningen is niet toegestaan. Alleen <allowlist>
gegevensbronnen worden ondersteund in serverloze berekeningen.
VERBODEN_OPERATIE
De bewerking <statement>
is niet toegestaan op de <objectType>
: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Er is een fout opgetreden in de door de gebruiker opgegeven functie in foreach batch sink. Reden: <reason>
FOREACH_USER_FUNCTION_ERROR
Er is een fout opgetreden in de door de gebruiker opgegeven functie in foreach sink. Reden: <reason>
BUITENLANDSE_SLEUTEL_VERGISSING
Bovenliggende kolommen met vreemde sleutels <parentColumns>
komen niet overeen met onderliggende kolommen met primaire sleutels <childColumns>
.
FOREIGN_OBJECT_NAAM_MAG_NIET_LEEG_ZIJN
Kan deze opdracht niet uitvoeren omdat de vreemde <objectType>
naam niet leeg mag zijn.
MEERDERE_DATABRONNEN_GEVONDEN
Er zijn meerdere gegevensbronnen gedetecteerd met de naam '<provider>
'. Controleer of de gegevensbron niet tegelijkertijd is geregistreerd en zich in de classpath bevindt.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json deductie heeft conflicterende schema-updates aangetroffen op: <location>
VAN_JSON_CORRUPT_RECORD_KOLOM_IN_SCHEMA
Het from_json heeft columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) gevonden.
in een JSON-object en kan niet meer doorgaan. Stel een andere waarde in voor
de optie 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
from_json inference kan het opgeslagen schema niet lezen bij: <location>
FROM_JSON_INFERENTIE_MISLUKT
from_json kan het schema niet afleiden. Geef er in plaats daarvan een op.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json deductie wordt alleen ondersteund bij het definiëren van streamingtabellen
ONGELDIGE_CONFIGURATIE_VAN_JSON
De from_json-configuratie is ongeldig.
Zie FROM_JSON_INVALID_CONFIGURATION voor meer informatie
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json kan zich niet ontwikkelen van <old>
tot <new>
FUNCTIE_PARAMETERS_MOETEN_WORDEN_NAMED
Voor de functie <function>
benoemde parameters zijn vereist. Ontbrekende namen van parameters: <exprs>
. Werk de functie-aanroep bij om namen toe te voegen voor alle parameters, bijvoorbeeld <function>
(param_name => ...).
gegenereerde_kolom_met_standaardwaarde
Een kolom kan niet zowel een standaardwaarde als een generatieexpressie hebben, maar kolom <colName>
heeft de standaardwaarde: (<defaultValue>
) en generatie-expressie: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 en lagere versies bieden geen ondersteuning voor getTablesByType. Gebruik Hive 2.3 of hoger.
GET_WARMUP_TRACING_FAILED
Kan geen opwarmtracering ophalen. Oorzaak: <cause>
.
OPHALEN_WARMUP_TRACING_FUNCTIE_NIET_TOEGESTAAN
Functie get_warmup_tracing() is niet toegestaan.
GRAPHITE_SINK_ONGELDIG_PROTOCOL
Ongeldig graphite-protocol: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Voor de grafieten wastafel is de parameter '<property>
' vereist.
GROUPING_COLUMN_MISMATCH
De groeperingskolom (<grouping>
) kan niet worden gevonden in de groeperingskolommen <groupingColumns>
.
KOPPELING_ID_KOLOM_MISMATCH
De kolommen die bij grouping_id (<groupingIdColumn>
) horen, komen niet overeen met de groeperingskolommen (<groupByColumns>
).
GROEPERINGSGROOTTE LIMIET OVERSCHREDEN
De grootte van groepeersets mag niet groter zijn dan <maxSize>
.
GROUP_BY_AGGREGATE
Aggregatiefuncties zijn niet toegestaan in GROUP BY
, maar <sqlExpr>
gevonden.
Zie GROUP_BY_AGGREGATE voor meer informatie
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
verwijst naar een expressie <aggExpr>
die een statistische functie bevat. Statistische functies zijn niet toegestaan in GROUP BY
.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY
positie <index>
bevindt zich niet in de keuzelijst (geldig bereik is [1, <size>
]).
GROEP_EXPRESSIE_TYPE_IS_NIET_VOLGORDBAAR
De expressie <sqlExpr>
kan niet worden gebruikt als groeperingsexpressie omdat het gegevenstype <dataType>
geen bestelbaar gegevenstype is.
HDFS_HTTP_ERROR
Wanneer u probeert te lezen vanuit HDFS, is de HTTP-aanvraag mislukt.
Zie HDFS_HTTP_ERROR voor meer informatie
HLL_INVALID_INPUT_SKETCH_BUFFER
Ongeldige aanroep van <function>
; alleen geldige HLL-schetsbuffers worden ondersteund als invoer (zoals de buffers die door de hll_sketch_agg
functie worden geproduceerd).
HLL_INVALID_LG_K
Ongeldige aanroep van <function>
; de lgConfigK
waarde moet liggen tussen <min>
en <max>
, inclusief: <value>
.
HLL_UNION_DIFFERENT_LG_K
Schetsen hebben verschillende lgConfigK
waarden: <left>
en <right>
. Stel de parameter allowDifferentLgConfigK
in op True om <function>
aan te roepen met verschillende lgConfigK
waarden.
HYBRID_ANALYZER_EXCEPTION
Er is een fout opgetreden bij het oplossen van een query of opdracht met zowel de verouderde fixed-point analyzer als de single-pass resolver.
Zie HYBRID_ANALYZER_EXCEPTION voor meer informatie
IDENTIFIER_TOO_MANY_NAME_PARTS (Te veel naamonderdelen)
<identifier>
is geen geldige id omdat deze meer dan 2 naamonderdelen heeft.
IDENTITY_COLUMNS_DUPLICATED_SEQUENCE_GENERATOR_OPTION
Optie voor het genereren van een gedupliceerde kolomreeks IDENTITY
: <sequenceGeneratorOption>
.
IDENTITEITSKOLOMMEN_ILLEGALE_STAP
IDENTITY
kolomstap mag niet 0 zijn.
IDENTITEITSKOLOMMEN_NIET_ONDERSTEUND_GEGEVENSTYPE
DataType <dataType>
wordt niet ondersteund voor IDENTITY
kolommen.
ONGELDIGE_DAG_VAN_DE_WEEK
Illegale invoer voor dag van de week: <string>
.
ILLEGALE_STAATOPSLAAN_WAARDE
Ongeldige waarde verstrekt aan het staatsarchief
Zie ILLEGAL_STATE_STORE_VALUE voor meer informatie
Ongeschikt_URI-schema_van_verbindingsoptie
De verbinding kan niet worden gemaakt vanwege een ongepast schema van de URI-<uri>
die is opgegeven voor de verbindingsoptie<option>
'.
Toegestane schema('s): <allowedSchemes>
.
Voeg een schema toe als het niet aanwezig is in de URI of geef een schema op van de toegestane waarden.
INCOMPARABLE_DRAAITABELKOLOM
Ongeldige draaikolom <columnName>
. Draaikolommen moeten vergelijkbaar zijn.
ONGESCHIKTE_KOLOMTYPE
<operator>
kan alleen worden uitgevoerd op tabellen met compatibele kolomtypen. De <columnOrdinalNumber>
kolom van de <tableOrdinalNumber>
tabel is <dataType1>
type dat niet compatibel is met <dataType2>
in dezelfde kolom van de eerste tabel.<hint>
.
INCOMPATIBLE_DATASOURCE_REGISTER
Er is een incompatibele DataSourceRegister gedetecteerd. Verwijder de incompatibele bibliotheek uit het klassepad of werk deze bij. Fout: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Kan geen incompatibele gegevens schrijven voor de tabel <tableName>
:
Voor meer informatie, zie INCOMPATIBLE_DATA_FOR_TABLE.
Onverenigbare Koppelingssoorten
De jointypen <joinType1>
en <joinType2>
zijn niet compatibel.
ONGESCHIKTE VIEW SCHEMA WIJZIGING
De SQL-query van weergave <viewName>
heeft een incompatibele schemawijziging en kolom <colName>
kan niet worden opgelost. Verwachte <expectedNum>
kolommen met de naam <colName>
, maar hebben <actualCols>
.
Probeer de weergave opnieuw te maken door het volgende uit te voeren: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Onvolledig complex type:
Zie INCOMPLETE_TYPE_DEFINITION voor meer informatie
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Mogelijk krijgt u een ander resultaat vanwege de upgrade naar
Zie INCONSISTENT_BEHAVIOR_CROSS_VERSION voor meer informatie
ONJUIST_AANTAL_ARGUMENTEN
<failure>
vereist <functionName>
ten minste <minArgs>
argumenten en maximaal <maxArgs>
argumenten.
ONJUISTE_OPLOOP_SNELHEID
De maximale verschuiving met <rowsPerSecond>
rowsPerSecond is <maxSeconds>
, maar 'rampUpTimeSeconds' is <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
Kan niet bepalen welke collatie moet worden gebruikt voor tekenreeksbewerking. Gebruik COLLATE
clausule om de sortering expliciet in te stellen.
ONBEPAALDE_SORTERING_IN_UITDRUKKING
Het gegevenstype van <expr>
heeft onbepaalde sortering. Gebruik COLLATE
clausule om de sortering expliciet in te stellen.
ONBEPAALDE_SORTERINGSVOLGORDE_IN_SCHEMA
Schema bevat onbepaalde sortering op: [<columnPaths>
]. Gebruik COLLATE
clausule om de sortering expliciet in te stellen.
INDEX_BESTAAT_AL
Kan de index niet maken <indexName>
in tabel <tableName>
omdat deze al bestaat.
INDEX_NIET_GEVONDEN
Kan de index <indexName>
in tabel <tableName>
niet vinden.
ONEINDIGE_STREAMING_TRIGGER_NIET_ONDERSTEUND
Triggertype <trigger>
wordt niet ondersteund voor dit clustertype.
Gebruik een ander triggertype, bijvoorbeeld AvailableNow, Once.
INSERT_KOLOM_ARITEITSMISMATCH
Kan niet schrijven naar <tableName>
, de reden is
Zie INSERT_COLUMN_ARITY_MISMATCH voor meer informatie
ONGELIJKE_PARTITIEKOLOM_ARITEIT
Kan niet schrijven naar '<tableName>
', <reason>
:
Tabelkolommen: <tableColumns>
.
Kolommen partitioneren met statische waarden: <staticPartCols>
.
Gegevenskolommen: <dataColumns>
.
ONVOLDOENDE_RECHTEN
Onvoldoende bevoegdheden:
<report>
ONVOLDOENDE_RECHTEN_EXT_LOC
Gebruiker <user>
heeft onvoldoende bevoegdheden voor externe locatie <location>
.
ONVOLDOENDE_RECHTEN_GEEN_EIGENAAR
Er is geen eigenaar voor <securableName>
. Vraag de beheerder om een eigenaar in te stellen.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
Gebruiker is niet eigenaar van <securableName>
.
ONGENOEG_RECHTEN_BEVEILIGBAAR
De gebruiker heeft geen toestemming voor <action>
op <securableName>
.
ONVOLDOENDE_RECHTEN_BEVEILIGBARE_BOVENLIGGENDE_EIGENAAR
De eigenaar van <securableName>
verschilt van de eigenaar van <parentSecurableName>
.
Onvoldoende_toestemmingen_opslag_cred
Opslagreferentie <credentialName>
heeft onvoldoende bevoegdheden.
ONVOLDOENDE_RECHTEN_ONDERLIGGENDE_BEVEILIGGREEN
De gebruiker kan geen <action>
op <securableName>
vanwege machtigingen voor onderliggende beveiligbare objecten.
Onvoldoende Machtigingen Onderliggende Beveiligingselementen Gedetailleerd
Gebruiker kan niet <action>
op <securableName>
vanwege machtigingen voor onderliggende beveiligbare items:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
Geheeltallige overloop bij het werken met intervallen.
Zie INTERVAL_ARITHMETIC_OVERFLOW voor meer informatie
INTERVAL_DIVIDED_BY_ZERO
Delen door nul. Gebruik try_divide
om te tolereren dat deler 0 is en NULL
in plaats daarvan retourneert.
INVALID_AGGREGATE_FILTER
De FILTER
expressie <filterExpr>
in een aggregatiefunctie is ongeldig.
Zie INVALID_AGGREGATE_FILTER voor meer informatie
INVALID_ARRAY_INDEX
De index <indexValue>
valt buiten bereik. De matrix bevat <arraySize>
elementen. Gebruik de SQL-functie get()
om het toegangselement op een ongeldige index te tolereren en in plaats daarvan NULL
te retourneren.
Zie INVALID_ARRAY_INDEX voor meer informatie
ONGELDIGE_ARRAY_IDX_IN_ELEMENT_OP
De index <indexValue>
valt buiten bereik. De matrix bevat <arraySize>
elementen. Gebruik try_element_at
om het toegangselement op een ongeldige index te tolereren en in plaats daarvan NULL
te retourneren.
Zie INVALID_ARRAY_INDEX_IN_ELEMENT_AT voor meer informatie
ONGELDIGE_ATTRIBEUTENAAM_SYNTAX
Syntaxisfout in de kenmerknaam: <name>
. Controleer of backticks in paren staan, een tekenreeks tussen aanhalingstekens een volledig naamonderdeel vormt, en gebruik alleen een backtick binnen de aanhalingstekens van een naamonderdeel.
INVALID_AWS_AUTHENTICATION
Kies precies een van de volgende verificatiemethoden:
- Geef de naam op van uw Databricks-servicereferentie (
<serviceCredential>
) (als spark stream-optie of als een clusteromgevingsvariabele). - Geef zowel de AWS AccessKey (
<awsAccessKey>
) als SecretAccessKey (<awsSecretKey>
) op om AWS-sleutels te gebruiken. - Geef noch de AWS-sleutels noch een Databricks-servicereferentie op om de standaardketen van de AWS-referentieprovider te gebruiken voor Kinesis-verificatie.
ONGELDIGE_AWS_AUTHENTICATIE_SUBSTANTIËLE_OPTIES
Geef de naam op van uw Databricks-servicereferentie (<serviceCredential>
)
OF zowel <awsAccessKey>
als <awsSecretKey>
Ongeldige Bitmap-Positie
De 0-geïndexeerde bitmappositie <bitPosition>
is buiten bereik. De bitmap heeft <bitmapNumBits>
bits (<bitmapNumBytes>
bytes).
ONGELDIGE_BOOLEAAN_UITSPRAAK
Booleaanse expressie wordt als voorwaarde verwacht, maar <invalidStatement>
is gevonden.
ONGELDIGE GRENS
De grens <boundary>
is ongeldig: <invalidValue>
.
Zie INVALID_BOUNDARY voor meer informatie
ONGELDIGE_BUCKET_KOLOM_GEGEVENSTYPE
Kan <type>
niet gebruiken voor de bucketkolom. Gesorteerde gegevenstypen worden niet ondersteund voor bucketing.
ONGELDIGE_BUCKET_BESTAND
Ongeldig bucketbestand: <path>
.
INVALID_BYTE_STRING
De verwachte indeling is ByteString, maar is <unsupported> (<class>
).
ONGELDIG_KOLOMNAAM_ALS_PAD
De gegevensbron <datasource>
kan de kolom niet opslaan <columnName>
omdat de naam enkele tekens bevat die niet zijn toegestaan in bestandspaden. Gebruik een alias om de naam ervan te wijzigen.
ONGELDIG_KOLOM_OF_VELD_DATATYPE
Kolom of veld <name>
is van het type <type>
, terwijl het vereist is om van type <expectedType>
te zijn.
ONGELDIGE_CONF_WAARDE
De waarde '<confValue>
' in de configuratie '<confName>
' is ongeldig.
Zie INVALID_CONF_VALUE voor meer informatie
INVALID_CORRUPT_RECORD_TYPE
De kolom <columnName>
voor beschadigde records moet het type nullable STRING
hebben, maar kreeg <actualType>
als type.
ONGELDIGE_HUIDIGE_ONTVANGER_GEBRUIK
current_recipient
functie kan alleen worden gebruikt in de CREATE VIEW
-instructie of de ALTER VIEW
-instructie om een shareweergave alleen te definiëren in Unity Catalog.
INVALID_CURSOR
De cursor is ongeldig.
Zie INVALID_CURSOR voor meer informatie
INVALID_DATETIME_PATTERN
Niet-herkend datum/tijd-patroon: <pattern>
.
Zie INVALID_DATETIME_PATTERN voor meer informatie
ONGELDIGE_STANDAARDWAARDE
Kan <statement>
opdracht niet uitvoeren omdat de doelkolom of variabele <colName>
een DEFAULT
-waarde heeft <defaultValue>
,
Zie INVALID_DEFAULT_VALUE voor meer informatie
INVALID_DELIMITER_VALUE
Ongeldige waarde voor scheidingsteken.
Zie INVALID_DELIMITER_VALUE voor meer informatie
ONGELDIGE_BESTEMMING_CATALOGUS
De doelcatalogus van de opdracht SYNC
moet zich in Unity Catalog bevindt. Gevonden <catalog>
.
INVALID_DRIVER_MEMORY
Systeemgeheugen <systemMemory>
moet ten minste <minSystemMemory>
zijn.
Verhoog de heapgrootte met behulp van de optie -driver-memory of '<config>
' in de Spark-configuratie.
INVALID_DYNAMIC_OPTIONS
Opties doorgegeven <option_list> zijn verboden voor vreemde tabel <table_name>.
ONGELDIGE_LEGE_LOCATIE
De locatienaam mag geen lege tekenreeks zijn, maar <location>
is opgegeven.
ONGELDIGE_ESC
Een ongeldige escapetekenreeks is gevonden: <invalidEscape>
. De escapetekenreeks mag slechts één teken bevatten.
ONGELDIG_ESCAPE_TEKEN
EscapeChar
moet een letterlijke tekenreeks van lengte één zijn, maar kreeg <sqlExpr>
.
Ongeldige uitvoerdergeheugen (INVALID_EXECUTOR_MEMORY)
Uitvoerdergeheugen <executorMemory>
moet ten minste <minSystemMemory>
zijn.
Verhoog het geheugen van de uitvoerder met behulp van de optie -executor-memory of<config>
in de Spark-configuratie.
ONGELDIGE_UITDRUKKING_ENCODER
Er is een ongeldig expressie-coderingsprogramma gevonden. Verwacht een instantie van ExpressionEncoder, maar kreeg <encoderType>
. Raadpleeg '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html' voor meer informatie.
INVALID_EXTERNAL_TYPE
Het externe type <externalType>
is niet geldig voor het type <type>
in de expressie <expr>
.
INVALID_EXTRACT_BASE_FIELD_TYPE
Een waarde kan niet worden geëxtraheerd uit <base>
. Er is een complex type nodig [STRUCT
, ARRAY
, MAP
], maar kreeg <other>
.
ONGELDIGE_EXTRACTIE_VELD
Kan <field>
niet extraheren uit <expr>
.
INVALID_EXTRACT_FIELD_TYPE
Veldnaam moet een letterlijke tekenreeks zonder null zijn, maar deze is <extraction>
.
ONGELDIGE_VELDNAAM
Veldnaam <fieldName>
is ongeldig: <path>
is geen struct.
INVALID_FORMAT
De indeling is ongeldig: <format>
.
Zie INVALID_FORMAT voor meer informatie
ONGELDIGE_SECONDEBREUK
Geldig bereik voor seconden is [0, 60] (inclusief), maar de opgegeven waarde is <secAndMicros>
. Als u deze fout wilt voorkomen, gebruikt u try_make_timestamp
, die NULL
retourneert bij fout.
Als u de standaardtijdstempelversie van de sessie van deze functie niet wilt gebruiken, gebruikt u try_make_timestamp_ntz
of try_make_timestamp_ltz
.
INVALID_HANDLE
De hendel <handle>
is ongeldig.
Zie INVALID_HANDLE voor meer informatie
INVALID_HTTP_REQUEST_METHOD
De invoerparameter: methode, waarde: <paramValue>
is geen geldige parameter voor http_request omdat deze geen geldige HTTP-methode is.
ONGELDIGE_HTTP_AANVRAAG_PAD
De invoerparameter: pad, waarde: <paramValue>
is geen geldige parameter voor http_request omdat padkruising niet is toegestaan.
INVALID_IDENTIFIER
De niet-geciteerde id <ident>
is ongeldig en moet teruggeplaatst tussen aanhalingstekens als: <ident>
.
Niet-gequote identifiers mogen alleen ASCII
letters ('a' - 'z', 'A' - 'Z'), cijfers ('0' - '9') en het onderstrepingsteken ('_') bevatten.
Identifiers zonder aanhalingstekens mogen ook niet met een cijfer beginnen.
Verschillende gegevensbronnen en metaarchieven kunnen aanvullende beperkingen opleggen voor geldige id's.
ONJUISTE_INDEX_VAN_NUL
De index 0 is ongeldig. Een index moet < 0 of > 0 zijn (het eerste element heeft index 1).
ONGELDIGE_INLINE_TABEL
Ongeldige inlinetabel.
Zie INVALID_INLINE_TABLE voor meer informatie
ONJUIST_INTERVALFORMAAT
Fout bij het parseren van '<input>
' tot interval. Zorg ervoor dat de opgegeven waarde een geldige indeling heeft voor het definiëren van een interval. U kunt naar de documentatie verwijzen voor de juiste indeling.
Zie INVALID_INTERVAL_FORMAT voor meer informatie
ONGELDIG_INTERVAL_MET_MICROSECONDEN_TOEVOEGING
Kan geen interval toevoegen aan een datum omdat het microsecondendeel niet 0 is. Stel indien nodig <ansiConfig>
in op 'false' om deze fout te omzeilen.
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Ongeldige inverse distributiefunctie <funcName>
.
Zie INVALID_INVERSE_DISTRIBUTION_FUNCTION voor meer informatie
INVALID_JAVA_IDENTIFIER_AS_FIELD_NAME
<fieldName>
is geen geldige id van Java en kan niet worden gebruikt als veldnaam
<walkedTypePath>
.
ONGELDIGE_JOIN_TYPE_VOOR_JOINWITH
Ongeldig jointype in joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Kan de JSON-tekenreeks '<invalidType>
' niet converteren naar een gegevenstype. Voer een geldig gegevenstype in.
ONGELDIG_JSON_DATA_TYPE_VOOR_COLLATIES
Sorteringen kunnen alleen worden toegepast op tekenreekstypen, maar het JSON-gegevenstype is <jsonType>
.
ONGELDIGE_JSON_RECORD_TYPE
Er is een ongeldig type JSON-record gedetecteerd tijdens het afleiden van een gemeenschappelijk schema in modus <failFastMode>
. Er werd een type STRUCT
verwacht, maar er werd <invalidType>
gevonden.
INVALID_JSON_ROOT_FIELD
Kan het JSON-hoofdveld niet converteren naar het Spark-doeltype.
INVALID_JSON_SCHEMA_MAP_TYPE
Invoerschema <jsonSchema>
kan alleen STRING
bevatten als sleuteltype voor een MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
De waarde van de configuratie<bufferSizeConfKey>
moet kleiner zijn dan 2048 MiB, maar heeft <bufferSizeConfValue>
MiB gekregen.
ONGELDIGE_LABELGEBRUIK
Het gebruik van het label <labelName>
is ongeldig.
Zie INVALID_LABEL_USAGE voor meer informatie
ONGELDIGE_LAMBDA_FUNCTIE_AANROEP
Ongeldige lambda-functie-aanroep.
Voor meer informatie, zie INVALID_LAMBDA_FUNCTION_CALL.
INVALID_LATERAL_JOIN_TYPE
De <joinType>
JOIN met LATERAL
correlatie is niet toegestaan omdat een OUTER
subquery niet kan correleren met de joinpartner. Verwijder de LATERAL
correlatie of gebruik in plaats daarvan een INNER
JOINof links OUTER
JOIN.
INVALID_LIMIT_LIKE_EXPRESSION
De limiet zoals expressie <expr>
is ongeldig.
Voor meer details zie INVALID_LIMIT_LIKE_EXPRESSION.
ONGELDIGE_NIET_ABSOLUTE_PAD
Het opgegeven niet-absolute pad <path>
kan niet worden gekwalificeerd. Werk het pad bij zodat het een geldige dbfs-koppellocatie is.
ONGELDIGE NIET-DETERMINISTISCHE UITDRUKKINGEN
De operator verwacht een deterministische expressie, maar de werkelijke expressie is <sqlExprs>
.
ONGELDIGE_NUMERIEKE_LITERAL_BEREIK
Numerieke waarde <rawStrippedQualifier>
valt buiten het geldige bereik voor <typeName>
met een minimumwaarde van <minValue>
en een maximumwaarde van <maxValue>
. Pas de waarde dienovereenkomstig aan.
INVALID_OBSERVED_METRICS
Ongeldige waargenomen metrische gegevens.
Zie INVALID_OBSERVED_METRICS voor meer details.
INVALID_OPTIONS
Ongeldige opties:
Zie INVALID_OPTIONS voor meer informatie
INVALID_PANDAS_UDF_PLACEMENT
De pandas UDF-<functionList>
van de groep kan niet samen met andere, niet-pandas-statistische functies worden aangeroepen.
ONGELDIGE_PARAMETER_MARKER_WAARDE
Er is een ongeldige parametertoewijzing opgegeven:
Zie INVALID_PARAMETER_MARKER_VALUE voor meer informatie
INVALID_PARAMETER_VALUE
De waarde van parameter(s) <parameter>
in <functionName>
is ongeldig:
Zie INVALID_PARAMETER_VALUE voor meer informatie
INVALID_PARTITION_COLUMN_DATA_TYPE
Kan <type>
niet gebruiken voor de partitiekolom.
INVALID_PARTITION_OPERATION
De partitieopdracht is ongeldig.
Zie INVALID_PARTITION_OPERATION voor meer informatie
INVALID_PARTITION_VALUE
Kan de waarde <value>
niet casten naar gegevenstype <dataType>
voor partitiekolom <columnName>
. Zorg ervoor dat de waarde overeenkomt met het verwachte gegevenstype voor deze partitiekolom.
INVALID_PIPELINE_ID
Pijplijn-id <pipelineId>
is ongeldig.
Een pipeline-id moet een UUID zijn in de vorm 'xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
INVALID_PRIVILEGE
Privilege <privilege>
is niet geldig voor <securable>
.
INVALID_PROPERTY_KEY
Is <key>
een ongeldige eigenschapssleutel, gebruik alstublieft aanhalingstekens, bijvoorbeeld SET <key>=<value>
.
ONGELDIGE_EIGENSCHAP_WAARDE
Is <value>
een ongeldige eigenschapswaarde? Gebruik dan aanhalingstekens, bijvoorbeeld SET <key>=<value>
.
ONGELDIGE_GEKWALIFICEERDE_KOLOM_NAAM
De kolomnaam <columnName>
is ongeldig omdat deze niet is gekwalificeerd met een tabelnaam of uit meer dan 4 naamonderdelen bestaat.
ONGELDIGE_VRAAG_GEMENGDE_VRAAGPARAMETERS
Een geparameteriseerde query moet positionele of benoemde parameters gebruiken, maar niet beide.
INVALID_REGEXP_REPLACE
Kan geen regexp_replace uitvoeren voor bron = "<source>
", pattern = "<pattern>
", vervanging = "<replacement>
" en positie = <position>
.
Ongeldige opmaak van reset-opdracht
De verwachte indeling is 'RESET
' of 'RESET
sleutel'. Als u speciale tekens in de sleutel wilt opnemen, gebruikt u aanhalingstekens, bijvoorbeeld RESET key
.
ONGELDIGE_S3_KOPIE_CREDENTIALS
COPY INTO
referenties moeten AWS_ACCESS_KEY
, AWS_SECRET_KEY
en AWS_SESSION_TOKEN
bevatten.
Ongeldige opslagmodus
De opgegeven opslagmodus <mode>
is ongeldig. Geldige opslagmodi zijn 'append', 'overwrite', 'ignore', 'error', 'errorifexists' en 'default'.
INVALID_SCHEMA
Het invoerschema <inputSchema>
is geen geldige schematekenreeks.
Zie INVALID_SCHEMA voor meer informatie
ONGELDIG_SCHEMA_OF_RELATIENAAM
<name>
is geen geldige naam voor tabellen/schema's. Geldige namen bevatten alleen alfabetische tekens, cijfers en _.
INVALID_SCHEME
Unity-catalogus biedt geen ondersteuning voor <name>
als het standaardbestandsschema.
INVALID_SECRET_LOOKUP
Ongeldige geheime zoekactie:
Zie INVALID_SECRET_LOOKUP voor meer informatie
Ongeldige set syntaxis (INVALID_SET_SYNTAX)
De verwachte notatie is 'SET
', 'SET
sleutel' of 'SET
key=value'. Als u speciale tekens in de sleutel wilt opnemen of puntkomma's in waarde wilt opnemen, gebruikt u backquotes, bijvoorbeeld SET key
=value
.
INVALID_SHARED_ALIAS_NAME (ONGELDIGE_GEDEELDE_ALIAS_NAAM)
De naam van de <sharedObjectType>
alias moet in de vorm van "schema.name" zijn.
Ongeldige_Eenkel_Variant_Kolom
De optie singleVariantColumn
kan niet worden gebruikt als er ook een door de gebruiker opgegeven schema is.
ONGELDIGE_BRON_CATALOGUS
De broncatalogus mag niet binnen Unity Catalog zijn voor de opdracht SYNC
. Gevonden <catalog>
.
ONGELDIGE_SQL_ARGUMENT
Het argument <name>
van sql()
is ongeldig. Overweeg deze te vervangen door een letterlijke SQL-functie of door verzamelingsconstructorfuncties zoals map()
, array()
, struct()
.
Ongeldige SQL-syntaxis
Ongeldige SQL-syntaxis:
Zie INVALID_SQL_SYNTAX voor meer informatie
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Ongeldig pad voor faseringsquery in staging <operation>
: <path>
Ongeldige instructie voor uitvoeren-naar
De INTO
component van EXECUTE IMMEDIATE
is alleen geldig voor query's, maar de opgegeven instructie is geen query: <sqlString>
.
ONGELDIGE VERKLARING OF CLAUSULE
De verklaring of clausule: <operation>
is niet geldig.
INVALID_SUBQUERY_EXPRESSION
Ongeldige subquery:
Zie INVALID_SUBQUERY_EXPRESSION voor meer informatie
Ongeldige doelwit voor wijzigingsopdracht
ALTER <commandTableType>
...
<command>
biedt geen ondersteuning voor <tableName>
. Gebruik ALTER <targetTableType>
...
<command>
in plaats daarvan.
INVALID_TARGET_FOR_SET_TBLPROPERTIES_COMMAND
ALTER <commandTableType>
...
SET TBLPROPERTIES
biedt geen ondersteuning voor <tableName>
. Gebruik ALTER <targetTableType>
...
SET TBLPROPERTIES
in plaats daarvan.
INVALID_TEMP_OBJ_REFERENCE
Kan het permanente object niet maken <objName>
van het type <obj>
omdat het verwijst naar het tijdelijke object <tempObjName>
van het type <tempObj>
. Maak het tijdelijke object <tempObjName>
permanent of maak het permanente object <objName>
tijdelijk.
ONGELDIG_TIJDSTEMPELFORMAAT
De opgegeven tijdstempel <timestamp>
komt niet overeen met de verwachte syntaxis <format>
.
ONJUISTE_TIJDZONE
De tijdzone: <timeZone>
is ongeldig. De tijdzone moet een zone-id op basis van een regio of een zoneverschil zijn. Regio-id's moeten de vorm 'gebied/stad' hebben, zoals 'Amerika/Los_Angeles'. Zone-offsets moeten de notatie '(+|-)HH', '(+|-)HH:mm' of '(+|-)HH:mm:ss' hebben, bijvoorbeeld '-08', '+01:00' of '-13:33:33', en moeten zich in het bereik van -18:00 tot +18:00 bevinden. Z en UTC worden geaccepteerd als synoniemen voor +00:00.
ONGELDIGE_TIJDREIS_SPECIFICATIE
Kan niet zowel versie als tijdstempel opgeven bij het tijdreizen van de tabel.
ONGELDIGE_TIJDREIS_TIJDSTEMPEL_UITING
De tijdreistijdstempeluitdrukking <expr>
is ongeldig.
Zie INVALID_TIME_TRAVEL_TIMESTAMP_EXPR voor meer informatie
Ongeldige getypte literal
De waarde van het getypte letterlijke <valueType>
is ongeldig: <value>
.
ONGELDIGE_UDF_IMPLEMENTATIE
Functie <funcName>
implementeert geen ScalarFunction of AggregateFunction.
ONGELDIGE_UPGRADE_SYNTAX
<command> <supportedOrNot>
de brontabel zich in Hive Metastore bevindt en de doeltabel zich in Unity Catalog bevindt.
INVALID_URL
De URL is ongeldig: <url>
. Gebruik try_parse_url
om ongeldige URL te tolereren en in plaats daarvan NULL
te retourneren.
ONJUIST GEBRUIK VAN STER OF REGEX
Ongeldig gebruik van <elem>
in <prettyName>
.
INVALID_UTF8_STRING
Ongeldige UTF-8-bytereeks gevonden in string: <str>
.
INVALID_UUID (ongeldige UUID)
Invoer <uuidInput>
is geen geldige UUID.
De UUID moet de notatie xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx hebben.
Controleer de indeling van de UUID.
INVALID_VARIABLE_DECLARATION
Ongeldige variabeledeclaratie.
Zie INVALID_VARIABLE_DECLARATION voor meer informatie
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Het variabeletype moet een tekenreekstype zijn, maar kreeg <varType>
.
Ongeldige variantenconversie (INVALID_VARIANT_CAST)
De variantwaarde <value>
kan niet worden omgezet in <dataType>
. Gebruik in plaats daarvan try_variant_get
.
ONJUIST_VARIANT_VAN_PARQUET
Ongeldige variant.
Zie INVALID_VARIANT_FROM_PARQUET voor meer informatie
ONGELDIGE_VARIANT_GET_PAD
Het pad <path>
is geen geldig pad voor variantextractie in <functionName>
.
Een geldig pad moet beginnen met $
en wordt gevolgd door nul of meer segmenten zoals [123]
, .name
, ['name']
of ["name"]
.
INVALID_VARIANT_SHREDDING_SCHEMA
Het schema <schema>
is geen geldig schema voor het opsnipperen van varianten.
INVALID_WHERE_CONDITION
De WHERE
voorwaarde <condition>
bevat ongeldige expressies: <expressionList>
.
Herschrijf de query om vensterfuncties, statistische functies en generatorfuncties in de WHERE
-component te voorkomen.
ONGELDIGE_VENSTER_SPECIFICATIE_VOOR_AGGREGATIE_FUNCTIE
Kan geen ORDER BY
of een vensterkader opgeven voor <aggFunc>
.
ONGELDIGE_SCHRIJVER_COMMIT_BERICHT
De gegevensbronschrijver heeft een ongeldig aantal doorvoerberichten gegenereerd. Verwacht precies één commit-bericht van elke taak, maar er is <detail>
ontvangen.
INVALID_WRITE_DISTRIBUTION
De aangevraagde schrijfbewerkingsverdeling is ongeldig.
Zie INVALID_WRITE_DISTRIBUTION voor meer informatie
Geïsoleerde opdrachtfout
Kan <command>
niet uitvoeren. Opdrachtuitvoer:
<output>
GEÏSOLEERDE_OPDRACHT_ONBEKENDE_FOUT
Kan <command>
niet uitvoeren.
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
De joinvoorwaarde <joinCondition>
heeft een ongeldig type <conditionType>
, verwacht "BOOLEAN
".
KAFKA_DATA_LOSS
Sommige gegevens zijn mogelijk verloren gegaan omdat ze niet meer beschikbaar zijn in Kafka;
de gegevens zijn verouderd door Kafka of het onderwerp is mogelijk verwijderd voordat alle gegevens in de
onderwerp is verwerkt.
Als u niet wilt dat uw streamingquery mislukt in dergelijke gevallen, stelt u de bronoptie failOnDataLoss in op false.
Reden:
Zie KAFKA_DATA_LOSS voor meer informatie
KINESIS_KON_SCHARD_LEESEN_TOT_EINDE_OFFSET_PUNT
Kon niet lezen tot het gewenste volgnummer <endSeqNum>
voor shard <shardId>
in
kinesis stream <stream>
met de consumentenmodus <consumerMode>
. De query zal mislukken vanwege
mogelijk gegevensverlies. De laatste gelezen record bevond zich op volgordenummer <lastSeqNum>
.
Dit kan gebeuren als de gegevens met endSeqNum al verouderd zijn of als de Kinesis-stroom was
verwijderd en gereconstrueerd onder dezelfde naam. Het foutgedrag kan worden overschreven
door in de spark-configuratie spark.databricks.kinesis.failOnDataLoss op false in te stellen.
KINESIS_EFO_CONSUMER_NOT_FOUND
Voor kinesisstream <streamId>
is de eerder geregistreerde EFO-consument <consumerId>
van de stream verwijderd.
Start de query opnieuw zodat een nieuwe consument wordt geregistreerd.
KINESIS_EFO_SUBSCRIBE_LIMIT_EXCEEDED
Voor shard <shard>
was de vorige aanroep van de SubscribeToShard-API binnen de vijf seconden na de volgende aanroep.
Start de query na 5 seconden of langer opnieuw op.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
De minimaal opgehaalde shard-ID van Kinesis (<fetchedShardId>
)
is kleiner dan de minimaal bijgehouden shardId (<trackedShardId>
).
Dit is onverwacht en treedt op wanneer een Kinesis-stream wordt verwijderd en opnieuw wordt gemaakt met dezelfde naam,
en een streamingquery die deze Kinesis-stream gebruikt, wordt opnieuw gestart met behulp van een bestaande controlepuntlocatie.
Start de streamingquery opnieuw op met een nieuwe controlepuntlocatie of maak een stream met een nieuwe naam.
KINESIS_POLLING_MODE_UNSUPPORTED
De Kinesis-pollingmodus wordt niet ondersteund.
KINESIS_RECORD_VOLGORDE_NUMMER_VOLGORDESCHENDING
Voor shard-<shard>
heeft de laatste record die uit Kinesis in eerdere fetches is gelezen, het volgnummer <lastSeqNum>
,
die groter is dan het record dat is gelezen in de huidige fetch met het volgnummer <recordSeqNum>
.
Dit is onverwacht en kan optreden wanneer de beginpositie van opnieuw proberen of volgende ophalen onjuist is geïnitialiseerd en kan leiden tot dubbele records downstream.
KINESIS_SOURCE_MOET_IN_EFO_MODUS_ZIJN_OM_CONSUMERS_TE_CONFIGUREREN
Als u wilt lezen uit Kinesis Streams met consumentenconfiguraties (consumerName
, consumerNamePrefix
of registeredConsumerId
), moet consumerMode
zijn efo
.
KINESIS_SOURCE_MUST_SPECIFY_REGISTERED_CONSUMER_ID_AND_TYPE
Als u wilt lezen uit Kinesis Streams met geregistreerde consumenten, moet u zowel de registeredConsumerId
als registeredConsumerIdType
-opties opgeven.
KINESIS_SOURCE_MOET_STROOMNAMEN_OF_ARNS_OPGEVEN
Als u wilt lezen uit Kinesis Streams, moet u een van de opties (maar niet beide) van de streamName
of streamARN
configureren als een door komma's gescheiden lijst met stroomnamen/ARN's.
KINESIS_BRON_GEEN_CONSUMER_OPTIES_MET_GEREGISTREERDE_CONSUMEREN
Als u wilt lezen vanuit Kinesis Streams met geregistreerde consumenten, moet u consumerName
of consumerNamePrefix
opties niet configureren, omdat ze niet van kracht worden.
KINESIS_SOURCE_REGISTERED_CONSUMER_ID_COUNT_MISMATCH
Het aantal geregistreerde consumenten-ID's moet gelijk zijn aan het aantal Kinesis-streams, maar er zijn <numConsumerIds>
consumenten-ID's en <numStreams>
streams.
GEREGISTREERDE_KINESIS_BRON_CONSUMER_NIET_GEVONDEN
De geregistreerde consument <consumerId>
opgegeven, kan niet worden gevonden voor streamARN-<streamARN>
. Controleer of u de consument hebt geregistreerd of geef de optie registeredConsumerId
niet op.
KINESIS_SOURCE_REGISTERED_CONSUMER_TYPE_INVALID
Het geregistreerde consumententype <consumerType>
is ongeldig. Het moet name
of ARN
zijn.
KRYO_BUFFER_OVERFLOW
Kryo serialisatie is mislukt: <exceptionMsg>
. U kunt dit voorkomen door de waarde "<bufferSizeConfKey>
" te verhogen.
LABELS_NIET_OVERÉÉN_EENSTEMMIG
Beginlabel <beginLabel>
komt niet overeen met het eindlabel <endLabel>
.
Het label bestaat al
Het label <label>
bestaat al. Kies een andere naam of wijzig de naam van het bestaande label.
PAD_LADEN_DATAPAD_BESTAAT_NIET
LOAD DATA invoerpad bestaat niet: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL
moet samen met het schema van file
worden gebruikt, maar kreeg: <actualSchema>
.
LOCATIE_BESTAAT_AL
Kan de beheerde tabel niet de naam <identifier>
geven, omdat de bijbehorende locatie <location>
al bestaat. Kies een andere tabelnaam of verwijder eerst de bestaande locatie.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Sommige partities in Kafka-onderwerp(en) zijn verloren gegaan tijdens het uitvoeren van query's met Trigger.AvailableNow. De fout kan tijdelijk zijn: start uw query opnieuw op en rapporteert als u hetzelfde probleem nog steeds ziet.
topic-partities voor laatste offset: <tpsForLatestOffset>
, topic-partities voor eind-offset: <tpsForEndOffset>
ONGELDIGE_AVRO_BERICHT
Misvormde Avro-berichten worden gedetecteerd tijdens het deserialiseren van berichten. Parseringsmodus: <mode>
. Als je onjuist opgemaakt Avro-bericht wilt verwerken als null-resultaat, kun je de optie 'modus' instellen als 'PERMISSIVE
'.
ONJUISTE TEKENCODERING
Ongeldige waarde gevonden bij het uitvoeren van <function>
met <charset>
MALFORMED_CSV_RECORD (onjuist geformatteerd CSV-record)
Ongeldige CSV-record: <badRecord>
ONJUIST_RECORD_BIJ_HET_PARSEN
Misvormde records worden gedetecteerd bij het parseren van records: <badRecord>
.
Parseringsmodus: <failFastMode>
. Als u onjuiste records wilt verwerken als null-resultaat, kunt u de optie 'modus' instellen als 'PERMISSIVE
'.
Zie MALFORMED_RECORD_IN_PARSING voor meer informatie
ONGELDIGE_VARIANT
Variant binair is ongeldig. Controleer of de gegevensbron geldig is.
Beheerde tabel met inloggegevens
Het maken van een beheerde tabel met een opslagreferentie wordt niet ondersteund.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Kan de gerealiseerde weergave niet <refreshType>
omdat deze dateert van vóór de aanwezigheid van een pipelineId. Als u <refreshType>
wilt inschakelen, verwijdert u de gematerialiseerde weergave en maakt u deze opnieuw.
MATERIALIZED_VIEW_OPERATIE_NIET_TOEGESTAAN
De bewerking van gematerialiseerde weergave <operation>
is niet toegestaan.
Zie MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED voor meer informatie
GEMATERIALISEERDE_WEERGAVE_UITVOER_ZONDER_EXPLICIETE_ALIAS
Uitvoerexpressie <expression>
in een gerealiseerde weergave moet expliciet een alias hebben.
GEDEPONEERD_UITZICHT_OVER_STREAMING_VRAAG_ONGELDIG
gematerialiseerde weergave <name>
kon niet worden gemaakt met streaming query. Gebruik CREATE
[OF REFRESH
] <st>
of verwijder het STREAM
trefwoord uit uw FROM
clausule om deze relatie om te zetten in een batchquery in plaats daarvan.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Bewerking <operation>
wordt momenteel niet ondersteund op gematerialiseerde weergaven.
MAX_AANTAL_VARIABELEN_IN_SESSIE_OVERSCHREDEN
Kan de nieuwe variabele niet maken <variableName>
omdat het aantal variabelen in de sessie het maximaal toegestane aantal (<maxNumVariables>
) overschrijdt.
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch moet een positief geheel getal zijn dat kleiner is dan of gelijk is aan <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
De ON
-zoekvoorwaarde van de MERGE
-verklaring matchte één rij uit de doeltabel met meerdere rijen van de brontabel.
Dit kan ertoe leiden dat er meer dan eens een update- of verwijderbewerking op de doelrij wordt uitgevoerd, wat niet is toegestaan.
SAMENVOEGEN_ZONDER_WANNEER
Er moet ten minste één WHEN
clausule in een MERGE
-instructie staan.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT
is niet ingeschakeld.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Opgegeven waarde "<argValue>
" wordt niet ondersteund door argument "<argName>
" voor de METRIC_STORE
tabelfunctie.
Zie METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR voor meer informatie
METRIC_STORE_UNSUPPORTED_ERROR
Routine-<routineName>
voor Metric Store is momenteel uitgeschakeld in deze omgeving.
METRIC_VIEW_CACHE_TABLE_NOT_SUPPORTED
De metrische weergave mag geen cachetabellen gebruiken.
Functie voor weergave van metrieken uitgeschakeld
De functie voor de metrische weergave is uitgeschakeld. Zorg ervoor dat 'spark.databricks.sql.metricView.enabled' is ingesteld op true.
Ongeldige invoer voor de meetfunctie in Meter-weergave
De functie MEASURE
() gebruikt alleen een kenmerk als invoer, maar heeft <expr>
METRIC_VIEW_IN_CTE_NOT_SUPPORTED
De metrische weergave is niet toegestaan in CTE-definities. plan: <plan>
METRIC-VIEW-KOPPELING NIET ONDERSTEUND
De metrische weergave mag geen joins gebruiken. plan: <plan>
METRIC_VIEW_MISSING_MEASURE_FUNCTION
Voor het gebruik van de metingkolom <column>
van een metrische weergave is een functie MEASURE
() vereist om resultaten te produceren.
Weergave van metrische gegevens niet ondersteund gebruik.
Het gebruik van de metrische weergave wordt niet ondersteund. plan: <plan>
METRIC_WEERGAVE_VENSTERFUNCTIE_NIET_ONDERSTEUND
De metrische weergave mag geen vensterfunctie gebruiken <expr>
.
MIGRATIE_NIET_ONDERSTEUND
<table>
wordt niet ondersteund voor het migreren naar een beheerde tabel omdat deze geen <tableKind>
tabel is.
ONGELIJKE_THEMA_PARTITIES_TUSSEN_EINDOFFSET_EN_VOORAF_OPGEHAALD
Kafka-gegevensbron in Trigger.AvailableNow moet dezelfde onderwerppartities opgeven in vooraf opgehaalde offset naar eind-offset voor elke microbatch. De fout kan tijdelijk zijn: start uw query opnieuw op en rapporteert als u hetzelfde probleem nog steeds ziet.
Onderwerp-onderdelen voor vooraf opgehaalde offset: <tpsForPrefetched>
, onderwerp-onderdelen voor eindoffset: <tpsForEndOffset>
.
MISSING_AGGREGATION
De niet-aggregerende expressie <expression>
is gebaseerd op kolommen die niet deelnemen aan de GROUP BY
-clausule.
Voeg de kolommen of de expressie toe aan het GROUP BY
, voeg de expressie samen of gebruik <expressionAnyValue>
als u niet wilt bepalen welke waarden in een groep worden geretourneerd.
Zie MISSING_AGGREGATION voor meer informatie
Ontbrekende clausules voor operatie
Ontbrekende clausule <clauses>
voor bewerking <operation>
. Voeg de vereiste clausules toe.
VERBINDINGSOPTIE_ONTBREEKT
Verbindingen van het type '<connectionType>
' moeten de volgende opties bevatten: <requiredOptions>
.
DATABASE_ONTBREEKT_VOOR_V1_SESSIECATALOGUS
Databasenaam is niet opgegeven in de v1-sessiecatalogus. Zorg ervoor dat u een geldige databasenaam opgeeft bij interactie met de v1-catalogus.
MISSING_GROUP_BY
De query bevat geen GROUP BY
component. Voeg GROUP BY
toe of zet het om in vensterfuncties met behulp van OVER-clausules.
MISSING_NAME_FOR_CHECK_CONSTRAINT
CHECK
beperking moet een naam hebben.
MISSING_PARAMETER_FOR_KAFKA
Parameter <parameterName>
is vereist voor Kafka, maar is niet opgegeven in <functionName>
.
ONTBREEKTE_PARAMETER_VOOR_ROUTINE
Parameter <parameterName>
is vereist, maar is niet opgegeven in <functionName>
.
ONTBREEKENDE_ROOSTERDEFINITIE
Er moet een planningsdefinitie worden opgegeven na SCHEDULE
.
ONTOBREKENDE_TIMEOUT_CONFIGURATIE
Er is een time-out opgetreden voor de bewerking, maar er is geen time-outduur ingesteld. Als u een time-out op basis van verwerkingstijd wilt instellen, gebruikt u GroupState.setTimeoutDuration()' in de bewerking mapGroupsWithState of flatMapGroupsWithState. Voor time-out op basis van gebeurtenissen gebruikt u GroupState.setTimeoutTimestamp()' en definieert u een watermerk met behulp van Dataset.withWatermark().
ONTBREEKENDE_VENSTER_SPECIFICATIE
Vensterspecificatie is niet gedefinieerd in de WINDOW
component voor <windowName>
. Raadpleeg 'WINDOW
/sql-ref-syntax-qry-select-window.html' voor meer informatie over <docroot>
clausules.
WIJZIG_INGEBOUWDE_CATALOGUS
Het wijzigen van de ingebouwde catalogus <catalogName>
wordt niet ondersteund.
MEERVOUDIG_LAADPAD
Databricks Delta biedt geen ondersteuning voor meerdere invoerpaden in de load() API.
paden: <pathList>
. Eén DataFrame bouwen door te laden
Er zijn meerdere paden van dezelfde Delta-tabel, laad het hoofdpad.
de Delta-tabel met de bijbehorende partitiefilters. Als de meerdere paden
zijn afkomstig uit verschillende Delta-tabellen, gebruik de union()/unionByName()-API's van Dataset.
om de DataFrames te combineren die worden gegenereerd door afzonderlijke load() API-aanroepen.
MEERVOUDIGE_OVEREENKOMSTIGE_BEPERKINGEN
Er zijn ten minste twee overeenkomende beperkingen gevonden met de opgegeven voorwaarde.
MULTIPLE_QUERY_RESULT_CLAUSES_WITH_PIPE_OPERATORS
<clause1>
en <clause2>
kunnen niet naast elkaar bestaan in dezelfde SQL-pijpoperator met behulp van |>'. Scheid de resultaatsclausules in afzonderlijke pijpoperators en probeer de query opnieuw.
MEERVOUDIGE_TIJDREIS_SPEC
Kan tijdreizen niet specificeren in zowel de clausule voor tijdreizen als de opties.
MULTIPLE_XML_DATA_SOURCE
Er zijn meerdere gegevensbronnen gedetecteerd met de naam <provider> (<sourceNames>
). Geef de volledig gekwalificeerde klassenaam op of verwijder <externalSource>
uit het klaspad.
MEERVOUDIGE_ALIAS_ZONDER_GENERATOR
Aliasing met meerdere onderdelen (<names>
) wordt niet ondersteund met <expr>
omdat het geen generatorfunctie is.
MEERDERE_BRONNEN_NIET_ONDERSTEUND_VOOR_UITDRUKKING
De expressie <expr>
ondersteunt niet meer dan één bron.
MULTI_UDF_INTERFACE_ERROR
Het is niet toegestaan om meerdere UDF-interfaces, UDF-klasse <className>
te implementeren.
MUTUALLY_EXCLUSIVE_CLAUSES
Wederzijds exclusieve componenten of opties <clauses>
. Verwijder een van deze clausules.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
De invoerquery verwacht een <expectedType>
, maar de onderliggende tabel is een <givenType>
.
GEDEFINIEERDE_PARAMETERS_NIET_ONDERSTEUND
Benoemde parameters worden niet ondersteund voor functie-<functionName>
; Voer in plaats daarvan de query opnieuw uit met positionele argumenten voor de functieaanroep.
Genoemde parameters worden niet ondersteund voor SQL UDFS.
Kan de functie <functionName>
niet aanroepen omdat benoemde argumentverwijzingen niet worden ondersteund. In dit geval is de verwijzing naar het benoemde argument <argument>
.
ONDERSTEUNING_GENOEMDE_PARAMETER_UITSCHAKELD
Kan de functie niet aanroepen <functionName>
omdat verwijzingen naar benoemde argumenten hier niet zijn ingeschakeld.
In dit geval is de verwijzing naar het benoemde argument <argument>
.
Stel 'spark.sql.allowNamedFunctionArguments' in op 'true' om de functie in te schakelen.
Naamruimte bestaat al
Kan geen naamruimte maken <nameSpaceName>
omdat deze al bestaat.
Kies een andere naam, zet de bestaande naamruimte neer of voeg de IF NOT EXISTS
component toe om bestaande naamruimte te tolereren.
NAMESPACE_NOT_EMPTY
Kan een naamruimte niet verwijderen <nameSpaceNameName>
omdat deze objecten bevat.
Gebruik DROP NAMESPACE
...
CASCADE
om de naamruimte en alle bijbehorende objecten te verwijderen.
Naamruimte niet gevonden (NAMESPACE_NOT_FOUND)
Kan de naamruimte <nameSpaceName>
niet vinden. Controleer de spelling en juistheid van de naamruimte.
Als u de naam niet hebt gespecificeerd, controleer dan de uitvoer van current_schema() of specificeer de naam correct.
Gebruik DROP NAMESPACE IF EXISTS
om de fout bij het neerzetten te tolereren.
NATIVE_IO_ERROR
Intern verzoek is mislukt. requestId: <requestId>
, cloud: <cloud>
, bewerking: <operation>
aanvraag: [https: <https>
, method = <method>
, path = <path>
, params = <params>
, host = <host>
, headers = <headers>
, bodyLen = <bodyLen>
],
fout: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Systeemeigen XML-gegevensbron is niet ingeschakeld in dit cluster.
NEGATIEVE_WAARDEN_IN_FREQUENTIE_EXPRESSIE
De negatieve waarde in <frequencyExpression>
gevonden: <negativeValue>
, maar verwachtte een positieve integrale waarde.
NESTED_AGGREGATE_FUNCTION
Het is niet toegestaan om een statistische functie te gebruiken in het argument van een andere statistische functie. Gebruik de interne aggregatiefunctie in een subquery.
NESTED_EXECUTE_IMMEDIATE
Geneste EXECUTE IMMEDIATE
opdrachten zijn niet toegestaan. Zorg ervoor dat de opgegeven SQL-query (<sqlString>
) geen andere EXECUTE IMMEDIATE
opdracht bevat.
NONEXISTENT_FIELD_NAME_IN_LIST
Velden <nonExistFields>
bestaan niet. Beschikbare velden: <fieldNames>
NON_FOLDABLE_ARGUMENT
De functie <funcName>
vereist dat de parameter <paramName>
een vouwbare expressie van het type <paramType>
is, maar het werkelijke argument is een niet-vouwbaar argument.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wanneer er meer dan één MATCHED
componenten in een MERGE
-instructie staan, kan alleen de laatste MATCHED
component de voorwaarde weglaten.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Wanneer er meer dan één NOT MATCHED BY SOURCE
componenten in een MERGE
-instructie staan, kan alleen de laatste NOT MATCHED BY SOURCE
component de voorwaarde weglaten.
NIET_LAATSTE_NIET_OVEREENKOMEND_MET_DOELCLAUSULE_WEGLAAT_CONDITIE
Wanneer er meer dan één NOT MATCHED [BY TARGET
] componenten in een MERGE
-instructie staan, kan alleen de laatste NOT MATCHED [BY TARGET
] component de voorwaarde weglaten.
NON_LITERAL_PIVOT_VALUES
Letterlijke expressies die vereist zijn voor draaitabelwaarden, gevonden <expression>
.
NON_PARTITION_COLUMN (niet-partitie kolom)
PARTITION
-clausule mag de niet-partitie kolom niet bevatten: <columnName>
.
NIET-TIJD-VENSTER-NIET-ONDERSTEUND-IN-STREAMING
De functie Window wordt niet ondersteund in <windowFunc>
(als kolom <columnName>
) voor het streamen van DataFrames/Datasets.
Structured Streaming biedt alleen ondersteuning voor tijdvensteraggregatie met behulp van de functie WINDOW
. (vensterspecificatie: <windowSpec>
)
NOT_ALLOWED_IN_FROM
Niet toegestaan in de FROM
-clausule:
Zie NOT_ALLOWED_IN_FROM voor meer informatie
NIET TOEGESTAAN_IN_PIPE_OPERATOR_WAAR
Niet toegestaan in clausule WHERE
van de pijp:
Zie NOT_ALLOWED_IN_PIPE_OPERATOR_WHERE voor meer informatie
NOT_A_CONSTANT_STRING
De expressie <expr>
gebruikt voor de routine of component <name>
moet een constante STRING
zijn die NOT NULL
is.
Zie NOT_A_CONSTANT_STRING voor meer informatie
GEEN_GEPARTITIONEERDE_TABEL
Bewerking <operation>
is niet toegestaan voor <tableIdentWithDB>
omdat het geen gepartitioneerde tabel is.
NOT_A_SCALAR_FUNCTION
<functionName>
hier als een scalaire expressie wordt weergegeven, maar de functie is gedefinieerd als een tabelfunctie. Werk de query bij om de functie-aanroep naar de FROM
-component te verplaatsen of definieer in plaats daarvan <functionName>
opnieuw als een scalaire functie.
NOT_A_TABLE_FUNCTION
<functionName>
hier als een tabelfunctie wordt weergegeven, maar de functie is gedefinieerd als een scalaire functie. Werk de query bij om de functie-aanroep buiten de FROM
component te verplaatsen of definieer in plaats daarvan <functionName>
opnieuw als een tabelfunctie.
NIET_NUL_ASSERTIE_OVERTREDING
NULL
waarde is verschenen in een niet-nullbaar veld: <walkedTypePath>
Als het schema is afgeleid van een Scala-tuple-/caseklasse of een Java-bean, probeer scala.Option[_] of andere null-toegestaan typen te gebruiken (zoals java.lang.Integer in plaats van int/scala.Int).
Niet-leeg-beperkingsschending (NOT_NULL_CONSTRAINT_VIOLATION)
Het toewijzen van een NULL
is hier niet toegestaan.
Zie NOT_NULL_CONSTRAINT_VIOLATION voor meer informatie
WIJZIGING_KOLOM_NIET_ONDERSTEUND
ALTER TABLE ALTER
/
CHANGE COLUMN
wordt niet ondersteund voor het wijzigen van <table>
kolom <originName>
met het type <originType>
in <newName>
met het type <newType>
.
NIET_ONDERSTEUNDE_OPDRACHT_VOOR_V2_TABEL
<cmd>
wordt niet ondersteund voor v2-tabellen.
NIET_ONGESTEUNDE_OPDRACHT_ZONDER_HIVE_ONDERSTEUNING
<cmd>
wordt niet ondersteund als u deze wilt inschakelen, stelt u 'spark.sql.catalogImplementation' in op 'hive'.
NOT_SUPPORTED_IN_JDBC_CATALOG
Opdracht in JDBC-catalogus wordt niet ondersteund:
Zie NOT_SUPPORTED_IN_JDBC_CATALOG voor meer informatie
NOT_SUPPORTED_WITH_DB_SQL
<operation>
wordt niet ondersteund in een SQL-<endpoint>
.
NIET_ONDERSTEUND_MET_SERVERLOOS
<operation>
wordt niet ondersteund op serverloze berekeningen.
NOT_UNRESOLVED_ENCODER
Onopgeloste encoder verwacht, maar <attr>
werd gevonden.
GEEN_STANDAARDKOLOMWAARDE_BESCHIKBAAR
Kan de standaardwaarde voor <colName>
niet bepalen omdat deze niet nullable is en er geen standaardwaarde is.
Geen handler voor UDAF
Er is geen handler voor UDAF ‘<functionName>
’. Gebruik in plaats daarvan sparkSession.udf.register(...) .
GEEN_SAMENVOEG_ACTIE_OPGEGEVEN
df.mergeInto moet worden gevolgd door ten minste één van 'whenMatched', 'whenNotMatched', 'whenNotMatchedBySource'.
GEEN_BOVENLIGGENDE_EXTERN_LOCATIE_VOOR_PAD
SQLSTATE: geen toegewezen waarde
Er is geen ouder externe locatie gevonden voor het pad '<path>
'. Maak een externe locatie op een van de bovenliggende paden en voer de query of opdracht opnieuw uit.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Kan <catalystFieldPath>
niet vinden in Protobuf-schema.
GEEN_OPSLAGLOCATIE_VOOR_TABEL
SQLSTATE: geen toegewezen waarde
Er is geen opslaglocatie gevonden voor tabel<tableId>
bij het genereren van tabelreferenties. Controleer het tabeltype en de URL van de tabellocatie en voer de query of opdracht opnieuw uit.
NO_SUCH_CATALOG_EXCEPTION
Catalogus '<catalog>
' is niet gevonden. Controleer de naam van de catalogus en voer de query of opdracht opnieuw uit.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: geen toegewezen waarde
De schone kamer '<cleanroom>
' bestaat niet. Controleer of de naam van de schone ruimte juist is gespeld en overeenkomt met de naam van een geldige bestaande clean room en voer de query of opdracht opnieuw uit.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: geen toegewezen waarde
De externe locatie '<externalLocation>
' bestaat niet. Controleer of de naam van de externe locatie juist is en voer de query of opdracht opnieuw uit.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: geen toegewezen waarde
De metastore is niet gevonden. Vraag uw accountbeheerder om een metastore toe te wijzen aan de huidige werkruimte en voer de query of opdracht opnieuw uit.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: geen toegewezen waarde
De shareprovider '<providerName>
' bestaat niet. Controleer of de naam van de shareprovider juist is gespeld en overeenkomt met de naam van een geldige bestaande providernaam en voer de query of opdracht opnieuw uit.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: geen toegewezen waarde
De ontvanger '<recipient>
' bestaat niet. Controleer of de naam van de geadresseerde juist is gespeld en overeenkomt met de naam van een geldige bestaande geadresseerde en voer de query of opdracht opnieuw uit.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: geen toegewezen waarde
De share '<share>
' bestaat niet. Controleer of de naam van de share juist is gespeld en overeenkomt met de naam van een geldige bestaande share en voer de query of opdracht opnieuw uit.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: geen toegewezen waarde
De opslagreferentie '<storageCredential>
' bestaat niet. Controleer of de naam van de opslagreferentie juist is gespeld en overeenkomt met de naam van een geldige bestaande opslagreferentie en voer de query of opdracht opnieuw uit.
NO_SUCH_USER_EXCEPTION (geen gebruiker gevonden)
SQLSTATE: geen toegewezen waarde
De gebruiker '<userName>
' bestaat niet. Controleer of de gebruiker aan wie u toestemming verleent of het eigendom wijzigt correct is gespeld en overeenkomt met de naam van een geldige bestaande gebruiker en voer de query of opdracht opnieuw uit.
NO_UDF_INTERFACE
UDF-klasse <className>
implementeert geen UDF-interface.
Kolom_of_veld_met_null-waarde
Kolom of veld <name>
is instelbaar op null, maar het moet niet-null zijn.
NULLEERBARE_RIJ_ID_ATRIBUTEN
Rij-id-kenmerken kunnen niet nullable zijn: <nullableRowIdAttrs>
.
NULL_DATA_BRON_OPTIE
De optie lezen/schrijven van gegevensbron <option>
geen null-waarde kan hebben.
NUL_KAARTSLEUTEL
Kan null niet gebruiken als kaartsleutel.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Direct uitvoeren vereist een niet-null-variabele als de querytekenreeks, maar de opgegeven variabele <varName>
null is.
Numeriek buiten ondersteund bereik
De waarde <value>
kan niet worden geïnterpreteerd als numeriek omdat deze meer dan 38 cijfers heeft.
NUMERIC_VALUE_OUT_OF_RANGE
Zie NUMERIC_VALUE_OUT_OF_RANGE voor meer informatie
AANTAL_KOLOMMEN_KOMT_NIET_OVEREEN
<operator>
kan alleen worden uitgevoerd op invoer met hetzelfde aantal kolommen, maar de eerste invoer heeft <firstNumColumns>
kolommen en de <invalidOrdinalNum>
invoer heeft <invalidNumColumns>
kolommen.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Het aantal opgegeven aliassen komt niet overeen met het aantal uitvoerkolommen.
Functienaam: <funcName>
; aantal aliassen: <aliasesNum>
; aantal uitvoerkolommen: <outColsNum>
.
OAUTH_AANGEPASTE_IDENTITEITSCLAIM_NIET_VERSTREKT
Er is geen aangepaste identiteitsclaim opgegeven.
Alleen geheime functie hier ondersteund
Het aanroepen van functie <functionName>
wordt niet ondersteund in deze <location>
; <supportedFunctions>
wordt hier wel ondersteund.
Alleen ondersteund met UC_SQL_CONNECTOR
SQL-bewerking <operation>
wordt alleen ondersteund in Databricks SQL-connectors met ondersteuning voor Unity Catalog.
OPERATIE_GEANNULEERD
De bewerking is geannuleerd.
BEWERKING_VEREIST_UNITY_CATALOG
Voor bewerking <operation>
is Unity Catalog ingeschakeld.
OP_NIET_ONDERSTEUND_ALLEEN_LEZEN
<plan>
wordt niet ondersteund in de sessiemodus alleen-lezen.
ORDER_BY_POS_OUT_OF_RANGE
ORDER BY
positie <index>
bevindt zich niet in de keuzelijst (geldig bereik is [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Kan geen Parquet-conversieprogramma maken voor het gegevenstype <dataType>
waarvan het Parquet-type <parquetType>
is.
Zie PARQUET_CONVERSION_FAILURE voor meer informatie
PARQUET_TYPE_NIET_TOEGESTAAN
Ongeldig Parquet-type: <parquetType>
.
PARQUET_TYPE_NOT_RECOGNIZED
Niet herkend Parquet-type: <field>
.
PARQUET_TYPE_ONDERVERENIGBAAR
Parquet-type nog niet ondersteund: <parquetType>
.
LEGE_INSTRUCTIE_ANALYSEREN
Syntaxisfout, onverwachte lege verklaring.
PARSE_MODE_UNSUPPORTED
De functie <funcName>
biedt geen ondersteuning voor de <mode>
-modus. Acceptabele modi zijn PERMISSIVE
en FAILFAST
.
PARSE_SYNTAX_ERROR
Syntaxisfout bij of in de buurt van <error> <hint>
.
Partities_bestaan_al
Kan RENAME
niet toevoegen aan partities <partitionList>
in tabel <tableName>
omdat deze al bestaan.
Kies een andere naam, zet de bestaande partitie neer of voeg de IF NOT EXISTS
component toe om een bestaande partitie te tolereren.
PARTITIES_NIET_GEVONDEN
De partities <partitionList>
kunnen niet worden gevonden in tabel <tableName>
.
Controleer de partitiespecificatie en tabelnaam.
Gebruik ALTER TABLE
om de fout bij het laten vallen te tolereren...
DROP IF EXISTS PARTITION
.
PARTITION_COLUMN_NOT_FOUND_IN_SCHEMA
Partitiekolom <column>
niet gevonden in schema <schema>
. Geef de bestaande kolom op voor partitionering.
PARTITION_LOCATION_ALREADY_EXISTS
Partitielocatie <locationPath>
bestaat al in tabel <tableName>
.
PARTITIELOCATIE_IS_NIET_ONDER_TAFEL_DIRECTORY
Kan de ALTER TABLE SET PARTITION LOCATION
-instructie niet uitvoeren, omdat de
De partitielocatie <location>
is niet onder de tabelmap <table>
.
U kunt dit probleem oplossen door de locatie van de partitie in te stellen op een submap van <table>
.
PARTITION_METADATA
<action>
is niet toegestaan in tabel <tableName>
omdat het opslaan van partitiemetagegevens niet wordt ondersteund in Unity Catalog.
PARTITION_NUMBER_MISMATCH
Het aantal waarden (<partitionNumber>
) komt niet overeen met de schemagrootte (<partitionSchemaSize>
): waarden zijn <partitionValues>
, schema is <partitionSchema>
, bestandspad is <urlEncodedPath>
.
Materialiseer de tabel opnieuw of neem contact op met de eigenaar.
PARTITION_TRANSFORM_EXPRESSION_NOT_IN_PARTITIONED_BY (Partitioneer transformatie-uitdrukking niet in gepartitioneerd door)
De expressie <expression>
moet zich in partitionedBy bevinden.
HET_PAD_BESTAAT_AL
Het pad <outputPath>
bestaat al. Stel de modus in als 'overschrijven' om het bestaande pad te overschrijven.
PAD_NIET_GEVONDEN
Pad bestaat niet: <path>
.
PHOTON_DESERIALIZED_PROTOBUF_GEHEUGENLIMIET_OVERSCHREDEN
Voor het deserialiseren van het Photon protobuf-plan zijn ten minste <size>
bytes vereist, hetgeen meer is dan de beschikbare capaciteit.
limiet van <limit>
bytes. Dit kan worden veroorzaakt door een zeer groot project of de aanwezigheid van een zeer complex element.
uitgebreid schema Probeer de query te vereenvoudigen, overbodige kolommen te verwijderen of Photon uit te schakelen.
PHOTON_SERIALIZED_PROTOBUF_MEMORY_LIMIT_EXCEEDED
Het geserialiseerde Photon protobuf-plan is <size>
bytes groot, wat de limiet van overschrijdt.
<limit>
bytes. De geserialiseerde grootte van gegevenstypen in het plan is <dataTypeSize>
bytes.
Dit kan worden veroorzaakt door een zeer groot plan of de aanwezigheid van een zeer breed schema.
U kunt de query herschrijven om ongewenste bewerkingen en kolommen te verwijderen of Photon uit te schakelen.
Pijpoperator-aggregatie-expressie bevat geen aggregatiefunctie
Niet-groeperingsexpressie <expr>
wordt opgegeven als argument voor de |>AGGREGATE
pijpoperator, maar bevat geen aggregatiefunctie; werk deze bij om een aggregatiefunctie op te nemen en voer de query nogmaals uit.
PIJP_OPERATOR_BEVAT_AGGREGATIEFUNCTIE
Aggregatiefunctie <expr>
is niet toegestaan bij het gebruik van de pijpoperator |><clause>
clausule; gebruik de pijpoperator |>AGGREGATE
clausule.
PIVOT_VALUE_DATA_TYPE_MISMATCH
Ongeldige draaiwaarde ‘<value>
’: waardegegevenstype <valueType>
komt niet overeen met het gegevenstype van de draaikolom <pivotType>
.
ONGELEGENHEID_PROCURE_ARGUMENT_NUMMER_MISMATCH
Procedure <procedureName>
verwacht <expected>
argumenten, maar <actual>
zijn opgegeven.
PROCEDURE_AANMAKEN_LEGE_ROUTINE
CREATE PROCEDURE
met een lege routinedefinitie is niet toegestaan.
PROCEDURE_AANMAKEN_PARAMETER_UIT_INUIT_MET_STANDAARDWAARDE
De parameter <parameterName>
wordt gedefinieerd met de parametermodus <parameterMode>
. OUT en INOUT
parameter kunnen niet worden weggelaten bij het aanroepen van een routine en bieden daarom geen ondersteuning voor een DEFAULT
expressie. Als u door wilt gaan, verwijder dan de DEFAULT
-clausule of wijzig de parametermodus naar IN
.
PROCEDURE_NIET_ONDERSTEUND
Opgeslagen procedure wordt niet ondersteund
PROCEDURE_NIET_ONDERSTEUND_MET_HMS
Opgeslagen procedure wordt niet ondersteund met Hive Metastore. Gebruik in plaats daarvan Unity Catalog.
PROTOBUF_DEPENDENCY_NOT_FOUND
Kan afhankelijkheid niet vinden: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Fout bij het lezen van Protobuf-descriptorbestand bij pad: <filePath>
.
PROTOBUF_FIELD_MISSING
Zoeken naar <field>
in Protobuf-schema op <protobufSchema>
leverde <matchSize>
overeenkomsten op. Kandidaten: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Gevonden <field>
in Protobuf-schema, maar er is geen overeenkomst in het SQL-schema.
PROTOBUF_FIELD_TYPE_MISMATCH (Protobuf veldtype komt niet overeen)
Typeverschil gevonden voor veld: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Java-klassen worden niet ondersteund voor <protobufFunction>
. Neem contact op met databricks-ondersteuning over alternatieve opties.
PROTOBUF_MESSAGE_NOT_FOUND
Kan bericht <messageName>
niet vinden in Descriptor.
PROTOBUF_NOT_LOADED_SQL_FUNCTIONS_UNUSABLE
Kan de <functionName>
SQL-functie niet aanroepen omdat de Protobuf-gegevensbron niet is geladen.
Start uw taak of sessie opnieuw op met het spark-protobuf-pakket dat is geladen, zoals met behulp van het argument –packages op de opdrachtregel en voer de query of opdracht opnieuw uit.
PROTOBUF_TYPE_NOT_SUPPORT
Het Protobuf-type wordt nog niet ondersteund: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
Taak in de pubsub-ophaalfase kan niet opnieuw worden geprobeerd. Partitie <partitionInfo>
in fase <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
mag geen lege tekenreeks zijn.
PS_INVALID_KEY_TYPE
Ongeldig sleuteltype voor PubSub-ontdubbeling: <key>
.
PS_ONGELDIGE_OPTIE
De optie <key>
wordt niet ondersteund door PubSub. Het kan alleen worden gebruikt bij het testen.
PS_INVALID_OPTION_TYPE
Ongeldig type voor <key>
. Verwacht dat type <key>
van type <type>
is.
ONGELDIGE LEESLIMIET
Ongeldige leeslimiet voor PubSub-stream: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Ongeldige UnsafeRow voor decodering naar PubSubMessageMetadata, het gewenste protoschema is: <protoSchema>
. De invoer UnsafeRow is mogelijk beschadigd: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Kan de volledige PubSub-verificatiegegevens niet vinden.
PS_ONTBREEKENDE_VEREISTE_OPTIE
Kan de vereiste optie niet vinden: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Verplaats onbewerkte gegevenscontrolepuntbestanden niet van <src>
naar de doelmap: <dest>
.
PS_MULTIPLE_AUTH_OPTIONS
Geef uw Databricks-servicereferenties of uw referenties voor uw GCP-serviceaccount op.
PS_MEERDERE_MISLUKTE_EPOCHES
PubSub-stream kan niet worden gestart omdat er meer dan één mislukte ophaalfunctie is: <failedEpochs>
.
PS_OPTIE_NIET_BINNEN_GRENZEN
<key>
moet binnen de volgende grenzen (<min>
, <max>
) vallen, exclusief van beide grenzen.
Verstrek_inloggegevens_met_optie
Gedeelde clusters bieden geen ondersteuning voor verificatie met exemplaarprofielen. Geef inloggegevens rechtstreeks op voor de stream met behulp van .option().
PS_SPARK_SPECULATIE_NIET_ONDERSTEUND
PubSub-bronconnector is alleen beschikbaar in clusters met spark.speculation
uitgeschakeld.
PS_KAN_NIET_ABONNEMENT_AANMAKEN
Er is een fout opgetreden tijdens het maken van een abonnement <subId>
voor onderwerp <topicId>
. Controleer of er voldoende machtigingen zijn om een abonnement te maken en probeer het opnieuw.
PS_UNABLE_TO_PARSE_PROTO
Kan geserialiseerde bytes niet parseren om proto te genereren.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset wordt niet ondersteund zonder een limiet op te geven.
PYTHON_DATA_SOURCE_ERROR
Kan Python-gegevensbron niet <action>
<type>
: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR (Fout tijdens uitvoering van streaming gegevensbron in Python)
Mislukt wanneer de Python-streaminggegevensbron <action>
uitvoert: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Kan geen toegang krijgen tot de tabel waarnaar wordt verwezen omdat een eerder toegewezen kolommasker momenteel niet compatibel is met het tabelschema; als u wilt doorgaan, neemt u contact op met de eigenaar van de tabel om het beleid bij te werken:
Zie QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY voor meer informatie
BEVROUWDE_TABEL_NIET_COMPATIBEL_MET_RIJNIVEAU_BEVEILIGINGSBELEID
Kan geen toegang krijgen tot de tabel waarnaar wordt verwezen omdat een eerder toegewezen beveiligingsbeleid op rijniveau momenteel niet compatibel is met het tabelschema; als u wilt doorgaan, neemt u contact op met de eigenaar van de tabel om het beleid bij te werken:
Voor meer informatie, zie QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
QUERY_UITVOERING_TIMEOUT_OVERSCHREDEN
De uitvoering van de query is geannuleerd omdat de time-out (<timeoutSec>
s) is overschreden. U kunt de limiet in seconden verhogen door <config>
in te stellen.
BESTAANDE_BESTAND_NIET_GEVONDEN_LEZEN
<message>
Het is mogelijk dat de onderliggende bestanden zijn bijgewerkt. U kunt de cache in Spark expliciet ongeldig maken door de opdracht 'REFRESH TABLE
tableName' uit te voeren in SQL of door het betrokken gegevensset/dataframe opnieuw te maken.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
De aanroep van functie <functionName>
heeft <parameterName>
en <alternativeName>
ingesteld, welke aliassen van elkaar zijn. Stel slechts één van hen in.
LEES_TVF_ONVERWACHT_VEREIST_PARAMETER
De functie <functionName>
vereiste parameter <parameterName>
moet worden toegewezen op positie <expectedPos>
zonder de naam.
ONTVANGER_VERVALDATUM_NIET_ONDERSTEUND
Alleen TIMESTAMP
/TIMESTAMP_LTZ
/TIMESTAMP_NTZ
types worden ondersteund voor vervaltijdstempel van ontvangers.
RECURSIVE_PROTOBUF_SCHEMA
Er is recursieve verwijzing gevonden in het Protobuf-schema, dat standaard niet kan worden verwerkt door Spark: <fieldDescriptor>
. probeer de optie recursive.fields.max.depth
1 op 10 in te stellen. Het is niet toegestaan om meer dan 10 niveaus van recursie te overschrijden.
RECURSIVE_VIEW
Recursieve weergave <viewIdent>
is gedetecteerd (cyclus: <newPath>
).
REF_STANDAARDWAARDE_IS_NIET_TOEGESTAAN_IN_PARTITIE
Verwijzingen naar DEFAULT
kolomwaarden zijn niet toegestaan binnen de PARTITION
component.
RELATIE_GROTER_DAN_8G
Kan geen <relationName>
maken die groter is dan 8G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR (Afstandsfunctie HTTP mislukt fout)
De externe HTTP-aanvraag is mislukt met code <errorCode>
en foutbericht <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_FOUT
Kan de <functionName>
SQL-functie niet evalueren omdat het JSON-resultaat niet kan worden geparseerd vanuit het externe HTTP-antwoord; het foutbericht is <errorMessage>
. Api-documentatie controleren: <docUrl>
. Los het probleem op dat wordt aangegeven in het foutbericht en voer de query opnieuw uit.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Kan de <functionName>
SQL-functie niet evalueren omdat het onverwachte externe HTTP-antwoord niet kan worden verwerkt; het foutbericht is <errorMessage>
. Api-documentatie controleren: <docUrl>
. Los het probleem op dat wordt aangegeven in het foutbericht en voer de query opnieuw uit.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
De externe aanvraag is mislukt na het opnieuw proberen van <N>
tijden; de laatste mislukte HTTP-foutcode is <errorCode>
en het bericht is <errorMessage>
AFSTANDSFUNCTIE_ONTBREKENDE_VEREISTEN_FOUT
Kan de <functionName>
SQL-functie niet evalueren omdat <errorMessage>
. Controleer de vereisten in <docUrl>
. Los het probleem op dat wordt aangegeven in het foutbericht en voer de query opnieuw uit.
HERNOEM_BRONPAD_NIET_GEVONDEN
Kan de naam niet wijzigen omdat <sourcePath>
niet is gevonden.
REPEATED_CLAUSE
De <clause>
-component kan maximaal één keer per <operation>
bewerking worden gebruikt.
VEREISTE_PARAMETER_REEDS_POSITIONEEL_OPGEGEVEN
De vereiste parameter <routineName>
van routine <parameterName>
is zonder de naam toegewezen op positie <positionalIndex>
.
Werk de functieaanroep bij door ofwel het benoemde argument met <parameterName>
voor deze parameter te verwijderen, of door het positionele argument te verwijderen.
argument op <positionalIndex>
en probeer de query opnieuw.
VEREIST_PARAMETER_NIET_GEVONDEN
Kan routine-<routineName>
niet aanroepen omdat de parameter met de naam <parameterName>
is vereist, maar de routineaanroep heeft geen waarde opgegeven. Werk de routineaanroep bij om een argumentwaarde op te geven (positioneel op index <index>
of op naam) en voer de query opnieuw uit.
VEREIST_ENKELDEEL_NAMESPACE
<sessionCatalog>
vereist een naamruimte met één onderdeel, maar er is <namespace>
.
GERECUPEREERDE_DATA_KOLOM_CONFICT_MET_ENKELE_VARIANT
De optie 'rescuedDataColumn' dataframe-API-lezer is wederzijds exclusief met de dataframe-API-optie 'singleVariantColumn'.
Verwijder een van deze en probeer de DataFrame-bewerking opnieuw uit te voeren.
GERESERVEERDE_CDC_KOLOMMEN_BIJ_SCHRIJVEN
De schrijfbewerking bevat gereserveerde kolommen <columnList>
die worden gebruikt
intern als metadata voor Veranderingsgegevensstroom. Als u naar de tabel wilt schrijven, hernoemt u de tabel of verwijdert u deze.
deze kolommen of schakel de Gegevensfeed op de tabel uit door de instelling aan te passen
<config>
onwaar.
BEPERKTE_STREAMING_OPTIE_TOESTEMMING_GEHANDHAAFDE
De optie <option>
heeft beperkte waarden voor gedeelde clusters voor de <source>
bron.
Zie RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED voor meer informatie
ROUTINE_BESTAAT_AL
Kan de <newRoutineType> <routineName>
niet maken omdat er al een <existingRoutineType>
van die naam bestaat.
Kies een andere naam, verwijder of vervang de bestaande <existingRoutineType>
, of voeg de IF NOT EXISTS
clausule toe om een bestaande <newRoutineType>
te tolereren.
Routine niet gevonden
De routine <routineName>
kan niet worden gevonden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet hebt gekwalificeerd met een schema en catalogus, controleert u de current_schema() uitvoer of kwalificeren u de naam met het juiste schema en de juiste catalogus.
Gebruik DROP
om de fout bij het laten vallen te tolereren...
IF EXISTS
.
ROUTINE_PARAMETER_NOT_FOUND
De routine <routineName>
biedt geen ondersteuning voor de parameter <parameterName>
die is opgegeven op positie <pos>
.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
De functie <routineName>
kan niet worden gemaakt omdat de opgegeven klassenaam '<className>
' is gereserveerd voor systeemgebruik. Wijzig de naam van de klasse en probeer het opnieuw.
ROW_LEVEL_SECURITY_ABAC_MISMATCH
Rijfilters kunnen niet worden opgelost op <tableName>
omdat er een verschil is tussen de rijfilters die zijn overgenomen van beleidsregels en de expliciet gedefinieerde rijfilters. Als u wilt doorgaan, schakelt u ABAC (Attribute Based Access Control) uit en neemt u contact op met databricks-ondersteuning.
RIJN_NIVEAUBEVEILIGING_CONTROLEREN_CONSTRAINT_NIET_ONDERSTEUND
Het maken van CHECK
beperking voor tabel-<tableName>
met beveiligingsbeleid op rijniveau wordt niet ondersteund.
BEVEILIGING_OP_REGELNIVEAU_DUPLICATE_KOLOMNAAM
Een <statementType>
instructie heeft geprobeerd een beveiligingsbeleid op rijniveau toe te wijzen aan een tabel, maar twee of meer kolommen waarnaar wordt verwezen, hebben dezelfde naam <columnName>
, wat ongeldig is.
Rij-niveau beveiligingsfunctie niet ondersteund
Beveiligingsbeleid op rijniveau voor <tableName>
wordt niet ondersteund:
Zie ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED voor meer informatie
ROW_NIVEAU_BEVEILIGING_ONVERENIGBARE_SCHEMA_WIJZIGING
Kan <statementType> <columnName>
niet uit tabel <tableName>
omdat deze in een beveiligingsbeleid op rijniveau wordt gebruikt. De eigenaar van de tabel moet dit beleid verwijderen of wijzigen voordat u doorgaat.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
MERGE INTO
bewerkingen bieden geen ondersteuning voor beveiligingsbeleid op rijniveau in de brontabel <tableName>
.
Rij-niveau beveiliging samenvoeging niet-ondersteund doel
MERGE INTO
bewerkingen bieden geen ondersteuning voor het schrijven naar tabel-<tableName>
met beveiligingsbeleid op rijniveau.
RIJ_NIVEAU_BEVEILIGING_MEERDELE_KOLOMNAAM
Met deze instructie werd geprobeerd een beveiligingsbeleid op rijniveau toe te wijzen aan een tabel, maar naar kolom <columnName>
werd verwezen met meerdere naamonderdelen, wat ongeldig is.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Beveiligingsbeleid op rijniveau wordt alleen ondersteund in Unity Catalog.
Rij-beveiliging op niveau: Partities tonen niet ondersteund
SHOW PARTITIONS
opdracht wordt niet ondersteund voor<format>
tabellen met beveiligingsbeleid op rijniveau.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
kloon van tabel <tableName>
met beveiligingsbeleid op rijniveau wordt niet ondersteund.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Het is niet ondersteund om <mode>
naar tabel <tableName>
te kopiëren met een beveiligingsbeleid op rijniveau.
The original identifier should remain unchanged if it's a technical term. However, if an explanation is needed, it could be: "Rij-niveau beveiliging ondersteunt geen constante als parameter." This translates the meaning while maintaining the integrity of the technical term.
Het gebruik van een constante als parameter in een beveiligingsbeleid op rijniveau wordt niet ondersteund. Werk de SQL-opdracht bij om de constante uit de rijfilterdefinitie te verwijderen en voer de opdracht opnieuw uit.
RIJ_NIVEAU_BEVEILIGING_NIET_ONDERSTEUNDE_PROVIDER
Kan <statementType>
opdracht niet uitvoeren omdat het toewijzen van beveiligingsbeleid op rijniveau niet wordt ondersteund voor de doelgegevensbron met tabelprovider: '<provider>
'.
ROW_SUBQUERY_TOO_MANY_ROWS
Meer dan één rij geretourneerd door een subquery die als rij wordt gebruikt.
RIJWAARDE_IS_LEEG
Er is NULL
gevonden in een rij in de index <index>
. Er werd een niet-NULL
waarde verwacht.
REGEL_ID_NIET_GEVONDEN
Er is geen id gevonden voor de regelnaam<ruleName>
'. Wijzig RuleIdCollection.scala als u een nieuwe regel toevoegt.
SAMPLE_TABLE_PERMISSIONS
Machtigingen worden niet ondersteund voor voorbeelddatabases/tabellen.
SCALAR_FUNCTION_NOT_COMPATIBLE
ScalarFunction <scalarFunc>
overschrijft de methode 'produceResult(InternalRow)' niet met een aangepaste implementatie.
SCALAIRE_FUNCTIE_NIET_VOLLEDIG_GEÏMPLEMENTEERD
ScalarFunction <scalarFunc>
implementeert of overschrijft de methode 'produceResult(InternalRow)' niet.
SCALARE_ONDERVRAAG_IS_IN_GROUP_BY_OF_AGGREGATIEFUNCTIE
De gecorreleerde scalaire subquery '<sqlExpr>
' is niet aanwezig in GROUP BY
, noch in een statistische functie.
Voeg deze toe aan GROUP BY
met ordinale positie of verpakt deze in first()
(of first_value
) als u niet wilt weten welke waarde u krijgt.
SCALAR_SUBQUERY_TE_VEEL_RIJEN
Meer dan één rij geretourneerd door een subquery die wordt gebruikt als een uitdrukking.
SCHEDULE_ALREADY_EXISTS
Kan <scheduleType>
niet toevoegen aan een tabel die al <existingScheduleType>
bevat. Verwijder de bestaande planning of gebruik ALTER TABLE
...
ALTER <scheduleType>
... om het te wijzigen.
SCHEDULE_PERIOD_INVALID
De planningsperiode voor <timeUnit>
moet een geheel getal tussen 1 en <upperBound>
(inclusief) zijn. Ontvangen: <actual>
.
SCHEMA_ALREADY_EXISTS
Kan geen schema maken <schemaName>
omdat het al bestaat.
Kies een andere naam, zet het bestaande schema neer of voeg de IF NOT EXISTS
-component toe om een bestaand schema te tolereren.
SCHEMA_NOT_EMPTY
Kan een schema niet verwijderen <schemaName>
omdat het objecten bevat.
Gebruik DROP SCHEMA
...
CASCADE
om het schema en alle bijbehorende objecten te verwijderen.
SCHEMA_NOT_FOUND
Het schema <schemaName>
kan niet worden gevonden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet met een catalogus hebt gekwalificeerd, controleer dan de uitvoer van current_schema(), of kwalificeer de naam met de juiste catalogus.
Gebruik DROP SCHEMA IF EXISTS
om de fout bij het neerzetten te tolereren.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Het schema uit het schemaregister kan niet worden geïnitialiseerd.
<reason>
.
Tweede functiemargument is geen integer
Het tweede argument van <functionName>
functie moet een geheel getal zijn.
GEHEIME_FUNCTIE_ONGELDIGE_LOCATIE
Kan <commandType>
opdracht niet uitvoeren met een of meer niet-versleutelde verwijzingen naar de functie SECRET
; versleutel het resultaat van elke dergelijke functie-aanroep met AES_ENCRYPT
en probeer de opdracht opnieuw
ZAAD_EXPRESSIE_IS_ONTVOUWBAAR
De seed-expressie <seedExpr>
van de expressie <exprWithSeed>
moet vouwbaar zijn.
SERVER_BEZET
De server is bezet en kan de aanvraag niet verwerken. Wacht even en probeer het opnieuw.
TOON_KOLOMMEN_MET_CONFILCT_NAMESPACE
SHOW COLUMNS
met conflicterende naamruimten: <namespaceA>
!= <namespaceB>
.
Sorteren zonder groeperen
sortBy moet samen met bucketBy worden gebruikt.
SPARK_TAAK_GEANNULEERD
Taak <jobId>
geannuleerd <reason>
SPECIFICEREN VAN BUCKETING IS NIET TOEGESTAAN
Een CREATE TABLE
zonder expliciete kolomlijst kan geen bucketgegevens opgeven.
Gebruik het formulier met expliciete kolomlijst en geef bucketgegevens op.
U kunt ook toestaan dat bucketinformatie wordt afgeleid door de voorwaarde weg te laten.
SPECIFICATIONS_CLUSTEREN_MET_BUCKETING_IS_NIET_TOEGESTAAN
Kan zowel CLUSTER BY
als CLUSTERED BY INTO BUCKETS
niet opgeven.
SPECIFICEER_CLUSTER_BY_MET_PARTITIONED_BY_IS_NIET_TOEGESTAAN
Kan zowel CLUSTER BY
als PARTITIONED BY
niet opgeven.
HET_OPGEVEN_VAN_PARTITIE_IS_NIET_TOEGESTAAN
Een CREATE TABLE
zonder expliciete kolomlijst kan PARTITIONED BY
niet opgeven.
Gebruik het formulier met expliciete kolomlijst en geef PARTITIONED BY
op.
U kunt ook partitioneren toestaan door de PARTITION BY
component weg te laten.
SQL_CONF_NOT_FOUND
Kan de SQL-configuratie <sqlConf>
niet vinden. Controleer of de configuratie bestaat.
PAD_NAAR_STAGING_IS_MOMENTEEL_ONBEREIKBAAR
Tijdelijke fout tijdens het openen van het doelfasepad <path>
, probeer het over een paar minuten
STAR_GROUP_BY_POS
Ster (*) is niet toegestaan in een selectielijst wanneer GROUP BY
een rangtelpositie wordt gebruikt.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Kan stateful processorbewerking niet uitvoeren=<operationType>
met ongeldige handle-status=<handleState>
.
TOESTANDPROCESOR_KAN_OPERATIE_NIET_UITVOEREN_MET_ONGELDIGE_TIJDSTAND
Kan stateful processoroperatie niet uitvoeren=<operationType>
met ongeldige timeMode=<timeMode>
STATUSPROCESOR_DUPLICEREN_STATEVARIABELE_GEDEFINIEERD
Statusvariabele met de naam <stateVarName>
is al gedefinieerd in de StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL (Onjuiste tijdmodus om TTL toe te wijzen)
Kan TTL niet gebruiken voor status=<stateName>
in timeMode=<timeMode>
, gebruik in plaats daarvan TimeMode.ProcessingTime() .
STATEFUL_PROCESSOR_TTL_DUUR_MOET_POSITIEF_ZIJN
TTL-duur moet groter zijn dan nul voor de statusopslagbewerking =<operationType>
op status =<stateName>
.
TOESTANDSVERWERKER_ONBEKENDE_TIJD_MODUS
Onbekende tijdmodus <timeMode>
. Geaccepteerde timeMode-modi zijn 'none', 'processingTime', 'eventTime'
STATE_OPSLAG_KAN_GEEN_KOLOM_FAMILIE_MAKEN_MET_GERESERVEERDE_TEKENS
Kan geen kolomfamilie maken met een ongeldig of niet-ondersteund startteken en naam:<colFamilyName>
.
KAN_GEEN_TOESTANDSOPSLAG_GEBRUIKEN_MET_KOLMOMMENFAMILIE_VANWEGE_ONGELDIGE_NAAM
Het uitvoeren van de kolomfamiliebewerking=<operationName>
met ongeldige naam=<colFamilyName>
is mislukt. Kolomfamilienaam mag niet leeg zijn of voorloop-/volgspaties bevatten of het gereserveerde trefwoord =standaard gebruiken
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Incompatibele schematransformatie met kolomfamilie =<colFamilyName>
, oldSchema =<oldSchema>
, newSchema =<newSchema>
.
STATE_STORE_ONDERSTEUNT_GEEN_HERBRUIKBARE_ITERATOR
StateStore <inputClass>
biedt geen ondersteuning voor herbruikbare iterator.
STATE_STORE_HANDLE_NIET_GEÏNITIALISEERD
De hendel is niet geïnitialiseerd voor deze StatefulProcessor.
Gebruik alleen de StatefulProcessor binnen de transformWithState-operator.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Onjuist aantal rangschikwoorden=<numOrderingCols>
voor bereikscancoderingsprogramma. Het aantal rangschikwoorden mag niet nul of groter zijn dan het aantal schemakolommen.
ONJUIST_AANTAL_PREFIX_KOLOMMEN_VOOR_PREFIX_SCAN_IN_STATUS_OPSLAG
Onjuist aantal voorvoegselkolommen=<numPrefixCols>
voor het scanprogramma voor voorvoegsels. Voorvoegselkolommen mogen niet nul of groter zijn dan of gelijk zijn aan het aantal schemakolommen.
ONGELDIGE STATE STORE CONFIGURATIE NA HERSTART
Kan <configName>
niet wijzigen van <oldConfig>
naar <newConfig>
tijdens het opnieuw opstarten. Stel <configName>
in op <oldConfig>
of start opnieuw met een nieuwe controlepuntmap.
ONJUISTE_PROVIDER_IN_STATEWINKEL
De opgegeven State Store Provider <inputClass>
voegt niet toe aan org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Kan <stateVarName>
niet wijzigen in <newType>
tussen het opnieuw opstarten van de query. Stel <stateVarName>
in op <oldType>
of start opnieuw met een nieuwe controlepuntmap.
Stateopslag NULL-type sorteeringskolommen niet ondersteund
Kolom voor null-typen rangschikking met naam=<fieldName>
bij index=<index>
wordt niet ondersteund voor de range scan coder.
STATUS_OPSLAAN_PROVIDER_ONDERSTEUNT_GEEN_FIJNFASIGE_STATUS_HERHALING
De opgegeven State Store Provider <inputClass>
erft niet van org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Daarom biedt het geen ondersteuning voor optie snapshotStartBatchId of readChangeFeed in de statusgegevensbron.
DREMPELWAARDE VOOR STATE_STORE_STATE_SCHEMA_BESTANDEN OVERSCHREDEN
Het aantal statusschemabestanden <numStateSchemaFiles>
overschrijdt het maximum aantal statusschemabestanden voor deze query: <maxStateSchemaFiles>
.
Toegevoegd: <addedColumnFamilies>
, verwijderd: <removedColumnFamilies>
Stel 'spark.sql.streaming.stateStore.stateSchemaFilesThreshold' in op een hoger getal of zet wijzigingen in het statusschema terug
ONDERSTEUNDE_STREEK_OP_ONTBEREKENDE_KOLOM_FAMILIE
Statusarchiefbewerking=<operationType>
niet ondersteund voor ontbrekende kolomfamilie=<colFamilyName>
.
DREMPEL VOOR EVOLUTIE VAN STATE STORE WAARDE SCHEMA OVERSCHREDEN
Het aantal statusschemaontwikkelingen <numSchemaEvolutions>
overschrijdt het maximum aantal statusschemaontwikkelingen, <maxSchemaEvolutions>
, dat is toegestaan voor deze kolomfamilie.
Overtrede kolomfamilie: <colFamilyName>
Stel 'spark.sql.streaming.stateStore.valueStateSchemaEvolutionThreshold' in op een hoger getal of maak schemawijzigingen ongedaan.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Een volgorde kolom van variabele grootte met de naam=<fieldName>
in index=<index>
wordt niet ondersteund door de bereikscan-encoder.
STATISCHE_PARTITIEKOLOM_IN_INVOEGEN_KOLOMLIJST
Statische partitiekolom <staticName>
wordt ook opgegeven in de kolomlijst.
STDS_COMMITTED_BATCH_UNAVAILABLE
Er is geen vastgelegde batch gevonden, controlepuntlocatie: <checkpointLocation>
. Zorg ervoor dat de query een microbatch heeft uitgevoerd en doorgevoerd voordat u stopt.
OPTIES_CONFLICTEN_STANDAARDEN
De opties <options>
kunnen niet samen worden opgegeven. Geef het op.
STDS_KAN_OPERATOR_METADATA_NIET_LEZEN
Kan de metagegevens van de operator voor checkpointLocation=<checkpointLocation>
en batchId=<batchId>
niet lezen.
Het bestand bestaat niet of het bestand is beschadigd.
Voer de streamingquery opnieuw uit om de metagegevens van de operator samen te stellen en rapporteer aan de bijbehorende community's of leveranciers als de fout zich blijft voordoen.
STDS_FAILED_TO_READ_STATE_SCHEMA
Kan het statusschema niet lezen. Het bestand bestaat niet of het bestand is beschadigd. opties: <sourceOptions>
.
Voer de streamingquery opnieuw uit om het statusschema samen te stellen en rapporteer aan de bijbehorende community's of leveranciers als de fout zich blijft voordoen.
STDS_INVALID_OPTION_VALUE
Ongeldige waarde voor bronoptie '<optionName>
':
Zie STDS_INVALID_OPTION_VALUE voor meer informatie
Geen partitie ontdekt in de toestandsopslag
De staat heeft geen partitie. Controleer of de query verwijst naar de geldige status. opties: <sourceOptions>
STDS_OFFSET_LOG_ONBESCHIKBAAR
Het offsetlogboek voor <batchId>
bestaat niet, controlepuntlocatie: <checkpointLocation>
.
Geef de batch-id op die beschikbaar is voor het uitvoeren van query's. U kunt query's uitvoeren op de beschikbare batch-id's via de gegevensbron voor metagegevens van de status.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Metagegevens zijn niet beschikbaar voor offsetlogboeken voor <batchId>
, locatie van controlepunt: <checkpointLocation>
.
Het controlepunt lijkt alleen te worden uitgevoerd met oudere Spark-versies. Voer de streamingquery uit met de recente Spark-versie, zodat Spark de metagegevens van de status maakt.
Vereiste optie niet gespecificeerd
'<optionName>
' moet worden opgegeven.
STREAMING_AQE_NIET_ONDERSTEUND_VOOR_STATEFUL_OPERATOR
Uitvoering van adaptieve query's wordt niet ondersteund voor stateful operators in Structured Streaming.
STREAMEN_VAN_UITGEMATERALISEERD_OVERZICHT
Kan niet streamen vanuit gerealiseerde weergave <viewName>
. Streaming vanuit gerealiseerde weergaven wordt niet ondersteund.
STREAMING_OUTPUT_MODE
Ongeldige streaming-uitvoermodus: <outputMode>
.
Zie STREAMING_OUTPUT_MODE voor meer informatie
STREAMING_REALTIMEMODUS
De realtime streamingmodus heeft de volgende beperking:
Zie STREAMING_REAL_TIME_MODE voor meer informatie
STREAMING_STATEFUL_OPERATOR_KOMT_NIET_OVEREEN_IN_TOESTAND_METADATA
De naam van de streaming stateful operator komt niet overeen met de operator in metagegevens van de status. Dit gebeurt waarschijnlijk wanneer de gebruiker stateful operator voor bestaande streamingquery toevoegt/verwijdert/wijzigt.
Toestandsafhankelijke operatoren in de metagegevens: [<OpsInMetadataSeq>
]; Toestandsafhankelijke operatoren in de huidige batch: [<OpsInCurBatchSeq>
].
STREAMING_TABEL_HEEFT_VERNIEUWING_NODIG
streamingtabel <tableName>
moet worden vernieuwd om <operation>
uit te voeren.
Als de tabel is gemaakt op basis van DBSQL
, voert u REFRESH <st>
uit.
Als de tabel wordt gemaakt door een pijplijn in Delta Live Tables, voert u een pijplijnupdate uit.
STREAMING_TABEL_NIET_ONDERSTEUND
streamingtabellen kunnen alleen worden gemaakt en vernieuwd in Delta Live Tables en Databricks SQL Warehouses.
STREAMING_TABEL_OPERATIE_NIET_TOEGESTAAN
De bewerking <operation>
is niet toegestaan:
Zie STREAMING_TABLE_OPERATION_NOT_ALLOWED voor meer informatie
Ongeldige Streamingtabel Query
streamingtabel <tableName>
kan alleen worden gemaakt op basis van een streamingquery. Voeg het STREAM
trefwoord toe aan uw FROM
-component om deze relatie om te zetten in een streamingquery.
STREAM_NIET_GEVONDEN_VOOR_KINESIS_BRON
Kinesis stream <streamName>
in <region>
niet gevonden.
Start een nieuwe query die verwijst naar de juiste stroomnaam.
STRUCT_ARRAY_LENGTH_MISMATCH
Invoerrij beschikt niet over het verwachte aantal waarden dat vereist is voor het schema.
<expected>
velden zijn vereist terwijl <actual>
waarden worden opgegeven.
SOM_VAN_LIMIET_EN_OFFSET_OVERSCHRIJDT_MAX_INT
De som van de LIMIT
-component en de OFFSET
-component mag niet groter zijn dan de maximumwaarde van het 32-bits gehele getal (2.147.483.647), maar de gevonden limiet = <limit>
, offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
Opdracht voor het herstellen van metagegevens voor tabelsynchronisatie wordt alleen ondersteund voor deltatabel.
SRC_DOEL_TABEL_NIET_HETZELFDE
De naam van de brontabel <srcTable>
moet gelijk zijn aan de naam van de doeltabel <destTable>
.
SYNTAX_DISCONTINUED
Ondersteuning van de component of het trefwoord: <clause>
is in deze context stopgezet.
Zie SYNTAX_DISCONTINUED voor meer informatie
TABEL_OF_WEERGAVE_BESTAAT_AL
Kan geen tabel of weergave maken <relationName>
omdat deze al bestaat.
Kies een andere naam, zet het bestaande object neer, voeg de IF NOT EXISTS
component toe om bestaande objecten te tolereren, voeg de COMPONENT OR REPLACE
toe om de bestaande gerealiseerde weergave te vervangen of voeg de COMPONENT OR REFRESH
toe om de bestaande streamingtabel te vernieuwen.
TABLE_OR_VIEW_NOT_FOUND
Kan de tabel of weergave <relationName>
niet vinden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet hebt gekwalificeerd met een schema, controleert u de current_schema() uitvoer of kwalificeren u de naam met het juiste schema en de juiste catalogus.
Gebruik DROP VIEW IF EXISTS
of DROP TABLE IF EXISTS
om de fout bij het neerzetten te tolereren.
Zie TABLE_OR_VIEW_NOT_FOUND voor meer informatie
TABELWAARDE_ARGUMENTEN_NOG_NIET_GEÏMPLEMENTEERD_VOOR_SQL_FUNCTIES
Kan de door de gebruiker gedefinieerde SQL-functie <action>
met <functionName>
argumenten niet TABLE
omdat deze functionaliteit nog niet is geïmplementeerd.
TABELWAARDE_FUNCTIE_NIET_GEANALYSEERD_IN_PYTHON
Kan de door de gebruiker gedefinieerde Python-tabelfunctie niet analyseren: <msg>
TABELWAARDEFUNCTIE_VEREISTE_METADATA_NIET_COMPATIBEEL_MET_OPROEP
Kan de tabelfunctie <functionName>
niet evalueren vanwege de metagegevens van de tabel <requestedMetadata>
, maar de functie-aanroep is <invalidFunctionCallProperty>
.
TABELGEWAARDEERDE_FUNCTIE_VEREISTE_METADATA_ONGELDIG
Kan de tabelfunctie niet evalueren <functionName>
omdat de metagegevens van de tabel ongeldig zijn; <reason>
.
FUNCTIE_MET_TABELWAARDE_TE_VELE_TABELARGUMENTEN
Er zijn te veel tabelargumenten voor een tabelwaardefunctie.
Er is één tabelargument toegestaan, maar ontvangen: <num>
.
Als u dit wilt toestaan, stelt u 'spark.sql.allowMultipleTableArguments.enabled' in op 'true'
TABEL_MET_ID_NIET_GEVONDEN
Tabel met id-<tableId>
kan niet worden gevonden. Controleer de juistheid van de UUID.
TAAK_SCHRIJVEN_GEMISLUKT
Taak is mislukt tijdens het schrijven van rijen naar <path>
.
TIJDELIJKE_TABEL_OF_VIEW_BESTAAT_AL
Kan de tijdelijke weergave niet maken <relationName>
omdat deze al bestaat.
Kies een andere naam, verwijder of vervang de bestaande weergave, of voeg de IF NOT EXISTS
-clausule toe om bestaande weergaven te tolereren.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW
of de bijbehorende Dataset-API's accepteren alleen weergavenamen van één onderdeel, maar kregen: <actualName>
.
TRAILING_COMMA_IN_SELECT
Volgkomma gedetecteerd in SELECT
clausule. Verwijder de volgkomma voor de FROM
-clausule.
TRIGGER_INTERVAL_INVALID
Het triggerinterval moet een positieve duur zijn die kan worden geconverteerd naar hele seconden. Ontvangen: <actual>
seconden.
UC_BUCKETED_TABLES
Bucketed tabellen worden niet ondersteund in Unity Catalog.
UC_CATALOG_NAAM_NIET_OPGEGEVEN
Geef voor Unity Catalog expliciet de naam van de catalogus op. Bijv. SHOW GRANT your.address@email.com ON CATALOG
main.
UC_COMMAND_NOT_SUPPORTED
De opdrachten: <commandName>
worden niet ondersteund in Unity Catalog.
Zie UC_COMMAND_NOT_SUPPORTED voor meer informatie
De UC-opdracht wordt niet ondersteund in serverloze omgevingen.
De opdrachten: <commandName>
worden niet ondersteund voor Unity Catalog clusters in serverloze omgevingen. Gebruik in plaats daarvan één gebruiker of gedeelde clusters.
UC_OPDRACHT_NIET_ONDERSTEUND_IN_GEDEELDE_TOEGANGS_MODUS
De opdracht(en): <commandName>
worden niet ondersteund voor Unity Catalog-clusters in de modus voor gedeelde toegang. Gebruik in plaats daarvan de modi voor individuele gebruikertoegang.
UC_CREDENTIAL_DOELWORDING_NIET_ONDERSTEUND
Het opgegeven referentietype wordt niet ondersteund.
UC_DATASOURCE_WORDT_NIET_ONDERSTEUND
Gegevensbronindeling <dataSourceFormatName>
wordt niet ondersteund in Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Opties voor gegevensbronnen worden niet ondersteund in Unity Catalog.
UC_EXTERNE_VOLUME_LOCATIE_ONTBREEKT
LOCATION
component moet aanwezig zijn voor extern volume. Controleer de syntaxis 'CREATE EXTERNAL VOLUME
...
LOCATION
...' voor het maken van een extern volume.
UC_FAILED_PROVISIONING_STATE (Mislukte voorzieningstoestand)
De query is mislukt omdat deze heeft geprobeerd naar de tabel te verwijzen <tableName>
, maar dit niet kon doen: <failureReason>
. Werk de tabel <tableName>
bij om ervoor te zorgen dat deze de Actief inrichten-status heeft en probeer de query weer.
Schema voor tabelaanmaak met bestandsondersteuning wordt niet ondersteund
Het maken van een tabel in Unity Catalog met een bestandsschema <schemeName>
wordt niet ondersteund.
Maak in plaats daarvan een federatieve gegevensbronverbinding met behulp van de opdracht CREATE CONNECTION
voor dezelfde tabelprovider en maak vervolgens een catalogus op basis van de verbinding met een CREATE FOREIGN CATALOG
opdracht om te verwijzen naar de tabellen daarin.
UC_HIVE_METASTORE_FEDERATIE_KRUISCATALOGUS_WEERGAVE_NIET_ONDERSTEUND
De Federatieweergave van Hive Metastore biedt geen ondersteuning voor afhankelijkheden in meerdere catalogi. Weergave <view>
in de Hive Metastore Federation-catalogus moet afhankelijk zijn van een afhankelijkheid uit de hive_metastore- of spark_catalog-catalogus, maar de afhankelijkheid <dependency>
bevindt zich in een andere catalogus, namelijk <referencedCatalog>
. Werk de afhankelijkheden bij om aan deze beperking te voldoen en voer de query of opdracht opnieuw uit.
UC_HIVE_METASTORE_FEDERATION_NIET_INGESCHAKELD
Hive Metastore-federatie is niet ingeschakeld op dit cluster.
Toegang tot de catalogus <catalogName>
wordt niet ondersteund in dit cluster
UC_ONGELDIGE_AFHANKELIJKHEDEN (UC_INVALID_DEPENDENCIES)
Afhankelijkheden van <viewName>
worden vastgelegd als <storedDeps>
terwijl ze worden geparseerd als <parsedDeps>
. Dit is waarschijnlijk opgetreden door onjuist gebruik van een niet-SQL-API. U kunt afhankelijkheden in Databricks Runtime herstellen door ALTER VIEW <viewName>
AS-<viewText>
uit te voeren.
UC_INVALID_NAMESPACE
Geneste of lege naamruimten worden niet ondersteund in Unity Catalog.
UC_INVALID_REFERENCE
Niet-Unity-Catalog object <name>
kan niet worden verwezen in Unity Catalog-objecten.
UC_LAKEHOUSE_FEDERATIE_SCHRIJVEN_NIET_TOEGESTAAN
Ondersteuning voor schrijfbewerkingen in Unity Catalog Lakehouse Federation is niet ingeschakeld voor provider-<provider>
op dit cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Beheerd volume accepteert geen LOCATION
-clausule. Controleer de syntaxis 'CREATE VOLUME
...' voor het maken van een beheerd volume.
UC_NIET_INGESCHAKELD
Unity Catalog is niet ingeschakeld voor dit cluster.
Federatie-vraag niet ingeschakeld.
Unity Catalog Query Federation is niet ingeschakeld voor dit cluster.
UC_SERVICE_CREDENTIALS_NIET_INGESCHAKELD
Servicereferenties zijn niet ingeschakeld voor dit cluster.
UC_VOLUMES_NIET_INGESCHAKELD
Ondersteuning voor Unity Catalog Volumes is niet ingeschakeld voor dit exemplaar.
Delen van volumes is niet ingeschakeld.
Ondersteuning voor volumedeling is niet ingeschakeld voor dit exemplaar.
UC_VOLUME_NOT_FOUND
Volume <name>
bestaat niet. Gebruik 'SHOW VOLUMES
' om beschikbare volumes weer te geven.
UDF_ENVIRONMENT_ERROR
Kan UDF-afhankelijkheden voor <udfName>
niet installeren.
Zie UDF_ENVIRONMENT_ERROR voor meer informatie
UDF_ERROR
SQLSTATE: geen toegewezen waarde
Uitvoering van functie <fn>
mislukt
Zie UDF_ERROR voor meer informatie
UDF_LIMITS
Een of meer UDF-limieten zijn overschreden.
Zie UDF_LIMITS voor meer informatie
UDF_MAX_COUNT_EXCEEDED
De UDF-limiet voor de hele query is overschreden van <maxNumUdfs>
UDF's (beperkt tijdens openbare preview). Gevonden <numUdfs>
. De UDF's waren: <udfNames>
.
UDF_PYSPARK_ERROR
Python-werker heeft zich onverwacht afgesloten
Zie UDF_PYSPARK_ERROR voor meer informatie
UDF_PYSPARK_UNSUPPORTED_TYPE
PySpark UDF <udf> (<eval-type>
) wordt niet ondersteund op clusters in de modus Gedeelde toegang.
UDF_PYSPARK_USER_CODE_ERROR
Uitvoering is mislukt.
Zie UDF_PYSPARK_USER_CODE_ERROR voor meer informatie
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
De standaardwaarde van de parameter wordt niet ondersteund voor door de gebruiker gedefinieerde <functionType>
functie.
UDF_GEBRUIKERSCODE_FOUT
Uitvoering van functie <fn>
is mislukt.
Zie UDF_USER_CODE_ERROR voor meer informatie
UDTF_ALIAS_AANTAL_NIET_OVEREENKOMST
Het aantal aliassen dat is opgegeven in de AS-clausule komt niet overeen met het aantal kolommen dat door de UDTF wordt gegenereerd.
Verwachte <aliasesSize>
aliassen, maar kreeg <aliasesNames>
.
Zorg ervoor dat het aantal opgegeven aliassen overeenkomt met het aantal kolommen dat door de UDTF wordt gegenereerd.
Ongeldige alias in aangevraagde sorteervolgorde van analyse methode
Kan de door de gebruiker gedefinieerde tabelfunctie niet evalueren omdat de methode 'analyze' een aangevraagde OrderingColumn heeft geretourneerd waarvan de kolomnaamexpressie een onnodige alias <aliasName>
bevat; verwijder deze alias en probeer de query opnieuw.
UDTF_ONGELDIGE_AANGEVRAAGDE_GESELECTEERDE_EXPRESSIE_VAN_ANALYSE_METHODE_VEREIST_ALIAS
Kan de door de gebruiker gedefinieerde tabelfunctie niet evalueren omdat de methode 'analyze' een aangevraagde select-expressie (<expression>
) heeft geretourneerd die geen bijbehorende alias bevat; Werk de UDTF bij om daar een alias op te geven en probeer de query opnieuw.
KAN GEHEUGEN NIET BEWONEN
Niet in staat om <requestedBytes>
bytes geheugen te verkrijgen, alleen <receivedBytes>
verkregen.
Kan niet omzetten naar Protobuf-berichttype
Kan sql-type <toType>
niet converteren naar Protobuf-type <protobufType>
.
UNABLE_TO_FETCH_HIVE_TABLES
Kan tabellen van hive-database niet ophalen: <dbName>
. Naam van foutklasse: <className>
.
NIET_IN_STAAT_SCHEMA_AF_TELEIDEN
Kan schema voor <format>
niet afleiden. Deze moet handmatig worden opgegeven.
ONGEAUTORISEERDE_TOEGANG
Onbevoegde toegang:
<report>
ONGEBOUWD_SQL_PARAMETER
De niet-afhankelijke parameter gevonden: <name>
. Corrigeer args
en geef een toewijzing van de parameter voor een letterlijke SQL- of verzamelingsconstructorfuncties zoals map()
, array()
, struct()
.
UNCLOSED_BRACKETED_COMMENT
Er is een niet-tussen haakje geplaatste opmerking gevonden. Voeg */ toe aan het einde van de opmerking.
UNEXPECTED_INPUT_TYPE
Parameter <paramIndex>
van functie <functionName>
vereist het <requiredType>
type, maar <inputSql>
heeft het type <inputType>
.
Onverwacht invoertype van benoemde parameter
De parameter <namedParamKey>
van de functie <functionName>
vereist het <requiredType>
type, maar <inputSql>
heeft het type <inputType>
.<hint>
ONVERWACHTE_OPERATOR_IN_STREAMING_WEERGAVE
Onverwachte operator <op>
in de CREATE VIEW
verklaring als streamingbron.
Een streamingweergavequery mag alleen bestaan uit SELECT
, WHERE
en UNION ALL
bewerkingen.
UNEXPECTED_POSITIONAL_ARGUMENT
Kan routine <routineName>
niet aanroepen omdat deze positionele argumenten bevat die volgen op het benoemde argument dat is toegewezen aan <parameterName>
; Rangschik ze opnieuw zodat de positionele argumenten eerst komen en voer de query opnieuw uit.
ONVERWACHTE_SERIALIZER_VOOR_KLASSE
De klasse <className>
heeft een onverwachte serialisatiefunctie voor expressies. Verwacht "STRUCT
" of "IF
" dieSTRUCT
retourneert, maar gevonden <expr>
.
UNKNOWN_FIELD_EXCEPTION
Er is <changeType>
opgetreden tijdens het parseren: <unknownFieldBlob>
, wat kan worden opgelost door een automatische herhaling: <isRetryable>
Zie UNKNOWN_FIELD_EXCEPTION voor meer informatie
ONBEKEND_POSITIONEEL_ARGUMENT
De aanroep van routine-<routineName>
bevat een onbekend positioneel argument <sqlExpr>
op positie <pos>
. Dit is ongeldig.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Onbekend primitief type met id <id>
is gevonden in een variantwaarde.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Een poging om <descriptorName>
te behandelen als een bericht, maar het was <containingType>
.
UNPIVOT_VEREIST_ATTRIBUTEN
UNPIVOT
vereist dat alle gegeven <given>
expressies kolommen zijn wanneer er geen <empty>
expressies worden gegeven. Dit zijn geen kolommen: [<expressions>
].
UNPIVOT_VEREIST_WAARDEKOLOMMEN
Er moet ten minste één waardekolom worden opgegeven voor UNPIVOT
, alle kolommen die zijn opgegeven als id's.
Onjuiste gegevenssoortrijding bij UNPIVOT-waarde
Ongepivoteerde waardenkolommen moeten een minimaal gemeenschappelijk type delen; enkele typen doen dat niet: [<types>
].
UNPIVOT_WAARDE_GROOTTE_ONOVEREENKOMST
Alle niet-draaiende kolommen met waarden moeten even talrijk zijn als er kolomnamen van waarden zijn (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Kan routine <routineName>
niet aanroepen omdat de routineaanroep een verwijzing naar een benoemd argument bevat voor het argument met de naam <argumentName>
, maar deze routine bevat geen handtekening met een argument met deze naam. Bedoelde u een van de volgende? [<proposal>
].
NIET-ERKEND_SQL_TYPE
Niet-herkend SQL-type - naam: <typeName>
, id: <jdbcType>
.
ONHERKENDE_STATISTIEK
De statistiek <stats>
wordt niet herkend. Geldige statistieken zijn onder andere count
, count_distinct
, approx_count_distinct
, mean
, stddev
, min
, max
en percentielwaarden. Percentiel moet een numerieke waarde zijn, gevolgd door '%', binnen het bereik van 0% tot 100%.
UNRESOLVABLE_TABLE_VALUED_FUNCTION (onoplosbare tabelwaarde-functie)
Kan <name>
niet oplossen naar een tabelwaardefunctie.
Zorg ervoor dat <name>
is gedefinieerd als een tabelwaardefunctie en dat alle vereiste parameters correct zijn opgegeven.
Als <name>
niet is gedefinieerd, maakt u de tabelwaardefunctie voordat u deze gebruikt.
Raadpleeg de Apache Spark-documentatie voor meer informatie over het definiëren van tabelwaardefuncties.
NIET-OPGELOST_ALLES_IN_GROEP_OP
Het groeperen van kolommen voor GROUP BY ALL
kan niet worden afgeleid op basis van de select-component. Geef expliciet de groeperingskolommen op.
UNRESOLVED_COLUMN
Een kolom-, variabele- of functieparameter met de naam <objectName>
kan niet worden omgezet.
Zie UNRESOLVED_COLUMN voor meer informatie
ONTOLOSTE_VELD
Een veld met de naam <fieldName>
kan niet worden omgezet met de struct-type kolom <columnPath>
.
Zie UNRESOLVED_FIELD voor meer informatie
UNRESOLVED_MAP_KEY
Kan kolom <objectName>
niet oplossen als sleutel in een map. Als de sleutel een letterlijke tekenreeks is, voegt u de enkele aanhalingstekens eromheen toe.
Zie UNRESOLVED_MAP_KEY voor meer informatie
ONOPGELOSTE_ROUTINE
Kan routine-<routineName>
op zoekpad <searchPath>
niet oplossen.
Controleer de spelling van <routineName>
, controleer of de routine bestaat en controleer of u USE
bevoegdheid hebt voor de catalogus en het schema en EXECUTE
op de routine.
Zie UNRESOLVED_ROUTINE voor meer informatie
ONOPGELOSTE_KOLOM_BIJ_JOIN
USING
kolom <colName>
kan niet worden opgelost aan de <side>
zijde van de join. De kolommen aan de <side>
-zijde: [<suggestion>
].
ONOPGELOSTE_VARIABLE
Kan variabele <variableName>
niet oplossen op zoekpad <searchPath>
.
ONGESTRUCTUREERDE_DATA_VERWERKING_NIET-ONDERSTEUND_BESTANDSFORMaat
Niet-gestructureerde bestandsindeling <format>
wordt niet ondersteund. De ondersteunde bestandsindelingen zijn <supportedFormats>
.
Werk de format
van uw <expr>
-expressie bij naar een van de ondersteunde indelingen en voer de query opnieuw uit.
Verwerking van ongestructureerde gegevens niet ondersteund model
Niet-gestructureerd model <model>
wordt niet ondersteund. Ondersteunde modellen zijn <supportedModels>
.
Schakel over naar een van de ondersteunde modellen en voer de query opnieuw uit.
ONGESTRUCTUREERDE_OCR_KOLOM_NIET_TOEGESTAAN_MET_METADATA_MODEL_OPTIE
De functieparameter ocrText moet worden NULL
of weggelaten wanneer de optie 'metadataModel' is opgegeven. Met een opgegeven optie 'metadataModel' wordt metagegevensextractie geactiveerd, waarbij een opgegeven ocrText verboden is.
NIET-ONDERSTEUND_BESTAND_TOEVOEGEN
Geen ondersteuning voor het toevoegen van een bestand.
Zie UNSUPPORTED_ADD_FILE voor meer informatie
ONGEONDERSTEUNDE_WIJZIG_KOLOM_PARAMETER
Het opgeven van <parameter>
met ALTER <commandTableType>
wordt niet ondersteund.
ONGEONDERSTEUND_PIJLTJESTYPE
Niet-ondersteund pijltype <typeName>
.
FUNCTIE_ONDERSTEUND_BATCH_TABEL_WAARDE_GEGEVEN
De functie <funcName>
biedt geen ondersteuning voor batchquery's.
ONDERSTEUNDE_NIET_OPROEP
Kan de methode ‘<methodName>
’ van de klasse ‘<className>
’ niet aanroepen.
Zie UNSUPPORTED_CALL voor meer informatie
NIET_ONDERSTEUND_CHAR_OF_VARCHAR_ALS_STRING
Het type char/varchar kan niet worden gebruikt in de tabelstructuur.
Als u wilt dat Spark deze als tekenreekstype behandelt als hetzelfde als Spark 3.0 en eerder, stelt u 'spark.sql.legacy.charVarcharAsString' in op 'true'.
ONDERSTEUNDE_CLAUSULE_VOOR_OPERATIE_NIET_INGESCHAKELD
De <clause>
wordt niet ondersteund voor <operation>
.
Niet-ondersteunde collatie
Sortering <collationName>
wordt niet ondersteund voor:
Zie UNSUPPORTED_COLLATION voor meer informatie
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
De gemeenschappelijke voorouder van bronpad en sourceArchiveDir moet worden geregistreerd bij UC.
Als u dit foutbericht ziet, registreert u waarschijnlijk het bronpad en sourceArchiveDir op verschillende externe locaties.
Plaats ze op één externe locatie.
NIET-ONDERSTEUNDE_BELEMMERINGSCONDITIES
Beperkingsclausules <clauses>
worden niet ondersteund.
ONGEONDERSTEUND_CONSTRAINT_TYPE
Niet-ondersteund type beperking. Alleen <supportedConstraintTypes>
worden ondersteund
NIET-ONDERSTEUNDE_DATABRON_VOOR_DIRECTE_VRAGEN
Niet-ondersteund gegevensbrontype voor directe query op bestanden: <dataSourceType>
Niet-ondersteund datatype
Niet-ondersteund gegevenstype <typeName>
.
ONDERSTEUNDE_DATA_BRON_OPSLA_MODUS
De gegevensbron<source>
kan niet worden geschreven in de modus <createMode>
. Gebruik in plaats daarvan de modus Toevoegen of Overschrijven.
NIET-ONDERSTEUND_GEGEVENSTYPE_VOOR_DATABRON
De <format>
gegevensbron biedt geen ondersteuning voor de kolom <columnName>
van het type <columnType>
.
NIET-ONDERSTEUND GEGEVENS-TYPE VOOR ENCODER
Kan geen encoder maken voor <dataType>
. Gebruik een ander uitvoergegevenstype voor uw UDF of DataFrame.
NIET-ONDERSTEUNDE_STANDAARDWAARDE
DEFAULT
kolomwaarden worden niet ondersteund.
Zie UNSUPPORTED_DEFAULT_VALUE voor meer informatie
NIET-ONDERSTEUNDE_DESERIALIZER
De deserializer wordt niet ondersteund:
Zie UNSUPPORTED_DESERIALIZER voor meer informatie
NOT_SUPPORTED_UITDRUKKING_GEGENEREERDE_KOLOM
Kan gegenereerde kolom <fieldName>
niet maken met generatie-expressie <expressionStr>
omdat <reason>
.
NIET-ONDERSTEUNDE_UITDRUKKING_VOOR_OPERATOR
Een queryoperator bevat een of meer niet-ondersteunde expressies.
Overweeg deze te herschrijven om vensterfuncties, statistische functies en generatorfuncties in de WHERE
component te voorkomen.
Ongeldige expressies: [<invalidExprSqls>
]
NIET-ONDERSTEUNDE UITDRUKKING VOOR PARAMETER
Een queryparameter bevat een niet-ondersteunde expressie.
Parameters kunnen variabelen of letterlijke waarden zijn.
Ongeldige expressie: [<invalidExprSql>
]
NIET-ONDERSTEUND_EXPRE_MET_VENSTER
Expressie <sqlExpr>
niet ondersteund binnen een vensterfunctie.
NIET_ONDERSTEUNDE_FUNCTIE
De functie wordt niet ondersteund:
Zie UNSUPPORTED_FEATURE voor meer informatie
Niet-ondersteund functietype
Niet-ondersteund door de gebruiker gedefinieerd functietype: <language>
UNSUPPORTED_GENERATOR
De generator wordt niet ondersteund:
Zie UNSUPPORTED_GENERATOR voor meer informatie
NIET-ONDERSTEUNDE_GROEPERING_UITDRUKKING
grouping()/grouping_id() kan alleen worden gebruikt met GroupingSets/Cube/Rollup.
NIET-ONDERSTEUND STARTPUNT EN TRIGGER COMBINATIE VOOR KINESIS BRON
<trigger>
met initiële positie <initialPosition>
wordt niet ondersteund met Kinesis-bron
UNSUPPORTED_INSERT
Kan niet invoegen in het doel.
Zie UNSUPPORTED_INSERT voor meer informatie
UNSUPPORTED_JOIN_TYPE
Niet ondersteund koppelingstype ‘<typ>
’. Ondersteunde join-typen zijn onder andere: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
Het maken van een beheerde tabel <tableName>
met behulp van gegevensbron <dataSource>
wordt niet ondersteund. U moet gegevensbron gebruiken DELTA
of een externe tabel maken met behulp van CREATE EXTERNAL TABLE <tableName>
...
USING <dataSource>
...
niet-ondersteunde samenvoegvoorwaarde
MERGE
bewerking bevat niet-ondersteunde <condName>
voorwaarde.
Zie UNSUPPORTED_MERGE_CONDITION voor meer informatie
NIET-ONDERSTEUNDE_GENESTE_RIJ_OF_KOLOM_TOEGANGSBELEID
Tabel <tableName>
heeft een beveiligingsbeleid op rijniveau of kolommasker dat indirect verwijst naar een andere tabel met een beveiligingsbeleid op rijniveau of kolommasker; dit wordt niet ondersteund. Oproepvolgorde: <callSequence>
UNSUPPORTED_OVERWRITE
Het doel dat ook wordt gelezen, kan niet worden overschreven.
Zie UNSUPPORTED_OVERWRITE voor meer informatie
NIET-ONDERSTEUNDE_PARTITIE_TRANSFORMATIE
Niet-ondersteunde partitietransformatie: <transform>
. De ondersteunde transformaties zijn identity
, bucket
en clusterBy
. Zorg ervoor dat uw transformatie-expressie een van deze gebruikt.
NIET-ONDERSTEUNDE_OPSLAAN_MODUS
De opslagmodus <saveMode>
wordt niet ondersteund voor:
Zie UNSUPPORTED_SAVE_MODE voor meer informatie
ONDERSTEUNDE_CREATE_SHOW_TABEL
Een SHOW CREATE TABLE
-opdracht wordt niet ondersteund.
Zie UNSUPPORTED_SHOW_CREATE_TABLE voor meer informatie
ONONDERSTEUNDE_ENKELSTAPS_ANALYSATOR_FUNCTIE
De analyse met één wachtwoord kan deze query of opdracht niet verwerken omdat deze nog geen ondersteuning biedt voor <feature>
.
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
uitvoermodus wordt niet ondersteund voor <statefulOperator>
op streaming DataFrames/DataSets zonder watermerk.
NIET-ONDERSTEUNDE_STREAMINGOPTIES_VOOR_BEELD
Niet ondersteund voor het streamen van een weergave. Reden:
Zie UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW voor meer informatie
ONDERSTEUNDE_STREAMING_OPTIES_TOESTEMMING_AFGEKONDIGD
Streamingopties <options>
worden niet ondersteund voor gegevensbron <source>
op een gedeeld cluster. Controleer of de opties juist zijn opgegeven en gespeld en controleerhttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode op beperkingen.
ONDERSTEUNDE_STREAMING_AFVOERTOESTEMMING_AFGEDWONGEN
Gegevensbron <sink>
wordt niet ondersteund als een streaming-sink op een gedeeld cluster.
Niet-ondersteunde streamingbronmachtiging afgedwongen
Gegevensbron <source>
wordt niet ondersteund als een streamingbron op een gedeeld cluster.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
De functie <funcName>
biedt geen ondersteuning voor streaming. Verwijder het STREAM
trefwoord
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
wordt niet ondersteund met de Kinesis-bron
ONDERSTEUNINGSONDERSTEUNDE_SUBQUERY_UITDRUKKINGSCATEGORIE
Niet-ondersteunde subquery-expressie:
Zie UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY voor meer informatie
NIET-ONDERSTEUNDE_TIJDREEKS_KOLOMMEN
Het maken van een primaire sleutel met tijdreekskolommen wordt niet ondersteund
NIET-ONDERSTEUNDE_TIJDREEKS_MET_MEER_DAN_EEN_KOLOM
Het maken van een primaire sleutel met meerdere tijdreekskolommen <colSeq>
wordt niet ondersteund
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
wordt niet ondersteund met de Kinesis-bron
UNSUPPORTED_TYPED_LITERAL
Letterlijke waarden van het type <unsupportedType>
worden niet ondersteund. Ondersteunde typen zijn <supportedTypes>
.
Niet-ondersteunde_UDF-functie
De functie <function>
maakt gebruik van de volgende functies waarvoor een nieuwere versie van Databricks-runtime is vereist: <features>
. Raadpleeg <docLink>
voor meer informatie.
NIET-ONDERSTEUNDE UDF-TYPEN OP DEZELFDE PLEK
UDF-typen kunnen niet samen worden gebruikt: <types>
UNTYPED_SCALA_UDF
U gebruikt niet-getypte Scala UDF, die niet beschikt over de invoertypegegevens.
Spark kan blindelings null doorgeven aan een Scala-closure met een argument van primitief type, en de closure zal dan de standaardwaarde van het Java-type voor het null-argument zien. Bijvoorbeeld: udf((x: Int) => x, IntegerType)
, het resultaat is 0 voor null-invoer. Als u deze fout wilt verwijderen, kunt u het volgende doen:
- gebruik van getypte Scala UDF-API's (zonder parameter voor retourtype), bijvoorbeeld
udf((x: Int) => x)
. - Java UDF API's gebruiken, bijvoorbeeld
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, als invoertypen allemaal niet-primitief zijn. - stel 'spark.sql.legacy.allowUntypedScalaUDF' in op 'true' en gebruik deze API met voorzichtigheid.
UPGRADE_NOT_SUPPORTED
Tabel komt niet in aanmerking voor een upgrade van Hive Metastore naar Unity Catalog. Reden:
Zie UPGRADE_NOT_SUPPORTED voor meer informatie
GEBRUIKERSGEDEFINIEERDE_FUNCTIES
Door de gebruiker gedefinieerde functie is ongeldig:
Zie USER_DEFINED_FUNCTIONS voor meer informatie
USER_RAISED_EXCEPTION
<errorMessage>
In cases where translation is necessary for clarity or localization, the term might be rendered as "GEBRUIKER_OPGEWEKTE_EXCEPTION_PARAMETER_MISMATCH". However, in most technical contexts, it is better to maintain the original English for consistency and accuracy.
De raise_error()
-functie is gebruikt om foutklasse te genereren: <errorClass>
die parameters verwacht: <expectedParms>
.
De opgegeven parameters <providedParms>
komen niet overeen met de verwachte parameters.
Zorg ervoor dat u alle verwachte parameters opgeeft.
GEBRUIKER_OPGEWEKT_UITZONDERING_ONBEKENDE_FOUT_KLASSE
De functie raise_error()
is gebruikt om een onbekende foutklasse te genereren: <errorClass>
VARIABLE_ALREADY_EXISTS
Kan de variabele niet maken <variableName>
omdat deze al bestaat.
Kies een andere naam of verwijder of vervang de bestaande variabele.
VARIABELE_NIET_GEVONDEN
De variabele <variableName>
kan niet worden gevonden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet hebt gekwalificeerd met een schema en catalogus, controleert u de current_schema() uitvoer of kwalificeren u de naam met het juiste schema en de juiste catalogus.
Gebruik DROP VARIABLE IF EXISTS
om de fout bij het neerzetten te tolereren.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Kan geen variant maken die groter is dan 16 MiB. De maximaal toegestane grootte van een variantwaarde is 16 MiB.
VARIANT_DUPLICAAT_SLEUTEL
Kan een variant niet maken vanwege een dubbele objectsleutel <key>
.
VARIANT_SIZE_LIMIT
Kan geen variant bouwen die groter is dan <sizeLimit>
in <functionName>
.
Vermijd grote invoertekenreeksen voor deze expressie (voeg bijvoorbeeld functie-aanroepen toe om de expressiegrootte te controleren en converteer deze eerst naar NULL
als deze te groot is).
VIEW_ALREADY_EXISTS
Kan de weergave <relationName>
niet maken omdat deze al bestaat.
Kies een andere naam, zet of vervang het bestaande object of voeg de IF NOT EXISTS
component toe om bestaande objecten te tolereren.
BEKIJK_ONGELEGEN_MAXIMALE_GENESTE_DIEPTE
De diepte van de weergave <viewName>
overschrijdt de maximale diepte van de weergaveresolutie (<maxNestedDepth>
).
Analyse wordt afgebroken om fouten te voorkomen. Als u dit wilt omzeilen, probeert u de waarde van 'spark.sql.view.maxNestedViewDepth' te verhogen.
WEERGAVE_NIET_GEVONDEN
De weergave <relationName>
kan niet worden gevonden. Controleer de spelling en juistheid van het schema en de catalogus.
Als u de naam niet hebt gekwalificeerd met een schema, controleert u de current_schema() uitvoer of kwalificeren u de naam met het juiste schema en de juiste catalogus.
Gebruik DROP VIEW IF EXISTS
om de fout bij het neerzetten te tolereren.
VOLUME_BESTAAT_AL
Kan geen volume maken <relationName>
omdat deze al bestaat.
Kies een andere naam, zet of vervang het bestaande object of voeg de IF NOT EXISTS
component toe om bestaande objecten te tolereren.
Vensterfunctie_en_framemismatch
<funcName>
functie kan alleen worden geëvalueerd in een geordende rij-gebaseerde vensterframe met één offset: <windowExpr>
.
VENSTER_FUNCTIE_ZONDER_OVER_CLAUSE
De functie Window <funcName>
vereist een OVER-component.
WITH_CREDENTIAL
WITH CREDENTIAL
syntaxis wordt niet ondersteund voor <type>
.
SCHRIJVEN_OP_STREAM_NIET_TOEGESTAAN
writeStream
kan alleen worden aangeroepen voor een streaming Dataset/DataFrame.
VERKEERDE_KOLOM_STANDAARDWAARDEN_VOOR_DELTA_ALTER_TABEL_VOEG_KOLOM_TOE_NIET_ONDERSTEUND
Kan de opdracht niet uitvoeren omdat DEFAULT
waarden niet worden ondersteund bij het toevoegen van nieuwe waarden
kolommen naar eerder bestaande Delta-tabellen; voeg de kolom toe zonder een standaardwaarde
eerst de waarde, en voer vervolgens een tweede ALTER TABLE ALTER COLUMN SET DEFAULT
opdracht uit om het toe te passen
voor toekomstige ingevoegde rijen.
VERKEERDE KOLOMSTANDAARDEN_VAN_NIET_INGESCHAKELDE_DELTA_FUNCTIE
Kan <commandType>
opdracht niet uitvoeren omdat er een kolom DEFAULT
waarde is toegewezen,
maar de bijbehorende tabelfunctie is niet ingeschakeld. Probeer de opdracht opnieuw
na het uitvoeren van ALTER TABLE
tabelnaam SET
TBLPROPERTIES
('delta.feature.allowColumnDefaults' = 'supported').
VERKEERD_OPDRACHT_VOOR_OBJECTTYPE
Voor de bewerking <operation>
is een <requiredType>
vereist. Maar <objectName>
is een <foundType>
. Gebruik in plaats daarvan <alternative>
.
WRONG_NUM_ARGS
De <functionName>
vereist <expectedNum>
parameters, maar het werkelijke getal is <actualNum>
.
Zie WRONG_NUM_ARGS voor meer informatie
XML_ROW_TAG_MISSING (XML-rij-tag ontbreekt)
<rowTag>
optie is vereist voor het lezen van bestanden in XML-indeling.
XML_ONDERSTEUNT_GENESTE_TYPEN_NIET
XML biedt geen ondersteuning voor <innerDataType>
als binnenste type <dataType>
. Verpak de <innerDataType>
in een StructType-veld wanneer u het in <dataType>
gebruikt.
XML_JOKERTEKEN_BEWAARDE_GEGEVENS_CONFLICTFOUT
Geredde gegevens en jokertekenkolom kunnen niet tegelijkertijd worden ingeschakeld. Verwijder de optie wildcardcolumnName.
KOLOM_VOLGORDE_BESTAAT_NIET
ZOrderBy-kolom <columnName>
bestaat niet.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Kan actieve SparkSession niet vinden
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Kan een nieuwe txn niet instellen als actief wanneer er al een actief is
FOUT BIJ HET TOEVOEGEN VAN KOLOM MET INTERNE NAAM IN DELTA
Kan kolom <colName>
niet toevoegen omdat de naam is gereserveerd.
Toevoegen van verwijderingsvectoren niet toegestaan.
De huidige bewerking heeft geprobeerd een verwijderingsvector toe te voegen aan een tabel die het maken van nieuwe verwijderingsvectoren niet toestaat. Dien een foutenrapport in.
TOEVOEGEN_VAN_VERWIJDERINGSVECTOR_MET_STRIKTE_GRENSEN_NIET_TOEGESTAAN
Alle bewerkingen die verwijderingsvectoren toevoegen, moeten de kolom TightBounds in statistieken instellen op false. Dien een foutenrapport in.
DELTA_KOLOM_TOEVOEGEN_BIJ_INDEX_MINDER_DAN_NUL
Index <columnIndex>
voor het toevoegen van kolom <columnName>
lager is dan 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Kan <columnName>
niet toevoegen omdat het bovenliggende element geen StructType is. Gevonden <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct niet gevonden op positie <position>
DELTA_ADD_CONSTRAINTS
Gebruik ALTER TABLE
ADD-CONSTRAINT
om CHECK
beperkingen toe te voegen.
DELTA_AGGREGATIE_IN_GENEREERDE_KOLOM
Gevonden <sqlExpr>
. Een gegenereerde kolom kan geen statistische expressie gebruiken
DELTA_AGGREGATIE_NIET_ONDERSTEUND
Aggregatiefuncties worden niet ondersteund in de <operation> <predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Kan de collatie van de kolom <column>
niet wijzigen omdat deze een bloomfilterindex heeft. Behoud de bestaande sortering of verwijder anders de bloomfilter-index en probeer de opdracht opnieuw om de sortering te wijzigen.
DELTA_ALTER_COLLATIE_NIET_ONDERSTEUND_CLUSTEREN_OP
Kan de sortering van de kolom <column>
niet wijzigen omdat het een clusterkolom is. Behoud de bestaande sortering of wijzig de kolom in een niet-clusteringkolom met een opdracht ALTER TABLE
en voer de opdracht opnieuw uit om de sortering te wijzigen.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN
wordt niet ondersteund voor het wijzigen van kolom <currentType>
in <newType>
DELTA_WIJZIG_TABEL_CLUSTEREN_NIET_TOEGESTAAN
ALTER TABLE CLUSTER BY
wordt alleen ondersteund voor Delta-tabellen met Liquid-clustering.
DELTA_TABEL_AANPASSEN_CLUSTEREN_OP_OP_PARTITIONEERDE_TABEL_NIET_TOEGESTAAN
ALTER TABLE CLUSTER BY
kan niet worden toegepast op een gepartitioneerde tabel.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Bewerking niet toegestaan: ALTER TABLE RENAME
TO is niet toegestaan voor beheerde Delta-tabellen op S3, omdat uiteindelijke consistentie op S3 het Delta-transactielogboek kan beschadigen. Als u dit wilt doen en er zeker van bent dat er nog nooit een Delta-tabel met de nieuwe naam <newName>
is geweest, kunt u dit inschakelen door <key>
in te stellen op waar.
DELTA_ALTER_TABEL_SET_CLUSTERING_TABLE_FEATURE_NIET_TOEGESTAAN
Kan <tableFeature>
tabelfunctie niet inschakelen met behulp van ALTER TABLE SET TBLPROPERTIES
. Gebruik CREATE
OF REPLACE TABLE CLUSTER BY
om een Delta-tabel te maken met clustering.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE (ambigue gegevenstypemutatie)
Kan het gegevenstype van <column>
niet wijzigen van <from>
in <to>
. Deze wijziging bevat kolomverwijderingen en toevoegingen, daarom zijn ze dubbelzinnig. Breng deze wijzigingen afzonderlijk aan met ALTER TABLE
[TOEVOEGEN | DROP | RENAME
] COLUMN
.
DELTA_TWEEZINNIGE_PARTITIE_KOLOM
Onduidelijke partitiekolom <column>
kan <colMatches>
zijn.
DELTA_AMBIGUEUZE_PADEN_IN_CREATE_TABEL
CREATE TABLE
bevat twee verschillende locaties: <identifier>
en <location>
.
U kunt de LOCATION
-component uit de CREATE TABLE
-instructie verwijderen of instellen
<config>
op true zetten om deze controle over te slaan.
DELTA_Gearchiveerde_Bestanden_Binnen_Limiet
Tabel <table>
bevat niet voldoende records in niet-gearchiveerde bestanden om te voldoen aan de opgegeven LIMIT
van <limit>
records.
Verschil_gearchiveerde_bestanden_in_scan
Gevonden <numArchivedFiles>
mogelijk gearchiveerde bestanden in tabel <table>
die moeten worden gescand als onderdeel van deze query.
Gearchiveerde bestanden kunnen niet worden geopend. De huidige periode voor archivering is geconfigureerd als <archivalTime>
.
Pas uw queryfilters aan om gearchiveerde bestanden uit te sluiten.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
Bewerking "<opName>
" is niet toegestaan wanneer de tabel wijzigingsgegevensfeed (CDF) heeft ingeschakeld en schemawijzigingen heeft ondergaan met behulp van DROP COLUMN
of RENAME COLUMN
.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Kan geen bloomfilterindexen verwijderen voor de volgende niet-bestaande kolom(men): <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError is opgetreden tijdens het schrijven van bloeifilterindexen voor de volgende kolom(en): <columnsWithBloomFilterIndices>
.
U kunt de geheugenvoetafdruk van bloeifilterindexen verminderen door een kleinere waarde te kiezen voor de optie numItems, een grotere waarde voor de optie FPP of door minder kolommen te indexeren.
DELTA_KAN_DATATYPE_NIET_WIJZIGEN
Kan het gegevenstype niet wijzigen: <dataType>
DELTA_KAN_LOCATIE_NIET_VERANDEREN
Kan de 'locatie' van de Delta-tabel niet wijzigen met behulp van SET TBLPROPERTIES
. Gebruik in plaats daarvan ALTER TABLE SET LOCATION
.
DELTA_KAN_DE_PROVIDER_NIET_WIJZIGEN
Provider is een gereserveerde tabeleigenschap en kan niet worden gewijzigd.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Kan geen bloeifilterindexen maken voor de volgende niet-bestaande kolommen: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Kan geen <path>
maken
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Kan de geschiedenis van een weergave niet beschrijven.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Kan de bloomfilterindex niet verwijderen voor een niet-geïndexeerde kolom: <columnName>
DELTA_KAN_CHECK-CONSTRAINTFUNCTIE_NIET_VERWIJDEREN.
Kan de beperkingenstabel-functie CHECK
niet verwijderen.
De volgende beperkingen moeten eerst worden verwijderd: <constraints>
.
DELTA_KAN_COLLATION_FEATURES_NIET_VERWIJDEREN
Kan de sorteringstabelfunctie niet verwijderen.
Kolommen met niet-standaardsorteringen moeten eerst worden gewijzigd naar het gebruik van UTF8_BINARY: <colNames>
.
DELTA_KAN_UITDRUKKING_NIET_EVALUEREN
Kan expressie niet evalueren: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Een Bucketing Delta-tabel verwachten, maar kan de bucketspecificatie niet vinden in de tabel
DELTA_KAN_GEEN_CODE_GENEREREN_VOOR_UITDRUKKING
Kan geen code genereren voor expressie: <expression>
DELTA_KAN_ALLEEN_TOEVOEGEN_NIET_WIJZIGEN
Deze tabel is zo geconfigureerd dat alleen toevoeggegevens zijn toegestaan. Als u updates of verwijderingen wilt toestaan, gebruikt u 'ALTER TABLE
<table_name>SET TBLPROPERTIES (<config>
=false)'.
DELTA_KAN_GECOÖRDINEERDE_COMMIT-AFHANKELIJKHEDEN_NIET_WIJZIGEN
Kan <Command>
niet de tabeleigenschappen voor in-commit tijdstempels overschrijven of ongedaan maken omdat gecoördineerde commits in deze tabel zijn ingeschakeld en hierop vertrouwen. Verwijder ze ('delta.enableInCommitTimestamps', 'delta.inCommitTimestampEnablementVersion', 'delta.inCommitTimestampEnablementTimestamp') uit de TBLPROPERTIES
-clausule en voer de opdracht opnieuw uit.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
De deltatabelconfiguratie <prop>
kan niet worden opgegeven door de gebruiker
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
kan de configuraties van gecoördineerde commits voor een bestaande doeltabel niet overschrijven. Verwijder ze ('delta.coordinatedCommits.commitCoordinator-preview', 'delta.coordinatedCommits.commitCoordinatorConf-preview', 'delta.coordinatedCommits.tableConf-preview') uit de TBLPROPERTIES
-clausule en probeer het commando opnieuw.
DELTA_KAN_PAD_NIET_HERSTELLEN_VAN_URI
Er is een URI (<uri>
) gevonden die niet kan worden omgezet in een relatief pad in het transactielogboek.
DELTA_KAN_PADNIET_RELATIVISEREN
Een pad (<path>
) dat niet kan worden gerelativeerd met de huidige invoer in de
transactielogboek. Voer dit opnieuw uit als:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
en voer vervolgens ook het volgende uit:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
Kan de naam van <currentPath>
niet wijzigen in <newPath>
DELTA_KAN_ONTBREKENDE_TABEL_NIET_VERVANGEN
Tabel <tableName>
kan niet worden vervangen omdat deze niet bestaat. Gebruik CREATE
OR-REPLACE TABLE
om de tabel te maken.
DELTA_CANNOT_RESOLVE_COLUMN
Kan kolom <columnName>
niet oplossen in <schema>
DELTA_KAN_TABELVERSIE_NIET_HERSTELLEN
Kan tabel niet herstellen naar versie <version>
. Beschikbare versies: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Kan tabel niet herstellen naar tijdstempel (<requestedTimestamp>
) zoals deze is vóór de vroegste beschikbare versie. Gebruik een tijdstempel hierna (<earliestTimestamp>
).
DELTA_KAN_TIJDSTEMPEL_NIET_HERSTELLEN_GROTER
Kan de tabel niet herstellen naar een tijdstempel (<requestedTimestamp>
) omdat deze na de meest recente beschikbare versie is. Gebruik een tijdstempel voor (<latestTimestamp>
)
KAN_GECOÖRDINEERDE_OPGEVEN_VERBONDEN_COMMITS_NIET_INSTELLEN
<Command>
kan de eigenschappen van de tijdstempeltabel tijdens de doorvoer niet samen met gecoördineerde doorvoeringen instellen, omdat de laatste afhankelijk is van de eerste en deze intern instelt. Verwijder ze ('delta.enableInCommitTimestamps', 'delta.inCommitTimestampEnablementVersion', 'delta.inCommitTimestampEnablementTimestamp') uit de TBLPROPERTIES
-clausule en voer de opdracht opnieuw uit.
DELTA_KAN_GEEN_LOCATIE_INSTELLEN_OP_PAD_IDENTIFIER
Kan de locatie van een op pad gebaseerde tabel niet wijzigen.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Kan delta.managedDataSkippingStatsColumns niet instellen op een niet-DLT-tabel
DELTA_CANNOT_SET_UC_COMMIT_COORDINATOR_CONF_IN_COMMAND
Wanneer u unity-catalog inschakelt als de doorvoercoördinator, kan configuratie "<configuration>
" niet worden ingesteld vanuit de opdracht. Verwijder deze uit de TBLPROPERTIES
-component en voer de opdracht opnieuw uit.
DELTA_KAN_UC_COMMIT_COORDINATOR_CONF_NIET_INSTELLEN_IN_SESSIE
Wanneer u unity-catalog inschakelt als de doorvoercoördinator, kan configuratie<configuration>
niet worden ingesteld vanuit de SparkSession-configuraties. Maak dit ongedaan door spark.conf.unset("<configuration>")
uit te voeren en voer de opdracht opnieuw uit.
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER
kan de configuraties van gecoördineerde commits niet terugdraaien. Als u een tabel wilt downgraden van gecoördineerde commits, probeer het opnieuw met behulp van ALTER
TABLE [table-name] ``DROP FEATURE`` ‘coordinatedCommits-preview’
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD (foutmelding: kan array-veld niet bijwerken)
Kan %1$s veldtype %2$s niet bijwerken: het element bijwerken door %2$s.element bij te werken
DELTA_CANNOT_UPDATE_MAP_FIELD
Kan %1$s veldtype %2$s niet bijwerken: een kaart bijwerken door %2$s.key of %2$s.value bij te werken
DELTA_CANNOT_UPDATE_OTHER_FIELD
Kan <tableName>
veld van het type <typeName>
niet bijwerken
DELTA_KAN_STRUCTUURVELD_NIET_BIJWERKEN
Kan <tableName>
veld <fieldName>
type niet bijwerken: struct bijwerken door velden toe te voegen, te verwijderen of bij te werken.
DELTA_KAN_NIET_ALLE_KOLOMMEN_GEBRUIKEN_VOOR_PARTITIONERING
Kan niet alle kolommen gebruiken voor partitiekolommen
DELTA_CANNOT_VACUUM_LITE
VACUUM
LITE kan niet alle in aanmerking komende bestanden verwijderen, omdat naar sommige bestanden niet wordt verwezen door het Delta-logboek. Voer VACUUM FULL
uit.
DELTA_KAN_NIET_SCHRIJVEN_IN_WEERGAVE
<table>
is een weergave. Schrijfbewerkingen naar een weergave worden niet ondersteund.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Kan geen waarde schrijven van <sourceType>
type in de kolom <targetType>
type <columnName>
vanwege een overloop.
Gebruik try_cast
voor de invoerwaarde om in plaats daarvan overloop te tolereren en NULL
te retourneren.
Stel indien nodig <storeAssignmentPolicyFlag>
in op "LEGACY
" om deze fout te omzeilen of stel <updateAndMergeCastingFollowsAnsiEnabledFlag>
in op true om terug te keren naar het oude gedrag en <ansiEnabledFlag>
in UPDATE
en MERGE
te volgen.
DELTA_CDC_NIET_TOEGESTAAN_IN_DEZE_VERSIE
Configuratie delta.enableChangeDataFeed kan niet worden ingesteld. Wijzigingsgegevensfeed van Delta is nog niet beschikbaar.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Het ophalen van tabelwijzigingen tussen versie <start>
en <end>
is mislukt vanwege een niet-compatibel gegevensschema.
Uw leesschema is <readSchema>
in versie <readVersion>
, maar er is een niet-compatibel gegevensschema gevonden op versie <incompatibleVersion>
.
Haal indien mogelijk de tabelwijzigingen op met behulp van het schema van de eindversie door <config>
in te stellen op endVersion
of neem contact op met de ondersteuning.
DELTA_WIJZIGING_GEGEVENS_FEED_ONVERENIGBARE_SCHEMA_WIJZIGING
Het ophalen van tabelwijzigingen tussen versie <start>
en <end>
is mislukt vanwege een incompatibele schemawijziging.
Uw leesschema is <readSchema>
op versie <readVersion>
, maar er is een incompatibele schemawijziging op versie <incompatibleVersion>
aangetroffen.
Indien mogelijk kunt u tabelwijzigingen afzonderlijk opvragen van versie <start>
naar <incompatibleVersion>
- 1, en van versie <incompatibleVersion>
tot <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Bestand <filePath>
waarnaar in het transactielogboek wordt verwezen, kan niet worden gevonden. Dit kan gebeuren wanneer gegevens handmatig uit het bestandssysteem zijn verwijderd in plaats van de instructie tabel DELETE
te gebruiken. Deze aanvraag lijkt gericht te zijn op Wijzigingengegevensfeed, als dat het geval is, kan deze fout optreden wanneer het wijzigingsgegevensbestand buiten de bewaarperiode valt en is verwijderd door de VACUUM
-instructie. Zie <faqPath>
voor meer informatie
DELTA_WIJZIGINGSTABEL_FEED_UITSCHAKELD
Kan niet schrijven naar tabel met delta.enableChangeDataFeed-set. Wijzigingsgegevensfeed van Delta is niet beschikbaar.
DELTA_CONTROLEPUNT_NIET_BESTAANDE_TABEL
Kan geen niet-bestaande tabel controleren <path>
. Hebt u bestanden in de _delta_log map handmatig verwijderd?
DELTA_CLONE_AMBIGUOUS_TARGET
Er zijn twee paden opgegeven als doel CLONE
, waardoor het onduidelijk is welk pad te gebruiken. Een externe factor
locatie voor CLONE
is opgegeven op <externalLocation>
tegelijkertijd als het pad
<targetIdentifier>
.
DELTA_CLONE_ONVOLLEDIGE_BESTANDSKOPIE
Het bestand (<fileName>
) is niet volledig gekopieerd. Verwachte bestandsgrootte: <expectedSize>
, gevonden: <actualSize>
. Als u door wilt gaan met de bewerking door de controle van de bestandsgrootte te negeren, stelt u <config>
in op false.
DELTA_CLONE_NIET_ONGEACHT_BRON
Niet-ondersteunde <mode>
kloonbron '<name>
', waarvan de indeling <format>
is.
De ondersteunde indelingen zijn 'delta', 'iceberg' en 'parquet'.
DELTA_KLONEN_VAN_CLUSTERING_TABEL_NIET_ONDERSTEUND
CLONE
wordt niet ondersteund voor Delta-tabellen met Liquid-clustering voor DBR-versie < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY
wordt niet ondersteund omdat de volgende kolommen: <columnsWithDataTypes>
geen ondersteuning bieden voor het overslaan van gegevens.
KLUWERING_KOLOMMEN_MISMATCH_DELTA
De opgegeven clusterkolommen komen niet overeen met de bestaande tabel.
- verstrekt:
<providedClusteringColumns>
- bestaand:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Voor liquide clustering moeten clusteringkolommen statistieken hebben. Kan clusteringkolom(s) '<columns>
' niet vinden in het statistiekenschema:
<schema>
DELTA_CLUSTERING_MAAK_EXTERN_NIET-VLOEIBAAR_TABEL_VANAF_VLOEIBAAR_TABEL
Het maken van een externe tabel zonder vloeistofclustering vanuit een tabelmap met liquide clustering is niet toegestaan; pad: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' biedt geen ondersteuning voor clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Kan de <phaseOutType>
van de tabel niet voltooien met <tableFeatureToAdd>
tabelfunctie (reden: <reason>
). Probeer de opdracht OPTIMIZE
opnieuw.
== Fout ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE
een Delta-tabel met Liquid-clustering met een gepartitioneerde tabel is niet toegestaan.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE
wordt niet ondersteund voor Delta-tabellen met Liquid-clustering zonder clusteringkolommen.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
De overgang van een Delta-tabel met Liquid-clustering naar een gepartitioneerde tabel is niet toegestaan voor bewerkingen: <operation>
, wanneer de bestaande tabel niet-lege clusteringkolommen bevat.
Voer ALTER TABLE CLUSTER BY
NONE uit om eerst de clusterkolommen te verwijderen.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
De overschrijfmodus voor dynamische partities is niet toegestaan voor Delta-tabellen met Liquid-clustering.
DELTA_CLUSTERING_MET_PARTITIEVOORWAARDE
OPTIMIZE
opdracht voor Delta-tabel met Liquid-clustering biedt geen ondersteuning voor partitiepredicaten. Verwijder de predicaten: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
OPTIMIZE
opdracht voor Delta-tabel met Liquid-clustering kan geen ZORDER BY
opgeven. Verwijder ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY
voor Liquid-clustering ondersteunt maximaal <numColumnsLimit>
clusteringkolommen, maar de tabel heeft <actualNumColumns>
clusterkolommen. Verwijder de extra clustering-kolommen.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Het is niet toegestaan om CLUSTER BY
op te geven wanneer het schema niet is gedefinieerd. Definieer het schema voor tabel <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering en bucketing kunnen niet tegelijkertijd worden opgegeven. Verwijder CLUSTERED BY INTO BUCKETS
/bucketBy als u een Delta-tabel wilt maken met clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Clustering en partitionering kunnen niet beide worden opgegeven. Verwijder PARTITIONED BY
/ partitionBy / partitionedBy als u een Delta-tabel met clustering wilt maken.
Delta-sorteringen niet ondersteund
Sorteringen worden niet ondersteund in Delta Lake.
DELTA_KOLOM_DATA_VERKORTING_NIET_ONDERSTEUND_GEPARTITIONEERDE_KOLOM
Gegevens overslaan wordt niet ondersteund voor partitiekolom '<column>
'.
DELTA_KOLOM_DATA_OVERSLAAN_NIET_ONDERSTEUND_TYPE
Gegevens overslaan wordt niet ondersteund voor kolom '<column>
' van het type <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
De eigenschap max column id (<prop>
) is niet ingesteld op een tabel waarvoor kolomtoewijzing is ingeschakeld.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
De eigenschap max column id (<prop>
) voor een tabel waarvoor kolomtoewijzing is ingeschakeld, is <tableMax>
, die niet kleiner kan zijn dan de maximale kolom-id voor alle velden (<fieldMax>
).
DELTA_KOLOM_ONTBREKEND_TYPE_GEGEVENS
Het gegevenstype van de kolom <colName>
is niet opgegeven.
DELTA_COLUMN_NOT_FOUND
Kan de kolom niet vinden <columnName>
gegeven [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Kan de kolom '<targetCol>
' van de doeltabel niet vinden uit de INSERT
kolommen: <colNames>
.
INSERT
component moet waarde opgeven voor alle kolommen van de doeltabel.
DELTA_KOLOM_NIET_GEVONDEN_IN_SCHEMA
Kan kolom <columnName>
niet vinden in:
<tableSchema>
DELTA_KOLOMPAD_NIET_GENEST
Verwacht dat <columnPath>
een genest gegevenstype zou zijn, maar <other>
werd gevonden. Was op zoek naar de
index van <column>
in een genest veld.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
De Struct kolom <source>
kan niet worden ingevoegd in een veld <targetType>
<targetField>
in <targetTable>
.
DELTA_COMMIT_INTERMEDIATE_REDIRECT_STATE
Kan het doorvoeren van tabellen binnen omleidingstabelstatus '<state>
' niet verwerken.
DELTA_COMPACTION_VALIDATION_FAILED (Validering van Delta-compressie is mislukt)
De validatie van de compressie van het pad <compactedPath>
naar <newPath>
is mislukt: dien een foutenrapport in.
DELTA_COMPLEX_TYPE_KOLOM_BEVAT_NULL_TYPE
Geneste NullType gevonden in kolom <columName>
, die tot <dataType>
behoort. Delta biedt geen ondersteuning voor het schrijven van NullType in complexe typen.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: Bestanden zijn toegevoegd aan <partition>
door een gelijktijdige update. <retryMsg> <conflictingCommit>
Raadpleeg <docLink>
voor meer informatie.
DELTA_GELIJKTIJDIGE_VERWIJDERING删除
ConcurrentDeleteDeleteException: deze transactie heeft geprobeerd een of meer bestanden te verwijderen die zijn verwijderd (bijvoorbeeld <file>
) door een gelijktijdige update. Probeer de bewerking opnieuw.<conflictingCommit>
Raadpleeg <docLink>
voor meer informatie.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: deze transactie heeft geprobeerd een of meer bestanden te lezen die zijn verwijderd (bijvoorbeeld <file>
) door een gelijktijdige update. Probeer de bewerking opnieuw.<conflictingCommit>
Raadpleeg <docLink>
voor meer informatie.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: deze fout treedt op wanneer meerdere streamingquery's hetzelfde controlepunt gebruiken om naar deze tabel te schrijven. Hebt u meerdere exemplaren van dezelfde streamingquery tegelijkertijd uitgevoerd?<conflictingCommit>
Raadpleeg <docLink>
voor meer informatie.
DELTA_GELIJKTIJDIG_SCHRIJVEN
ConcurrentWriteException: Een gelijktijdige transactie heeft nieuwe gegevens geschreven sinds de huidige transactie de tabel leest. Probeer de bewerking opnieuw.<conflictingCommit>
Raadpleeg <docLink>
voor meer informatie.
DELTA_CONFLICTEER_SET_KOLOM
Deze SET
kolommen veroorzaken een conflict met <columnList>
.
DELTA_CONF_OVERRIDE_NIET_ONDERSTEUND_IN_OPDRACHT
Tijdens <command>
kan configuratie<configuration>
niet worden ingesteld vanuit de opdracht. Verwijder deze uit de TBLPROPERTIES
-component en voer de opdracht opnieuw uit.
DELTA_CONF_OVERRIDE_NIET_ONDERSTEUND_IN_SESSIE
Tijdens <command>
kan configuratie<configuration>
niet worden ingesteld vanuit de SparkSession-configuraties. Maak dit ongedaan door spark.conf.unset("<configuration>")
uit te voeren en voer de opdracht opnieuw uit.
DELTA_BEPERKING_BESTAAT_AL
De beperking '<constraintName>
' bestaat al. Verwijder eerst de oude beperking.
Oude beperking:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
Kolom <columnName>
heeft <columnType>
gegevenstype en kan niet worden gewijzigd in het gegevenstype <dataType>
omdat naar deze kolom wordt verwezen door de volgende controlebeperking(en):
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Kan kolom <columnName>
niet wijzigen omdat naar deze kolom wordt verwezen door de volgende controlebeperking(en):
<constraints>
DELTA_BEPERKING_BESTAAT_NIET
Kan niet-bestaande beperking <constraintName>
niet verwijderen uit tabel <tableName>
. Als u een fout wilt voorkomen, geeft u de parameter IF EXISTS
op of stelt u de SQL-sessieconfiguratie in <config>
op <confValue>
.
DELTA_CONVERSION_MERGE_ON_READ_NOT_SUPPORTED
Conversie van <format>
-tabel samenvoegen bij lezen wordt niet ondersteund: <path>
, <hint>
DELTA_CONVERSIE_GEEN_PARTITIE_GEVONDEN
Er zijn geen partitiegegevens gevonden in de catalogus voor tabel <tableName>
. Hebt u MSCK REPAIR TABLE
op de tabel uitgevoerd om partities te detecteren?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Kan de Parquet-tabel met geordende partitiekolom <colName>
niet converteren naar Delta.
DELTA_CONVERSIE_NIET_ONDERSTEUNDE_KOLOMTOEWIJZING
De configuratie<config>
kan niet worden ingesteld op <mode>
wanneer u CONVERT
TO DELTA
gebruikt.
DELTA_CONVERSIE_NIET_ONDERSTEUNDE_SCHEMA_WIJZIGING
Niet-ondersteunde schemawijzigingen gevonden voor <format>
tabel: <path>
, <hint>
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT
TO DELTA
ondersteunt alleen parquet-tabellen, maar u probeert een <sourceName>
bron te converteren: <tableId>
DELTA_CONVERSIE_NAAR_DELTA_RIJ_VOLGEN_ZONDER_STATISTIEKEN
Het bijhouden van rijen kan niet worden ingeschakeld zonder statistieken te verzamelen.
Volg deze stappen als u rijtracking wilt inschakelen:
- Verzameling statistieken inschakelen door de opdracht uit te voeren
SET <statisticsCollectionPropertyKey>
= true
- Voer
CONVERT
TODELTA
uit zonder de optie GEENSTATISTICS
.
Als u geen statistieken wilt verzamelen, schakelt u het bijhouden van rijen uit:
- Schakel het inschakelen van de tabelfunctie standaard uit door de opdracht uit te voeren:
RESET <rowTrackingTableFeatureDefaultKey>
- De tabeleigenschap standaard deactiveren door het volgende uit te voeren:
SET <rowTrackingDefaultPropertyKey>
= onwaar
DELTA_KOPIE_NAAR_DOELFORMaat
COPY INTO
doel moet een Delta-tabel zijn.
DELTA_MAAK_EXTERN_TABEL_ZONDER_SCHEMA
U probeert een externe tabel te maken <tableName>
Van <path>
met behulp van Delta, maar het schema is niet gespecificeerd wanneer de
invoerpad is leeg.
Zie <docLink>
voor meer informatie over Delta
DELTA_MAAK_EXTERN_TABEL_ZONDER_TXN_LOG
U probeert een externe tabel te maken <tableName>
van %2$s
met behulp van Delta, maar er is geen transactielogboek aanwezig
%2$s/_delta_log
. Controleer de upstream-taak om ervoor te zorgen dat deze wordt geschreven met behulp van
format("delta") en dat het pad de root van de tabel is.
Zie <docLink>
voor meer informatie over Delta
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Het maken van een deltatabel op basis van een pad met een andere locatie wordt niet ondersteund. Id: <identifier>
, locatie: <location>
DELTA_TABEL_MAKEN_ONTBREEKT_TABELNAAM_OF_LOCATIE
De tabelnaam of -locatie moet worden opgegeven.
DELTA_CREATE_TABLE_SCHEME_MISMATCH (Fout bij het aanmaken van tabel vanwege schema-mismatch)
Het opgegeven schema komt niet overeen met het bestaande schema op <path>
.
== Opgegeven ==
<specifiedSchema>
== Bestaand ==
<existingSchema>
== Verschillen ==
<schemaDifferences>
Als u het bestaande schema wilt behouden, kunt u het volgende weglaten
schema van de opdracht Tabel maken. Zorg er anders voor dat
het schema komt overeen.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FUNCTIE_NIET_TOEGESTAAN
Kan <tableFeature>
tabelfunctie niet inschakelen met behulp van TBLPROPERTIES
. Gebruik CREATE
OF REPLACE TABLE CLUSTER BY
om een Delta-tabel te maken met clustering.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
De opgegeven clusteringkolommen komen niet overeen met de bestaande clusterkolommen op <path>
.
== Opgegeven ==
<specifiedColumns>
== Bestaand ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
De opgegeven partitionering komt niet overeen met de bestaande partitionering op <path>
.
== Opgegeven ==
<specifiedColumns>
== Bestaand ==
<existingColumns>
DELTA_TABEL_MAKEN_MET_VERSCHILLENDE_EIGENSCHAP
De opgegeven eigenschappen komen niet overeen met de bestaande eigenschappen op <path>
.
== Opgegeven ==
<specifiedProperties>
== Bestaand ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Kan tabel ('<tableId>
') niet maken. De bijbehorende locatie ('<tableLocation>
') is niet leeg en is ook geen Delta-tabel.
DELTA_DATA_CHANGE_FALSE
Kan de metagegevens van de tabel niet wijzigen omdat de optie 'dataChange' is ingesteld op false. Poging tot bewerking: '<op>
'.
DELTA_VERWIJDERD_PARQUET_BESTAND_NIET_GEVONDEN
Bestand <filePath>
waarnaar in het transactielogboek wordt verwezen, kan niet worden gevonden. Dit Parquet-bestand kan worden verwijderd onder het bewaarbeleid voor gegevens van Delta.
Standaardretentieduur voor Delta-gegevens: <logRetentionPeriod>
. Wijzigingstijd van het parquet-bestand: <modificationTime>
. Verwijderingstijd van het parquet-bestand: <deletionTime>
. Verwijderd op Delta-versie: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Het is ongeldig om bestanden door te voeren met verwijderingsvectoren die de statistiek numRecords ontbreken.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Gedetecteerde domainMetadata-actie(s) voor domeinen <domainNames>
, maar DomainMetadataTableFeature is niet ingeschakeld.
DELTA_VERWIJDER_KOLOM_BIJ_INDEX_LAGER_DAN_NUL
Index <columnIndex>
om de kolom te verwijderen is lager dan 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Kan de kolom niet verwijderen uit een schema met één kolom. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
Bestandsbewerking '<actionType>
' voor pad <path>
is meerdere keren opgegeven.
Het conflicteert met <conflictingPath>
.
Het is niet toegestaan dat meerdere bestandsbewerkingen met hetzelfde pad in één doorvoering voorkomen.
DELTA_DUPLICATE_KOLOMMEN_GEVONDEN
Dubbele kolommen gevonden <coltype>
: <duplicateCols>
DELTA_DUBBELE_KOLOMMEN_BIJ_INSERTIE
Dubbele kolomnamen in INSERT
clausule
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Verwijder dubbele kolommen voordat u de tabel bijwerkt.
DELTA_DUBBEL_DATA_OVERSLAANDE_KOLOMMEN
Gedupliceerde gegevens waarbij kolommen worden overgeslagen gevonden: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Interne fout: twee DomainMetadata-acties binnen dezelfde transactie hebben hetzelfde domein <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATION
Kan de histogram van de verwijderde recordaantallen niet deserialiseren tijdens de verificatie van de tabelintegriteit.
DELTA_DYNAMISCHE_PARTITIE_OVERSCHRIJVEN_UITGESCHAKELD
De overschrijfmodus voor dynamische partities wordt opgegeven door sessieconfiguratie- of schrijfopties, maar wordt uitgeschakeld door spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Gegevens die worden gebruikt bij het maken van de Delta-tabel, hebben geen kolommen.
DELTA_EMPTY_DIRECTORY
Er is geen bestand gevonden in de map: <directory>
.
DELTALIMIET_VOOR_TEVEEL_TEKENS_IN_VARCHAR_OVERTROFFEN
Waarde "<value>
" overschrijdt de lengtelimiet voor tekens/varchartypen. Mislukte controle: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Kan partitiewaarde niet casten <value>
naar <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Kan <newAttributeName>
niet vinden in het bestaande doelresultaat <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Kan het schema niet afleiden uit de opgegeven lijst met bestanden.
DELTA_FAILED_MERGE_SCHEMA_FILE
Kan het schema van bestand <file>
niet samenvoegen:
<schema>
FOUT BIJ LEZEN VAN BESTANDSFOUTAFLUITING
Kan voettekst voor bestand niet lezen: <currentFile>
DELTA_MISLUKT_BIJ_HET_HERKENNEN_VAN_VOORWAARDE
Kan het predicaat<predicate>
niet herkennen
DELTA_MISLUKTE_SCAN_MET_GESCHIEDENISVERSIE
Er werd een volledige scan van de nieuwste versie van de Delta-bron verwacht, maar er werd een historische scan van versie <historicalVersion>
gevonden.
DELTA_FAILED_TO_MERGE_FIELDS
Het samenvoegen van velden '<currentField>
' en '<updateField>
' is mislukt
DELTA_FUNCTIES_PROTOCOL_METADATA_VERSCHEIDENHEID
Deze tabel kan niet worden uitgevoerd omdat de volgende tabelfuncties zijn ingeschakeld in metagegevens, maar niet worden vermeld in protocol: <features>
.
DELTA_FUNCTIES_VEREISEN_HANDMATIGE_INSCHAKELING
Uw tabelschema vereist handmatig inschakelen van de volgende tabelfuncties: <unsupportedFeatures>
.
Voer hiervoor de volgende opdracht uit voor elk van de hierboven genoemde functies:
ALTER TABLE
table_name SET TBLPROPERTIES
('delta.feature.feature_name' = 'supported')
Vervang 'table_name' en 'feature_name' door echte waarden.
Huidige ondersteunde functies: <supportedFeatures>
.
DELTA_FEATURE_CAN_ONLY_DROP_CHECKPOINT_PROTECTION_WITH_HISTORY_TRUNCATION
Kan de functie Controlepuntbeveiliging niet verwijderen.
Deze functie kan alleen worden verwijderd door de geschiedenis af te kapen.
Probeer het opnieuw met de optie TRUNCATE HISTORY
:
ALTER TABLE
table_name DROP FEATURE
checkpointProtection TRUNCATE HISTORY
DELTA_FEATURE_DROP_CHECKPOINT_FAILED
Het verwijderen van <featureName>
is mislukt vanwege een fout bij het maken van een controlepunt.
Probeer het later opnieuw. Het probleem blijft bestaan, neem contact op met databricks-ondersteuning.
DELTA_FEATURE_DROP_CHECKPOINT_PROTECTION_WAIT_FOR_RETENTION_PERIOD
De bewerking is niet gelukt omdat er nog steeds traceringen van verwijderde functies zijn
in de tabelgeschiedenis. CheckpointProtection kan niet worden verwijderd totdat deze historische items zijn verwijderd
versies zijn verlopen.
Als u CheckpointProtection wilt verwijderen, wacht tot de historische versies voltooid zijn.
Laat het verlopen, en herhaal dan deze opdracht. De bewaarperiode voor historische versies is
momenteel geconfigureerd voor <truncateHistoryLogRetentionPeriod>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Kan de functie niet verwijderen omdat een gelijktijdige transactie de tabel heeft gewijzigd.
Probeer de bewerking opnieuw.
<concurrentCommit>
DELTA_FUNCTIE_VERWIJDER_AFHANKELIJKE_FUNCTIE
Kan de tabelfunctie niet verwijderen <feature>
omdat sommige andere functies (<dependentFeatures>
) in deze tabel afhankelijk zijn van <feature>
.
Overweeg ze eerst te verwijderen voordat u deze functie neerbrengt.
DELTA_FUNCTIE_VERWIJDER_FUNCTIE_NIET_AANWEZIG
Kan <feature>
uit deze tabel niet verwijderen omdat deze momenteel niet aanwezig is in het protocol van de tabel.
DELTA_FUNCTIE_VERWIJDER_HISTORISCHE_VERSIES_BESTAAN
Kan <feature>
niet verwijderen omdat het Delta-logboek historische versies bevat die gebruikmaken van de functie.
Wacht alstublieft tot de bewaarperiode voor geschiedenisgegevens (<logRetentionPeriodKey>=<logRetentionPeriod>
)
is verstreken sinds de functie voor het laatst actief was.
U kunt ook wachten tot de TRUNCATE HISTORY
bewaarperiode verloopt (<truncateHistoryLogRetentionPeriod>
)
en voer vervolgens het volgende uit:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
Voor de specifieke functie is geen afkapping van de geschiedenis vereist.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Kan <feature>
niet verwijderen omdat het verwijderen van deze functie niet wordt ondersteund.
Neem contact op met de ondersteuning van Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Kan <feature>
niet verwijderen omdat deze niet wordt ondersteund door deze Databricks-versie.
Overweeg om Databricks met een hogere versie te gebruiken.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
Het verwijderen van <feature>
is gedeeltelijk geslaagd.
De functie wordt nu niet meer gebruikt in de huidige versie van de tabel. Echter, de functie
is nog steeds aanwezig in historische versies van de tabel. De tabelfunctie kan niet worden verwijderd
van het tabelprotocol totdat deze historische versies zijn verlopen.
Als u de tabelfunctie uit het protocol wilt verwijderen, wacht dan tot de historische versies zijn verwerkt.
Laat het verlopen, en herhaal dan deze opdracht. De bewaarperiode voor historische versies is
momenteel geconfigureerd als <logRetentionPeriodKey>=<logRetentionPeriod>
.
U kunt ook wachten tot de TRUNCATE HISTORY
bewaarperiode verloopt (<truncateHistoryLogRetentionPeriod>
)
en voer vervolgens het volgende uit:
ALTER TABLE
table_name DROP FEATURE
feature_name TRUNCATE HISTORY
DELTA-FEATURE VEREIST EEN HOGERE LEZERSVERSIE
Kan de tabelfunctie niet inschakelen <feature>
omdat hiervoor een hogere protocolversie van de lezer is vereist (huidige <current>
). Overweeg om de protocolversie van de lezer van de tabel te upgraden naar <required>
of naar een versie die ondersteuning biedt voor leestabelfuncties. Raadpleeg <docLink>
voor meer informatie over tabelprotocolversies.
Delta-functie vereist een hogere schrijversversie
Kan tabelfunctie niet inschakelen <feature>
omdat hiervoor een hogere writer-protocolversie (huidige <current>
) is vereist. Overweeg om de writer-protocolversie van de tabel te upgraden naar <required>
of naar een versie die ondersteuning biedt voor schrijftabelfuncties. Raadpleeg <docLink>
voor meer informatie over tabelprotocolversies.
DELTA_FILE_ALREADY_EXISTS (Bestaat al)
Bestaand bestandspad <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Kan de lijst met bestanden en de patroontekenreeks niet opgeven.
DELTA_FILE_NOT_FOUND
Bestandspad <path>
DELTABESTAND_NIET_GEVONDEN_DETAILS
Bestand <filePath>
waarnaar in het transactielogboek wordt verwezen, kan niet worden gevonden. Dit gebeurt wanneer gegevens handmatig uit het bestandssysteem zijn verwijderd in plaats van de instructie tabel DELETE
te gebruiken. Zie <faqPath>
voor meer informatie
DELTA_FILE_OR_DIR_NOT_FOUND
Geen dergelijk bestand of dergelijke map: <path>
DELTA_BESTAND_DAT_OVERSCHREVEN_MOET_WORDEN_NIET_GEVONDEN
Bestand (<path>
) dat herschreven moet worden, niet gevonden tussen kandidaatbestanden.
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Er is een MapType gevonden. Als u toegang wilt krijgen tot de sleutel of waarde van een MapType, geeft u er een op
van:
<key>
of
<value>
gevolgd door de naam van de kolom (alleen als die kolom een structtype is).
bijvoorbeeld mymap.key.mykey
Als de kolom een basistype is, is mymap.key of mymap.value voldoende.
Schema:
<schema>
DELTA_VEROORZAAKTE_KOLOMMEN_DATATYPE_MISMATCH
Kolom <columnName>
heeft <columnType>
gegevenstype en kan niet worden gewijzigd in het gegevenstype <dataType>
omdat naar deze kolom wordt verwezen door de volgende gegenereerde kolommen:
<generatedColumns>
DELTA gegenereerde kolommen afhankelijke kolomwijziging
Kan kolom <columnName>
niet wijzigen omdat naar deze kolom wordt verwezen door de volgende gegenereerde kolommen:
<generatedColumns>
DELTA_GEGENEREERDE_KOLOMMEN_EXPR_TYPE_MISMATCH
Het expressietype van de gegenereerde kolom <columnName>
is <expressionType>
, maar het kolomtype is <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
Kolom <currentName>
is een gegenereerde kolom of een kolom die wordt gebruikt door een gegenereerde kolom. Het gegevenstype wordt <currentDataType>
en kan niet worden geconverteerd naar het gegevenstype <updateDataType>
No changes are needed as technical codes are generally kept in their original form.
Georuimtelijke typen worden niet ondersteund in deze versie van Delta Lake.
DELTA_ICEBERG_COMPAT_VIOLATION
De validatie van IcebergCompatV<version>
is mislukt.
Zie DELTA_ICEBERG_COMPAT_VIOLATION voor meer informatie
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN
wordt niet ondersteund voor IDENTITY
kolommen.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY
wordt alleen ondersteund door Delta.
DELTA_IDENTITEITSKOLONNEN_WIJZIGEN_NIET-IDENTITEITSKOLOM
ALTER TABLE ALTER COLUMN SYNC IDENTITY
kan niet worden aangeroepen voor niet-IDENTITY
kolommen.
DELTA_IDENTITEITSKOLOMMEN_EXPLICIETE_INVOEG_NIET_ONDERSTEUND
Het leveren van waarden voor GENERATED ALWAYS
AS-IDENTITY
kolom <colName>
wordt niet ondersteund.
DELTA_IDENTITEITSKOLOMMEN_ILLEGALE_STAP
IDENTITY
kolomstap mag niet 0 zijn.
DELTA_IDENTITEITSKOLOMMEN_NON_DELTA_FORMAT
IDENTITY
kolommen worden alleen ondersteund door Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
PARTITIONED BY IDENTITY
kolom <colName>
wordt niet ondersteund.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS
wordt niet ondersteund voor tabellen met IDENTITY
kolommen.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
wordt niet ondersteund voor IDENTITY
kolommen.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE
op kolom IDENTITY
<colName>
wordt niet ondersteund.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
IDENTITY
kolom kan niet worden opgegeven met een gegenereerde kolomexpressie.
DELTA_ILLEGAL_OPTION (ongeldige optie)
Ongeldige waarde '<input>
' voor optie '<name>
', <explain>
DELTA_ONWETTIG_GEBRUIK
Het gebruik van <option>
is niet toegestaan wanneer <operation>
een Delta-tabel.
DELTA_INCONSISTENT_BUCKET_SPEC
nl-NL: BucketSpec in de Delta-bucketed tabel komt niet overeen met BucketSpec uit de metadata. Verwacht: <expected>
. Werkelijk: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) kan niet worden ingesteld op verschillende waarden. Stel slechts één van deze waarden in of stel ze in op dezelfde waarde.
DELTA_INCORRECT_ARRAY_ACCESS
Onjuiste toegang tot een ArrayType. Gebruik de positie van arrayname.element.elementname om
toevoegen aan een array.
DELTA_ONJUIST_ARRAY_TOEGANG_OP_NAAM
Er is een ArrayType gevonden. Als u toegang wilt krijgen tot elementen van een ArrayType, geeft u
<rightName>
in plaats van <wrongName>
.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Gebruik getConf()
in plaats van 'conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
De fout treedt meestal op wanneer de standaard LogStore-implementatie, die
is, HDFSLogStore, wordt gebruikt om te schrijven naar een Delta-tabel op een niet-HDFS-opslagsysteem.
Om de transactionele ACID-garanties voor tabelupdates te verkrijgen, moet u de
juiste implementatie van LogStore die geschikt is voor uw opslagsysteem.
Zie <docLink>
voor meer informatie.
DELTA_INDEX_GROTER_OF_GELIJK_AAN_STRUCT
Index <position>
om de kolom te verwijderen die gelijk is aan of groter is dan de structlengte: <length>
DELTA_INDEX_GROTER_DAN_STRUCTUUR
Index <index>
voor het toevoegen van kolom <columnName>
groter is dan de structlengte: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Kan niet schrijven naar '<tableName>
', <columnName>
; doeltabel heeft <numColumns>
kolom(en) maar de ingevoegde gegevens hebben <insertColumns>
kolom(en)
DELTA_INSERT_COLUMN_MISMATCH
Kolom <columnName>
is niet opgegeven in INSERT
DELTA_ONGELDIGE_AUTO_COMPACT_TYPE
Ongeldig autocompacteertype: <value>
. Toegestane waarden zijn: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Ongeldig aantal buckets: <invalidBucketCount>
. Het aantal buckets moet een positief getal zijn dat een macht van 2 is en ten minste 8. U kunt in plaats daarvan <validBucketCount>
gebruiken.
DELTA_INVALID_BUCKET_INDEX
Kan de bucketkolom in de partitiekolommen niet vinden
DELTA_ONGELDIGE_KALENDER_INTERVAL_LEEG
Het interval mag niet null of leeg zijn.
DELTA_INVALID_CDC_RANGE
CDC-bereik van begin <start>
tot einde <end>
is ongeldig. Einde kan niet vóór het begin zijn.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Kenmerknaam "<columnName>
" bevat ongeldige tekens onder " ,;{}()\n\t=". Gebruik een alias om het een andere naam te geven.
DELTA_ONGELDIGE_TEKENS_IN_KOLOMNAMEN
Ongeldige tekens gevonden onder ' ,;{}()nt=' in de kolomnamen van uw schema.
Ongeldige kolomnamen: <invalidColumnNames>
.
Gebruik andere tekens en probeer het opnieuw.
U kunt kolomtoewijzing ook inschakelen om deze tekens te blijven gebruiken.
DELTA_ONGELDIGE_KLOONPAD
De doellocatie voor CLONE
moet een absoluut pad of tabelnaam zijn. Gebruik een
absoluut pad in plaats van <path>
.
DELTA_ONGELDIGE_KOLOMNAMEN_BIJ_VERWIJDEREN_VAN_KOLOMTOEWIJZING
Ongeldige tekens gevonden onder ' ,;{}()nt=' in de kolomnamen van uw schema.
Ongeldige kolomnamen: <invalidColumnNames>
.
Kolomtoewijzing kan niet worden verwijderd wanneer de kolomnamen ongeldige tekens bevatten.
Wijzig de naam van de kolommen om de ongeldige tekens te verwijderen en voer deze opdracht opnieuw uit.
DELTA_INVALID_FORMAT
Niet-compatibele indeling gedetecteerd.
Er is een transactielogboek voor Delta gevonden op <deltaRootPath>
/_delta_log',
maar u probeert te <operation> <path>
met behulp van het formaat("<format>
"). U moet
'format("delta")' bij het lezen en schrijven naar een deltatabel.
Zie <docLink>
voor meer informatie over Delta
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Een gegenereerde kolom kan geen niet-bestaande kolom of een andere gegenereerde kolom gebruiken
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Ongeldige opties voor idempotente Dataframe-schrijfbewerkingen: <reason>
DELTA_ONGELDIG_INTERVAL
<interval>
is geen geldige INTERVAL
.
DELTA_INVALID_INVENTORY_SCHEMA
Het schema voor de opgegeven INVENTORY
bevat niet alle vereiste velden. Vereiste velden zijn: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL (Ongeldig isolatieniveau)
ongeldig isolatieniveau “<isolationLevel>
”
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) en (<schemeConfig>
) kunnen niet tegelijkertijd worden ingesteld. Stel slechts één groep van deze groepen in.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
U probeert een beheerde tabel te maken <tableName>
met Delta, maar het schema is niet opgegeven.
Zie <docLink>
voor meer informatie over Delta
DELTA_ONGELDIGE_PARTITIEKOLOM
<columnName>
is geen geldige partitiekolom in tabel <tableName>
.
DELTA_ONGELDIGE_PARTITIE_KOLOM_NAAM
Partitiekolommen met ongeldige tekens gevonden onder " ;;{}()nt=". Wijzig de naam in de partitiekolommen. Deze controle kan worden uitgeschakeld door spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) in te stellen, maar dit wordt niet aanbevolen omdat andere functies van Delta mogelijk niet goed werken.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Het gebruik van kolom <name>
van het type <dataType>
als partitiekolom wordt niet ondersteund.
DELTA_ONGELDIGE_PARTITIEPAD
Een partitiepadfragment moet de vorm hebben van part1=foo/part2=bar
. Het partitiepad: <path>
DELTA_ONGELDIGE_PROTOCOLVERLAGING
Protocolversie kan niet worden gedowngraded van <oldProtocol>
naar <newProtocol>
DELTA_ONGELDIGE_PROTOCOLVERSIE
Niet-ondersteunde Delta-protocolversie: tabel '<tableNameOrPath>
' vereist lezerversie <readerRequired>
en schrijfversie <writerRequired>
, maar deze versie van Databricks ondersteunt lezerversies <supportedReaders>
en schrijfversies <supportedWriters>
. Voer een upgrade uit naar een nieuwere versie.
DELTA_ONGELDIGE_TABELWAARDE_FUNCTIE
Functie <function>
is een niet-ondersteunde tabelwaardefunctie voor CDC-leesbewerkingen.
DELTA_ONGELDIGE_TIMESTAMP_FORMAT
De opgegeven tijdstempel <timestamp>
komt niet overeen met de verwachte syntaxis <format>
.
DELTA_LOG_ALREADY_EXISTS
Er bestaat al een Delta-logboek op <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Als u deze nooit hebt verwijderd, loopt uw query waarschijnlijk achter. Verwijder het controlepunt om opnieuw op te starten. U kunt dit voorkomen door het bewaarbeleid van uw Delta-tabel bij te werken
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Gematerialiseerde <rowTrackingColumn>
kolomnaam ontbreekt voor <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Gebruik een limiet die kleiner is dan Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Deze commit is mislukt omdat hij <numAttempts>
keer is geprobeerd, maar niet is gelukt.
Dit kan worden veroorzaakt doordat de Delta-tabel continu wordt doorgevoerd door veel gelijktijdige processen.
Commits.
Doorvoer gestart bij versie: <startVersion>
Doorvoeren mislukt bij versie: <failVersion>
Aantal acties dat is geprobeerd door te voeren: <numActions>
Totale tijd die is besteed aan het uitvoeren van deze doorvoering: <timeSpent>
ms
Limiet voor maximum aantal bestanden in lijst overschreden
De bestandslijst moet maximaal <maxFileListSize>
vermeldingen bevatten, had <numFiles>
.
(No improvements needed; maintaining as is for technical accuracy.)
Kan geen kolom toevoegen <newColumn>
met het type VOID. Geef expliciet een niet-leeg type op.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Het samenvoegen van niet-compatibele gegevenstypen <currentDataType>
en <updateDataType>
is mislukt
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Gefaald om decimale typen met incompatibele <decimalRanges>
samen te voegen
DELTA_MERGE_MATERIALISEER_BRON_IS_HERHAALD_MISLUKT
Herhaaldelijk is het niet gelukt om de oorsprong van de MERGE
-verklaring te materialiseren.
DELTA_MERGE_MISSING_WHEN
Er moet ten minste één WHEN
clausule in een MERGE
-instructie staan.
Attribuut opgelost voor DELTA_MERGE ontbreekt in invoer
Opgeloste kenmerken <missingAttributes>
ontbreken in <input>
in operator <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Onverwachte toewijzingssleutel: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_ONOPGELOSTE_UITDRUKKING
Kan <sqlExpr>
in <clause>
gegeven <cols>
niet oplossen.
DELTA_METADATA_CHANGED
MetadataChangedException: de metagegevens van de Delta-tabel zijn gewijzigd door een gelijktijdige update. Probeer de bewerking opnieuw.<conflictingCommit>
DELTA_ONTBREKENDE_WIJZIGINGSGEGEVENS
Fout bij het ophalen van wijzigingsgegevens voor bereik [<startVersion>
, <endVersion>
] omdat wijzigingsgegevens niet beschikbaar waren.
opgenomen voor versie [<version>
]. Als u wijzigingenfeed voor deze tabel hebt ingeschakeld,
gebruik DESCRIBE HISTORY
om te zien wanneer deze voor het eerst is ingeschakeld.
Gebruik anders ALTER
TABLE' table_name SET TBLPROPERTIES
om wijzigingsgegevens op te nemen
(<key>
=true)'.
DELTA_ONTBREKENDE_KOLOM
Kan <columnName>
niet vinden in tabelkolommen: <columnList>
DELTA_MISSING_COMMIT_INFO
Deze tabel bevat de functie <featureName>
ingeschakeld. Hiervoor is de aanwezigheid van de actie CommitInfo in elke doorvoering vereist. De actie CommitInfo ontbreekt echter in de doorvoeringsversie <version>
.
(No changes needed if it's a code) DELTA_MISSING_COMMIT_TIMESTAMP
Deze tabel bevat de functie <featureName>
ingeschakeld waarvoor de aanwezigheid van commitTimestamp in de actie CommitInfo is vereist. Dit veld is echter niet ingesteld in doorvoerversie <version>
.
DELTA_MISSING_DELTA_TABLE
<tableName>
is geen Delta-tabel.
DELTA_TABEL_HERKENNING_ONTBREEKT_KOPIEER_INTO
De tabel bestaat niet. Maak eerst een lege Delta-tabel met behulp van CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
Icebergklasse werd niet gevonden. Zorg ervoor dat Delta Iceberg-ondersteuning is geïnstalleerd.
Raadpleeg <docLink>
voor meer informatie.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
Kolom <columnName>
, die een NOT NULL
beperking heeft, ontbreekt in de gegevens die in de tabel worden geschreven.
DELTA_MISSING_PARTITION_COLUMN
Partitiekolom <columnName>
niet gevonden in schema <columnList>
DELTA_MISSING_PART_FILES
Kan niet alle deelbestanden van de controlepuntversie vinden: <version>
DELTA_ONTBREKENDE_PROVIDER_VOOR_CONVERSIE
CONVERT
tot en met DELTA
ondersteunt alleen parquet-tabellen. Herschrijf uw bestemming als parquet.`<path>`
als het een parquet-directory is.
DELTA_MISSING_SET_COLUMN
SET
kolom <columnName>
niet gevonden in bepaalde kolommen: <columnList>
.
DELTA_ONTBREKEND_TRANSACTIELOGBOEK
Niet-compatibele indeling gedetecteerd.
U probeert <operation> <path>
met Delta, maar er is geen
transactielogboek aanwezig. Controleer de upstream-taak om er zeker van te zijn dat deze wordt geschreven
met behulp van format("delta") en dat u probeert het basispad van de tabel te bewerken met %1$s.
Zie <docLink>
voor meer informatie over Delta
DELTA_MODUS_NIET_ONDERSTEUND
De opgegeven modus<mode>
wordt niet ondersteund. Ondersteunde modi zijn: <supportedModes>
Delta_Verschillende_CDC_Grens
Meerdere <startingOrEnding>
argumenten opgegeven voor CDC-leesbewerkingen. Geef één van de volgende op: <startingOrEnding>
Tijdstempel of <startingOrEnding>
Versie.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Meerdere bloeifilterindexconfiguraties zijn doorgegeven aan opdracht voor kolom: <columnName>
DELTA_MEERDERE_BRONRIJEN_OVERKOMSTIG_DOELRIJ_BIJ_SAMENVOEGING
Het samenvoegen kan niet worden uitgevoerd wanneer meerdere bronrijen overeenkomen en geprobeerd wordt dezelfde te wijzigen.
doelrij in de Delta-tabel op mogelijk conflicterende manieren. Volgens de SQL-semantiek van Merge,
wanneer meerdere bronrijen overeenkomen met dezelfde doelrij, kan het resultaat dubbelzinnig zijn
omdat het onduidelijk is welke bronrij moet worden gebruikt om de overeenkomende rij bij te werken of te verwijderen
doelrij. U kunt de brontabel vooraf verwerken om de mogelijkheid van fouten te elimineren.
meerdere overeenkomsten. Raadpleeg
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Tijdens <command>
worden beide gecoördineerde commit configuraties: ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") ingesteld in de opdracht, of geen van beide. Ontbreekt: "<configuration>
". Geef deze configuratie op in de TBLPROPERTIES
component of verwijder de andere configuratie en voer de opdracht opnieuw uit.
DELTA_MOET_ALLE_GECOORDINEERDE_COMMIT_CONF_IN_SESSIE_INSTELLEN
Tijdens <command>
zijn ofwel beide gecoördineerde commits-configuraties ('coordinatedCommits.commitCoordinator-preview', 'coordinatedCommits.commitCoordinatorConf-preview') ingesteld in de SparkSession-configuraties, of geen van beide. Ontbreekt: "<configuration>
". Stel deze configuratie in de SparkSession in of maak de andere configuratie ongedaan en voer de opdracht opnieuw uit.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
De volgende kolomnamen zijn uitsluitend gereserveerd voor intern gebruik van Delta-gebucket-table: <names>
DELTA_GENESTE_VELDEN_MOETEN_HERNOEMD_WORDEN
Het invoerschema bevat geneste velden die anders zijn gekapitaliseerd dan de doeltabel.
Ze moeten worden hernoemd om het verlies van gegevens in deze velden te voorkomen tijdens het schrijven naar Delta.
Velden:
<fields>
.
Oorspronkelijk schema:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Het <nestType>
type van het veld <parent>
bevat een NOT NULL
beperking. Delta biedt geen ondersteuning voor NOT NULL
beperkingen die zijn genest binnen matrices of kaarten. Als u deze fout wilt onderdrukken en de opgegeven beperkingen op de achtergrond wilt negeren, stelt u <configKey>
= true in.
Geparseerd <nestType>
type:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
De geneste deelvraag wordt niet ondersteund in de voorwaarde <operation>
.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
rijen in <tableName>
schenden de nieuwe CHECK
beperking (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
rijen in <tableName>
schenden de nieuwe NOT NULL
restrictie voor <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
CHECK
beperking '<name>
' (<expr>
) moet een booleaanse expressie zijn.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Gevonden <expr>
. Een gegenereerde kolom kan geen niet-deterministische expressie gebruiken.
DELTA_NIET-DETERMINISTISCHE_FUNCTIE_NIET_ONDERSTEUND
Niet-deterministische functies worden niet ondersteund in de <operation> <expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Wanneer er meer dan één MATCHED
componenten in een MERGE
-instructie staan, kan alleen de laatste MATCHED
component de voorwaarde weglaten.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Wanneer er meer dan één NOT MATCHED BY SOURCE
componenten in een MERGE
-instructie staan, kan alleen de laatste NOT MATCHED BY SOURCE
component de voorwaarde weglaten.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION (if untranslated is correct). If translated: DELTA_NIET_LAATSTE_NIET_OVEREENKOMENDE_CLAUSULE_VERWIJDER_VOORWAARDE (assuming the terms need to be in Dutch).
Wanneer er meer dan één NOT MATCHED
componenten in een MERGE
-instructie staan, kan alleen de laatste NOT MATCHED
component de voorwaarde weglaten
DELTA_NON_PARSABLE_TAG
Kan tag <tag>
niet parseren.
Bestandstags zijn: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Gegevens die in Delta zijn geschreven, moeten ten minste één niet-gepartitioneerde kolom bevatten.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Predicaat verwijst naar kolom zonder partitie '<columnName>
'. Alleen naar de partitiekolommen kan worden verwezen: [<columnList>
]
DELTA_NIET-PARTITIEKOLOM_OPGEGEVEN
Niet-partitionerende kolom(en) <columnList>
worden opgegeven waar alleen partitioneringskolommen worden verwacht: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Delta-catalogus vereist een eendelige naamspatie, maar <identifier>
is meerdelig.
DELTA_NON_UC_COMMIT_COORDINATOR_NIET_ONGESTEUND_IN_OPDRACHT
Het instellen van doorvoercoördinator op '<nonUcCoordinatorName>
' van opdracht wordt niet ondersteund, omdat door UC beheerde tabellen alleen 'unity-catalog' kunnen hebben als de doorvoercoördinator. Wijzig deze in unity-catalog of verwijder alle eigenschappen van de tabel Coordinated Commits uit de TBLPROPERTIES
-component en voer de opdracht opnieuw uit.
DELTA_NON_UC_COMMIT_COORDINATOR_NOT_SUPPORTED_IN_SESSION
Het instellen van een doorvoercoördinator op '<nonUcCoordinatorName>
' vanuit SparkSession-configuraties wordt niet ondersteund, omdat door UC beheerde tabellen alleen 'unity-catalog' kunnen hebben als de doorvoercoördinator. Wijzig deze in unity-catalog door spark.conf.set("<coordinatorNameDefaultKey>", "unity-catalog")
uit te voeren of verwijder alle eigenschappen van de tabel Coordinated Commits uit de SparkSession-configuraties door spark.conf.unset("<coordinatorNameDefaultKey>")
, spark.conf.unset("<coordinatorConfDefaultKey>")
, spark.conf.unset("<tableConfDefaultKey>")
uit te voeren en voer de opdracht opnieuw uit.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
is geen Delta-tabel. Verwijder deze tabel eerst als u deze wilt maken met Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
is geen Delta-tabel. Verwijder deze tabel eerst als u deze opnieuw wilt maken met Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Er is geen niet-nulbare kolom gevonden in de struct: <struct>
DELTA_NIET_NUL_VOORWAARDE_SCHENDING
NOT NULL
beperking is geschonden voor kolom: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Een niet-nullbare geneste veld kan niet worden toegevoegd aan een nullbaar bovenliggend item. Stel de nulbaarheid van de ouderkolom dienovereenkomstig in.
DELTA_NO_COMMITS_FOUND
Er zijn geen commits gevonden op <logPath>
DELTA_GEEN_HERCREËERBARE_GESCHIEDENIS_GEVONDEN
Er zijn geen hercreëerbare commits gevonden bij <logPath>
DELTA_NO_REDIRECT_RULES_VIOLATED
Bewerking is niet toegestaan: <operation>
kan niet worden uitgevoerd in een tabel met omleidingsfunctie.
Niet aan de regels voor geen omleiding wordt voldaan <noRedirectRules>
.
DELTA_NO_RELATION_TABLE
Tabel <tableIdent>
niet gevonden
DELTA_NO_START_FOR_CDC_READ
Geen beginversie of begintijdstip opgegeven voor CDC-lezen.
DELTA_NULL_SCHEMA_BIJ_STREAMINGSCHRIJFOPDRACHT
Delta accepteert geen NullTypes in het schema voor het streamen van schrijfbewerkingen.
DELTA_ONEOF_IN_TIMETRAVEL
Geef 'timestampAsOf' of 'versionAsOf' op voor tijdreizen.
DELTA_ONLY_OPERATION
<operation>
wordt alleen ondersteund voor Delta-tabellen.
DELTA_OPERATIE_PAD_ONTBREEKT
Geef het pad of de tabelidentificatie op voor <operation>
.
DELTA_OPERATIE_NIET_TOEGESTAAN
Bewerking is niet toegestaan: <operation>
wordt niet ondersteund voor Delta-tabellen
DELTA_OPERATIE_NIET_TOEGESTAAN_DETAILS
Bewerking is niet toegestaan: <operation>
wordt niet ondersteund voor Delta-tabellen: <tableName>
DELTA_OPERATIE_NIET_ONDERSTEUND_VOOR_KOLOM_MET_COLLATIE
<operation>
wordt niet ondersteund voor kolom <colName>
met niet-standaardsortering <collation>
.
DELTA_OPERATIE_NIET_ONDERSTEUND_VOOR_UITDRUKKING_MET_COLLATIE
<operation>
wordt niet ondersteund voor expressies <exprText>
omdat deze gebruikmaakt van niet-standaardsortering.
DELTA_BEWERKING_OP_TEMP_WEERGAVE_MET_GEGEREGENEREERDE_KOLOMMEN_NIET_ONDERSTEUND
<operation>
opdracht in een tijdelijke weergave die verwijst naar een Delta-tabel die gegenereerde kolommen bevat, wordt niet ondersteund. Voer de opdracht <operation>
rechtstreeks uit in de Delta-tabel
DELTA_OPERATIE_OP_WEERGAVE_NIET_TOEGESTAAN
Bewerking is niet toegestaan: <operation>
kan niet worden uitgevoerd in een weergave.
DELTA_OPTIMALISATIE_VOLLEDIG_NIET_ONDERSTEUND
OPTIMIZE FULL
wordt alleen ondersteund voor geclusterde tabellen met niet-lege clusterkolommen.
DELTA_OVERWRITE_MUST_BE_TRUE
Kopieeroptie overschrijvenSchema kan niet worden opgegeven zonder OVERWRITE
= 'true' in te stellen.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' kan niet worden gebruikt in de modus dynamische partitieoverschrijven.
DELTA_PARTITION_COLUMN_CAST_FAILED
Kan de waarde <value>
niet omzetten naar <dataType>
voor partitiekolom <columnName>
DELTA_PARTITIEKOLOM_NIET_GEVONDEN
Partitiekolom <columnName>
niet gevonden in schema [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Partitieschema kan niet worden opgegeven bij het converteren van Iceberg-tabellen. Het wordt automatisch afgeleid.
DELTA_PAD_BESTAAT_NIET
<path>
bestaat niet of is geen Delta-tabel.
DELTA_PATH_EXISTS
Kan niet schrijven naar bestaand pad <path>
zonder OVERWRITE
= 'true' in te stellen.
DELTA_POST_COMMIT_HOOK_FAILED
Het vastleggen van de Delta-tabelversie <version>
is geslaagd, maar er is een fout opgetreden bij het uitvoeren van de post-commit hook <name> <message>
.
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: de protocolversie van de Delta-tabel is gewijzigd door een gelijktijdige update. <additionalInfo> <conflictingCommit>
Raadpleeg <docLink>
voor meer informatie.
DELTA_PROTOCOL_PROPERTY_NOT_INT
Protocoleigenschap <key>
moet een geheel getal zijn. Gevonden <value>
DELTA_READ_FEATURE_PROTOCOL_VEREIST_SCHRIJFRECHTEN
Kan alleen de protocolversie van de lezer bijwerken om tabelfuncties te gebruiken. De writer-protocolversie moet ten minste <writerVersion>
zijn om door te gaan. Raadpleeg <docLink>
voor meer informatie over tabelprotocolversies.
DELTA_READ_TABLE_WITHOUT_COLUMNS
U probeert een Delta-tabel te lezen <tableName>
die geen kolommen bevat.
Schrijf nieuwe gegevens met de optie mergeSchema = true
om de tabel te kunnen lezen.
DELTA_REGEX_OPT_SYNTAX_ERROR
Controleer uw syntaxis opnieuw op '<regExpOption>
'
DELTA_REPLACE_WHERE_IN_OVERWRITE
U kunt replaceWhere niet gebruiken in combinatie met overschrijven met een filter
DELTA_VERVANGEN_INDIEN_NIET_OVEREENKOMEND
Geschreven gegevens voldoen niet aan de voorwaarde of beperking voor het overschrijven van gedeeltelijke tabellen '<replaceWhere>
'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Een 'replaceWhere'-expressie en 'partitionOverwriteMode'='dynamic' kunnen niet beide worden ingesteld in de DataFrameWriter-opties.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' kan niet worden gebruikt met gegevensfilters wanneer 'dataChange' is ingesteld op false. Filters: <dataFilters>
DELTA_ROW_ID_TOEWIJZING_ZONDER_STATISTIEKEN
Kan geen rij-id's toewijzen zonder statistieken voor het tellen van rijen.
Collect statistics for the table by running the following code in a Scala notebook and retry:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_GEWIJZIGD
Schemawijziging gedetecteerd:
streamingbronschema: <readSchema>
gegevensbestandsschema: <dataSchema>
Start de query opnieuw. Als dit probleem wordt herhaald bij opnieuw opstarten van query's zonder
Voortgang boeken, u hebt een incompatibele schemawijziging aangebracht en moet uw
query helemaal opnieuw uitvoeren met behulp van een nieuwe controlepuntmap.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Schemawijziging gedetecteerd in versie <version>
:
streamingbronschema: <readSchema>
gegevensbestandsschema: <dataSchema>
Start de query opnieuw. Als dit probleem wordt herhaald bij opnieuw opstarten van query's zonder
Voortgang boeken, u hebt een incompatibele schemawijziging aangebracht en moet uw
query helemaal opnieuw uitvoeren met behulp van een nieuwe controlepuntmap. Als het probleem zich blijft voordoen na
Als u overschakelt naar een nieuwe controlepuntmap, moet u mogelijk de bestaande instellingen wijzigen.
Optie 'startingVersion' of 'startingTimestamp' om te beginnen vanaf een nieuwere versie dan
<version>
met een nieuwe controlepuntmap.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Schemawijziging gedetecteerd in versie <version>
:
streamingbronschema: <readSchema>
gegevensbestandsschema: <dataSchema>
Start de query opnieuw. Als dit probleem wordt herhaald bij opnieuw opstarten van query's zonder
Voortgang boeken, u hebt een incompatibele schemawijziging aangebracht en moet uw
query helemaal opnieuw uitvoeren met behulp van een nieuwe controlepuntmap.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Het schema van uw Delta-tabel is op een niet-compatibele manier gewijzigd sinds uw DataFrame
of DeltaTable-object werd gemaakt. Definieer uw DataFrame- of DeltaTable-object opnieuw.
Veranderingen:
<schemaDiff> <legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Er is geen tabelschema opgegeven. Geef het schema (kolomdefinitie) van de tabel op wanneer u REPLACE
tabel gebruikt en er geen AS-SELECT
-query is opgegeven.
DELTA_SCHEMA_NOT_SET
Tabelschema is niet ingesteld. Schrijf gegevens erin of gebruik CREATE TABLE
om het schema in te stellen.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Het schema van de nieuwe Delta-locatie wijkt af van het huidige tabelschema.
oorspronkelijk schema:
<original>
doelschema:
<destination>
Als dit een beoogde wijziging is, kunt u deze controle uitschakelen door het volgende uit te voeren:
%%sql stel <config>
in op true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Bestand <filePath>
waarnaar in het transactielogboek wordt verwezen, kan niet worden gevonden. Dit kan gebeuren wanneer gegevens handmatig uit het bestandssysteem zijn verwijderd in plaats van de instructie tabel DELETE
te gebruiken. Deze tabel lijkt een ondiepe kloon te zijn. Als dat het geval is, kan deze fout optreden wanneer de oorspronkelijke tabel waaruit deze tabel is gekloond, een bestand heeft verwijderd dat de kloon nog steeds gebruikt. Als u wilt dat klonen onafhankelijk zijn van de oorspronkelijke tabel, gebruikt u in plaats daarvan een DEEP-kloon.
DELTA_SHARING_KAN_GERESERVEERDE_ADRESSEEEIGENSCHAP_NIET_WIJZIGEN
Vooraf gedefinieerde eigenschappen die beginnen met <prefix>
kunnen niet worden gewijzigd.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
De gegevens worden beperkt door de eigenschap ontvanger <property>
die niet van toepassing zijn op de huidige ontvanger in de sessie.
Zie DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED voor meer informatie
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
kan niet worden gebruikt in Delta Sharing-weergaven die gedeeld worden tussen accounts.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Onwettig verificatietype <authenticationType>
voor provider-<provider>
.
DELTA_DELING_ONGELDIGE_ONTVANGER_AUTH
Ongeldig authenticatietype <authenticationType>
voor geadresseerde <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Ongeldige naam om te verwijzen naar een <type>
in een Share. U kunt de naam van <type>
in de share gebruiken volgens het formaat [schema].[<type>
], of u kunt ook de oorspronkelijke volledige naam van de tabel gebruiken volgens het formaat [catalogus].[schema].[>type>].
Als u niet zeker weet welke naam u moet gebruiken, kunt u 'SHOW ALL IN SHARE
[share]' uitvoeren en de naam van de <type>
zoeken om te verwijderen: kolom 'naam' is de naam van de <type>
in de share en kolom 'shared_object' is de oorspronkelijke volledige naam van de <type>
.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Er zijn meer dan twee tokens voor ontvanger <recipient>
.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
De eigenschap van de geadresseerde <property>
bestaat niet.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Ontvanger tokens ontbreken voor ontvanger <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Niet-partitionerende kolom(en) <badCols>
worden opgegeven voor SHOW PARTITIONS
DELTA_TONEN_PARTITIE_IN_NIET_GEPARTITIONEERDE_TABEL (en-US: DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE)
SHOW PARTITIONS
is niet toegestaan voor een tabel die niet is gepartitioneerd: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Verwijderde gegevens (bijvoorbeeld <removedFile>
) gedetecteerd uit de streamingbron op versie <version>
. Dit wordt momenteel niet ondersteund. Als u verwijderingen wilt negeren, stelt u de optie ignoreDeletes in op 'true'. De brontabel is te vinden op pad <dataPath>
.
DELTA_BRON_TABEL_NEGEER_WIJZIGINGEN
Er is een gegevensupdate (bijvoorbeeld <file>
) gedetecteerd in de brontabel op versie <version>
. Dit wordt momenteel niet ondersteund. Als dit regelmatig gebeurt en u geen wijzigingen wilt overslaan, stelt u de optie skipChangeCommits in op 'true'. Als u wilt dat de gegevensupdate wordt doorgevoerd, start u deze query opnieuw met een nieuwe controlepuntmap of voert u een volledige vernieuwing uit als u DLT gebruikt. Als u deze wijzigingen moet afhandelen, schakelt u alstublieft over naar MVs. De brontabel is te vinden op pad <dataPath>
.
DELTA_STARTVERSIE_EN_TIMESTAMP_BEIDE_INGESTELD
Geef '<version>
' of '<timestamp>
' op
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
statistieken niet gevonden voor kolom in Parquet-metagegevens: <columnPath>
.
DELTA_STREAMING_KAN_NIET_VERDERGAAN_MET_VERWERKEN_NA_SCHEMA_EVOLUTIE
We hebben een of meer niet-additieve schemawijziging(en) (<opType>
) gedetecteerd tussen Delta-versie <previousSchemaChangeVersion>
en <currentSchemaChangeVersion>
in de Delta-streamingbron.
Controleer of u de schemawijziging(en) handmatig wilt doorgeven aan de sinktabel voordat we doorgaan met het verwerken van stromen met behulp van het voltooide schema op <currentSchemaChangeVersion>
.
Zodra u het schema van de sinktabel hebt opgelost of hebt besloten dat er geen oplossing nodig is, kunt u (een van) de volgende SQL-configuraties instellen om de blokkering van de niet-additieve schemawijziging(en) op te heffen en stroomverwerking voort te zetten.
Als u de blokkering voor deze specifieke stroom wilt opheffen, alleen voor deze reeks schemawijziging(en): stelt u <allowCkptVerKey> = <allowCkptVerValue>
in.
Blokkering opheffen voor deze specifieke stream: <allowCkptKey> = <allowCkptValue>
instellen
Om de blokkering voor alle streams op te heffen: stel <allowAllKey> = <allowAllValue>
in.
Indien van toepassing, kunt u de <allowAllMode>
vervangen door <opSpecificMode>
in de SQL conf om de stream voor alleen dit type schemawijziging te deblokkeren.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Kan geen momentopname van de Delta-log verkrijgen voor de startversie bij het controleren van wijzigingen in het schema voor kolomtoewijzing. Kies een andere beginversie of forceer streaming-leesbewerkingen op eigen risico door '<config>
' in te stellen op 'true'.
DELTA_STREAMING_ONVERENIGBARE_SCHEMAWIJZIGING
Streaming-leesbewerking wordt niet ondersteund voor tabellen met schemawijzigingen die niet compatibel zijn met lezen, zoals naamwijzigingen, verwijderen of gegevenstypewijzigingen.
Raadpleeg de documentatie op <docLink>
voor meer informatie en mogelijke volgende stappen om dit probleem op te lossen
Schema lezen: <readSchema>
. Incompatibel gegevensschema: <incompatibleSchema>
.
DELTA_STREAMING_ONVERENIGBARE_SCHEMAWIJZIGING_GEBRUIK_SCHEMA_LOG
Streaming-leesbewerking wordt niet ondersteund voor tabellen met schemawijzigingen die niet compatibel zijn met lezen, zoals naamwijzigingen, verwijderen of gegevenstypewijzigingen.
Geef een schemaTrackingLocation op om niet-additieve schemaontwikkeling in te schakelen voor deltastroomverwerking.
Zie <docLink>
voor meer informatie.
Schema lezen: <readSchema>
. Incompatibel gegevensschema: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Het schema, de tabelconfiguratie of het protocol van uw Delta-tabel is gewijzigd tijdens het streamen.
Het schema of het logboek voor het bijhouden van metagegevens is bijgewerkt.
Start de stream opnieuw om door te gaan met de verwerking met behulp van de bijgewerkte metagegevens.
Bijgewerkt schema: <schema>
.
Bijgewerkte tabelconfiguraties: <config>
.
Bijgewerkt tabelprotocol: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Streaming vanuit brontabel <tableId>
met schematracking biedt geen ondersteuning voor rijfilters of kolommaskers.
Verwijder de rijfilters of kolommaskers of schakel schematracering uit.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Er is een conflicterende schemalocatie gedetecteerd bij ‘<loc>
’ tijdens het streamen van een tabel of van een tabel bij ‘<table>
’.
Een andere stream kan dezelfde schemalocatie hergebruiken, wat niet is toegestaan.
Geef een nieuw uniek schemaTrackingLocation
pad of streamingSourceTrackingId
op als lezeroptie voor een van de streams uit deze tabel.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Schemalocatie '<schemaTrackingLocation>
' moet worden geplaatst onder controlepuntlocatie '<checkpointLocation>
'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Onvolledig logboekbestand in het schemalogboek van de Delta-streamingbron op '<location>
'.
Het schemalogboek is mogelijk beschadigd. Kies een nieuwe schemalocatie.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Er is een incompatibele Delta-tabel-id gedetecteerd bij het lezen van de Delta-stream.
Persistente tabel-id: <persistedId>
, tabel-id: <tableId>
Het schemalogboek is mogelijk opnieuw gebruikt. Kies een nieuwe schemalocatie.
DELTA_STREAMING_SCHEMA_LOG_NIET-COMPATIBELE_PARTITIE_SCHEMA
Er is een niet-compatibel partitieschema gedetecteerd bij het lezen van Delta-stream.
Behouden schema: <persistedSchema>
, Delta-partitieschema: <partitionSchema>
Kies een nieuwe schemalocatie om het schemalogboek opnieuw te initialiseren als u het partitieschema van de tabel onlangs handmatig hebt gewijzigd.
DELTA_STREAMING_SCHEMA_LOG_INIT_MISLUKT_INCOMPATIBELE_METADATA
Het schemalogboek van de Delta-streamingbron kan niet worden geïnitialiseerd omdat
er is een incompatibele schema- of protocolwijziging gedetecteerd tijdens het verwerken van een streamingbatch van tabelversie <a>
naar <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Kan het schema niet parseren vanuit het schemalogboek van de Delta-streamingbron.
Het schemalogboek is mogelijk beschadigd. Kies een nieuwe schemalocatie.
DE DELTA-TABEL BEVAT AL COLUMNEN VOOR CDC
Kan Change Data Capture niet inschakelen in de tabel. De tabel bevat al
gereserveerde kolommen <columnList>
die
intern worden gebruikt als metagegevens voor de wijzigingsgegevensfeed van de tabel. Inschakelen
Wijzig de gegevensfeed op de tabel door deze kolommen te hernoemen of te verwijderen.
DELTA_TABLE_ALREADY_EXISTS
Tabel <tableName>
bestaat al.
n/a (since the text appears to be a specific technical term, no translation is needed)
Momenteel ondersteunt DeltaTable.forPath alleen hadoop-configuratiesleutels die beginnen met <allowedPrefixes>
, maar <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH (Delta-tabel-ID komt niet overeen)
De Delta-tabel op <tableLocation>
is vervangen terwijl deze opdracht de tabel gebruikte.
Tabel-id is <oldId>
, maar is nu <newId>
.
Voer de huidige opdracht opnieuw uit om ervoor te zorgen dat deze een consistente weergave van de tabel leest.
DELTA_TABEL_LOCATIE_VERSCHIL
De locatie van de bestaande tabel <tableName>
is <existingTableLocation>
. Deze komt niet overeen met de opgegeven locatie <tableLocation>
.
DELTA_TABLE_NOT_FOUND
Delta-tabel <tableName>
bestaat niet.
DELTA_TABEL_NIET_ONDERSTEUND_IN_OP
Tabel wordt niet ondersteund in <operation>
. Gebruik in plaats daarvan een pad.
DELTA_TABEL_ALLEEN_OPERATIE
<tableName>
is geen Delta-tabel.
<operation>
wordt alleen ondersteund voor Delta-tabellen.
DELTA_DOELTABEL_FINAAL_SCHEMA_LEEG
Het uiteindelijke schema van de doeltabel is leeg.
DELTA_TIJDSTEMPEL_GROTER_DAN_COMMIT
De opgegeven tijdstempel (<providedTimestamp>
) komt na de nieuwste versie die in deze context beschikbaar is.
tabel (<tableName>
). Gebruik een tijdstempel voor of op <maximumTimestamp>
.
DELTA_TIJDSTEMPEL_ONGELDIG
De opgegeven tijdstempel (<expr>
) kan niet worden geconverteerd naar een geldige tijdstempel.
DEEL_DELTA_TIJDREIS_ONGELDIGE_BEGINWAARDE
<timeTravelKey>
moet een geldige beginwaarde zijn.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: Kan de status niet reconstrueren op versie <version>
omdat het transactielogboek is afgekapt vanwege handmatig verwijderen of het bewaarbeleid voor logboeken (<logRetentionKey>=<logRetention>
) en bewaarbeleid voor controlepunten (<checkpointRetentionKey>=<checkpointRetention>
)
DELTA_TABEL_PARTITIE_BIJWERKEN_NIET_ONDERSTEUND
Bewerking niet toegestaan: TRUNCATE TABLE
op Delta-tabellen biedt geen ondersteuning voor partitiepredicaten; gebruik DELETE
om specifieke partities of rijen te verwijderen.
DELTA_UDF_IN_GENERATED_COLUMN
Gevonden <udfExpr>
. Een gegenereerde kolom kan geen door de gebruiker gedefinieerde functie gebruiken
DELTA_ONVERWACHTE_ACTIE_UITDRUKKING
Onverwachte actie-uitdrukking <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
U verwacht <expectedColsSize>
partitiekolom(men): <expectedCols>
, maar <parsedColsSize>
partitiekolom(men) heeft gevonden: <parsedCols>
van het parseren van de bestandsnaam: <path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Verwacht een volledige scan van Delta-bronnen, maar er is een gedeeltelijke scan gevonden. pad:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME (Onverwachte partitie kolom van bestandsnaam)
Verwachte partitiekolom <expectedCol>
, maar partitiekolom <parsedCol>
gevonden bij het parseren van de bestandsnaam: <path>
DELTA_ONVERWACHT_PARTITIE_SCHEMA_VAN_GEBRUIKER
CONVERT
TO DELTA
is opgeroepen met een partitieschema dat verschilt van het partitieschema dat uit de catalogus is afgeleid, gelieve het opgeven van het schema te vermijden omdat het partitieschema uit de catalogus gekozen moet worden.
cataloguspartitieschema
<catalogPartitionSchema>
opgegeven partitieschema:
<userPartitionSchema>
DELTA_UNIFORM_COMPATIBILITEITSLOCATIE_KAN_NIET_WORDEN_GEWIJZIGD
delta.universalFormat.compatibility.location kan niet worden gewijzigd.
DELTA_UNIFORM_COMPATIBILITY_LOCATION_NOT_REGISTERED
delta.universalFormat.compatibility.location is niet geregistreerd in de catalogus.
DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION
Ontbrekende of ongeldige locatie voor de uniforme compatibiliteitsindeling. Stel een lege map in voor delta.universalFormat.compatibility.location.
Mislukkingsoorzaak:
Zie DELTA_UNIFORM_COMPATIBILITY_MISSING_OR_INVALID_LOCATION voor meer informatie.
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Lees Iceberg met Delta Uniform is mislukt.
Voor meer informatie, zie DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Het maken of vernieuwen van de Uniform inkomende-verkeer-tabel wordt niet ondersteund.
DELTA_UNIFORM_INGRESS_NIET_ONDERSTEUND_FORMAT
Indeling <fileFormat>
wordt niet ondersteund. Alleen de oorspronkelijke bestandsindeling iceberg wordt ondersteund.
DELTA_UNIFORM_NOT_SUPPORTED
Universal Format wordt alleen ondersteund in Unity Catalog-tabellen.
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED
REFRESH
id-SYNC UNIFORM
wordt om de volgende reden niet ondersteund:
Zie DELTA_UNIFORM_REFRESH_NOT_SUPPORTED voor meer informatie
DELTA_UNIFORM_REFRESH_NOT_SUPPORTED_VOOR_BEHEERDE_ICEBERG_TABEL_MET_METADATA_PAD
REFRESH TABLE
met METADATA_PATH
wordt niet ondersteund voor beheerde Iceberg-tabellen
DELTA_UNIVERSEEL_FORMAT_CONVERSIE_MISLUKT
Kan de tabelversie <version>
niet converteren naar de universele indeling <format>
. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
De validatie van Universal Format (<format>
) is mislukt: <violation>
DELTA_UNKNOWN_CONFIGURATION
Er is een onbekende configuratie opgegeven: <config>
DELTA_ONBEKEND_RECHT
Onbekende bevoegdheid: <privilege>
DELTA_ONBEKEND_LEES_LIMIET
Onbekend ReadLimit: <limit>
DELTA_NIET-ERKENDE_KOLOMWIJZIGING
Onbekende kolomwijziging <otherClass>
. Mogelijk hebt u een verouderde Delta Lake-versie.
DELTA_ONBEKEND_INVARIANT (DELTA_UNRECOGNIZED_INVARIANT)
Onherkenbare invariant. Voer een upgrade uit van uw Spark-versie.
DELTA_UNRECOGNIZED_LOGFILE
Niet-herkend logboekbestand <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Er is geprobeerd om een niet-bestaande eigenschap ‘<property>
’ in tabel <tableName>
op te heffen.
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
biedt geen ondersteuning voor het toevoegen van bestanden met een absoluut pad
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN
wordt niet ondersteund voor het wijzigen van kolom <fieldPath>
van <oldField>
in <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Niet-ondersteunde ALTER TABLE REPLACE COLUMNS
bewerking. Reden: <details>
Kan het schema niet wijzigen van:
<oldSchema>
Aan:
<newSchema>
DELTA_NIET_ONDERSTEUND_KLONEN_VERVANG_DEZELFDE_TABEL
U hebt geprobeerd een bestaande tabel (REPLACE
) te <tableName>
met CLONE
. Deze bewerking is
niet ondersteund. Probeer een ander doel voor CLONE
of verwijder de tabel op het huidige doel.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Het wijzigen van de kolomtoewijzingsmodus van '<oldMode>
' in '<newMode>
' wordt niet ondersteund.
Niet-ondersteunde kolomkartopeerbewerkingen op kolommen met een Bloom-filterindex
Het is niet gelukt om de kolomtoewijzing <opName>
uit te voeren op kolom(men) <columnNames>
omdat deze kolommen Bloom Filter Indexen hebben.
Als u de bewerking Kolomtoewijzing wilt uitvoeren op een of meer kolommen
met Bloom Filter Index(sen),
verwijder eerst de Bloom Filter Index(sen):
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
Als u in plaats daarvan alle Bloom Filter Indexen in de tabel wilt verwijderen, gebruikt u:
DROP BLOOMFILTER INDEX ON TABLE
tableName
DELTA_ONDERSTEUNDE_KOLOMAFBEELDINGS_PROTOCOL
De huidige tabelprotocolversie biedt geen ondersteuning voor het wijzigen van kolomtoewijzingsmodi
met behulp van <config>
.
Vereiste Delta-protocolversie voor kolomtoewijzing:
<requiredVersion>
De huidige deltaprotocolversie van uw tabel:
<currentVersion>
<advice>
DELTA_ONDERSTEUNDINGS_TABEL_MAPPING_SCHEMA_WIJZIGING_NIET_MOGELIJK
Schemawijziging wordt gedetecteerd:
oud schema:
<oldTableSchema>
nieuw schema:
<newTableSchema>
Schemawijzigingen zijn niet toegestaan tijdens de wijziging van de kolomtoewijzingsmodus.
DELTA_NIET_ONGESTEUNDE_KOLOM_MAPPING_SCHRIJVEN
Het schrijven van gegevens met de kolomtoewijzingsmodus wordt niet ondersteund.
DELTA_ONDERSTEUNDE_KOLOPTIETYPE_IN_BLOEM_ZEEF_FILTER
Het maken van een bloeifilterindex voor een kolom met het type <dataType>
wordt niet ondersteund: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Kan geen opmerking toevoegen aan <fieldPath>
. Het toevoegen van een opmerking aan een kaartsleutel/-waarde of matrixelement wordt niet ondersteund.
DELTA_NIET-ONDERSTEUNDE_GEGEVENSTYPEN
Kolommen gevonden met niet-ondersteunde gegevenstypen: <dataTypeList>
. U kunt '<config>
' instellen op 'false' om de typecontrole uit te schakelen. Als u deze typecontrole uitschakelt, kunnen gebruikers mogelijk niet-ondersteunde Delta-tabellen maken en mogen ze alleen worden gebruikt bij het lezen/schrijven van verouderde tabellen.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
kan niet het resultaat zijn van een gegenereerde kolom
DELTA_UNSUPPORTED_DEEP_CLONE
Diepe kloon wordt niet ondersteund voor deze Delta-versie.
DETAIL_WEERGAVE_ONDERSTEUNING_NIET_BESCHIKBAAR
<view>
is een weergave.
DESCRIBE DETAIL
wordt alleen ondersteund voor tabellen.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN (DELTA_NIET-ONDERSTEUND_VERWIJDEREN_CLUSTERING_KOLOM)
Het verwijderen van clusterkolommen (<columnList>
) is niet toegestaan.
DELTA_UNSUPPORTED_DROP_COLUMN (Het verwijderen van een kolom wordt niet ondersteund.)
DROP COLUMN
wordt niet ondersteund voor uw Delta-tabel. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Kan geneste kolommen alleen verwijderen uit StructType. Gevonden <struct>
DELTA_NIET-ONDERSTEUND_VERWIJDER_PARTITIEKOLOM
Het verwijderen van partitiekolommen (<columnList>
) is niet toegestaan.
DELTA_ONDERSTEUNDE_UITDRUKKING NIET MOGELIJK
Niet-ondersteund expressietype(<expType>
) voor <causedBy>
. De ondersteunde typen zijn [<supportedTypes>
].
DELTA_NIET-ONDERSTEUNDE_UITDRUKKING_GEGEREERDE_KOLOM (DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN)
<expression>
kan niet worden gebruikt in een gegenereerde kolom
DELTA_NIET-ONDERSTEUNDE_FUNCTIES_VOOR_LEZEN
Niet-ondersteunde Delta-leesfunctie: tabel "<tableNameOrPath>
" vereist een of meer leestabelfuncties die niet worden ondersteund door deze versie van Databricks: <unsupported>
. Raadpleeg <link>
voor meer informatie over de compatibiliteit van Delta Lake-functies.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Niet-ondersteunde Delta-schrijffunctie: tabel<tableNameOrPath>
vereist schrijftabelfuncties die niet worden ondersteund door deze versie van Databricks: <unsupported>
. Raadpleeg <link>
voor meer informatie over de compatibiliteit van Delta Lake-functies.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Tabelfuncties die zijn geconfigureerd in de volgende Spark-configuraties of Delta-tabeleigenschappen, worden niet herkend door deze versie van Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
U verwacht dat de status van de tabelfunctie <feature>
'ondersteund' zou zijn, maar het was '<status>
'.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
Het bijwerken van geneste velden wordt alleen ondersteund voor StructType, maar u probeert een veld van <columnName>
bij te werken, dat van het type <dataType>
is.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
De opdracht FSCK REPAIR TABLE
wordt niet ondersteund in tabelversies met ontbrekende verwijderingsvectorbestanden.
Neem contact op met de ondersteuning.
DELTA_NIET_ONDERSTEUND_GENEREREN_MET_VERWIJDER_VECTOREN
De opdracht 'GENERATE
symlink_format_manifest' wordt niet ondersteund in tabelversies met verwijderingsvectoren.
Als u een versie van de tabel zonder verwijderingsvectoren wilt produceren, voert uREORG TABLE
tabel APPLY (PURGE
)' uit. Voer vervolgens de opdracht 'GENERATE
' opnieuw uit.
Zorg ervoor dat er geen gelijktijdige transacties opnieuw verwijderingsvectoren toevoegen tussen REORG
en GENERATE
.
Als u regelmatig manifesten moet genereren of als u gelijktijdige transacties niet kunt voorkomen, kunt u verwijderingsvectoren voor deze tabel uitschakelen met behulp van 'ALTER TABLE
tabel SET TBLPROPERTIES
(delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invarianten voor geneste velden anders dan StructTypes worden niet ondersteund.
DELTA_NIET_ONDERSTEUND_IN_SUBQUERY
In subquery wordt niet ondersteund in de voorwaarde <operation>
.
DELTA_NIET-ONDERSTEUND_LIJST_SLEUTELS_MET_PREFIX
listKeywithPrefix niet beschikbaar
DELTA_NIET_ONDERSTEUNDE_MANIFEST_GENERATIE_MET_KOLOM_MAPPING
Het genereren van manifesten wordt niet ondersteund voor tabellen die gebruikmaken van kolomtoewijzing, omdat externe lezers deze Delta-tabellen niet kunnen lezen. Zie de Delta-documentatie voor meer informatie.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
MERGE INTO
bewerkingen met schemaontwikkeling bieden momenteel geen ondersteuning voor het schrijven van CDC-uitvoer.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Predicaten met meerdere kolommen worden niet ondersteund in de voorwaarde <operation>
.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
Het maken van een bloom filer-index voor een geneste kolom wordt momenteel niet ondersteund: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION (Niet-ondersteund genest veld in bewerking)
Geneste velden worden niet ondersteund in de <operation>
(veld = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
De kloonbestemmingstabel is niet leeg. Voer TRUNCATE
of DELETE FROM
uit op de tabel voordat u CLONE
uitvoert.
DELTA_UNSUPPORTED_OUTPUT_MODE (Ongesteunde Uitvoermodus)
Gegevensbron <dataSource>
biedt geen ondersteuning voor <mode>
uitvoermodus
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
Het maken van een Bloom-filterindex voor partitioneringskolom wordt niet ondersteund: <columnName>
DELTA_ONDERSTEUND_HERNOEMEN_KOLOM
Het hernoemen van een kolom wordt niet ondersteund voor uw Delta-tabel. <advice>
DELTA_SCHEMA_NIET_ONDERSTEUND_TIJDENS_LEZEN
Delta biedt geen ondersteuning voor het opgeven van het schema tijdens het lezen.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY
wordt niet ondersteund voor Delta-tabellen in buckets
DELTA_NIET_ONDERSTEUNDE_BRON
<operation>
-doel ondersteunt alleen bronnen van Delta.
<plan>
DELTA_NIET-ONDERSTEUNDE_STATISCHE_PARTITIES
Het opgeven van statische partities in de partitiespecificatie wordt momenteel niet ondersteund tijdens het invoegen
DELTA_UNSUPPORTED_STRATEGY_NAME
Naam van niet-ondersteunde strategie: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Subquery's worden niet ondersteund in de <operation>
(voorwaarde = <cond>
).
Niet-ondersteunde subquery in partitievoorspellingen
Subquery wordt niet ondersteund in partitiepredicaten.
DELTA_ONDERSTEUNT_GEEN_TIJDREIS_MEERDERE_FORMATEN
Kan de tijdreizen niet in meerdere formaten specificeren.
DELTA_ONDERSTEUNDE_TIJDREIS_WEERGAVEN
Kan geen tijdreizenweergaven, subquery's, streams of gegevensfeedquery's wijzigen.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Voorbeeldtabellen afkappen wordt niet ondersteund
DELTA_NIET-ONDERSTEUNDE_TYPEWIJZIGING_IN_SCHEMA
Kan niet worden uitgevoerd op deze tabel omdat er een niet-ondersteunde typewijziging is toegepast. Veld <fieldName>
is gewijzigd van <fromType>
in <toType>
.
DELTA_NIET-ONDERSTEUNDE_TYPEWIJZIGING_OP_KOLOMMEN_MET_BLOEMFILTERINDEX
Kan het gegevenstype van kolom(en) <columnNames>
niet wijzigen
omdat deze kolommen Bloom Filter Index(en) hebben.
Als u het gegevenstype van kolom(en) wilt wijzigen met Bloom Filter Index(es),
verwijder eerst de Bloom Filter Index(sen):
DROP BLOOMFILTER INDEX ON TABLE
tableName FOR COLUMNS(<columnNames>
)
Als u in plaats daarvan alle Bloom Filter Indexen in de tabel wilt verwijderen, gebruikt u:
DROP BLOOMFILTER INDEX ON TABLE
tableName
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Geef het basispad (<baseDeltaPath>
) op bij het leegmaken van Delta-tabellen. Het leegmaken van specifieke partities wordt momenteel niet ondersteund.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
Tabel-implementatie biedt geen ondersteuning voor schrijfbewerkingen: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
U probeert schrijfbewerkingen uit te voeren op een tabel die is geregistreerd bij de doorvoercoördinator <coordinatorName>
. Er is echter geen implementatie van deze coördinator beschikbaar in de huidige omgeving en schrijfbewerkingen zonder coördinatoren zijn niet toegestaan.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES - Deze foutcode geeft aan dat schrijven naar de voorbeeldtabellen niet wordt ondersteund.
Schrijven naar voorbeeldtabellen wordt niet ondersteund
DELTA_UPDATE_SCHEMA_MISMATCH_UITDRUKKING (onverenigbaarheid in het bijwerken van de schema-uitdrukking)
Kan <fromCatalog>
niet casten naar <toCatalog>
. Al de geneste kolommen moeten overeenkomen.
DELTA_VACUÜM_COPY_INTO_STATE_FAILED
VACUUM
op gegevensbestanden is geslaagd, maar de COPY INTO
toestand voor vuilnisophaling is mislukt.
DELTA_VERSIONS_NOT_CONTIGUOUS
Versies (<versionList>
) zijn niet aaneengesloten.
Zie DELTA_VERSIONS_NOT_CONTIGUOUS voor meer informatie
DELTA_OVERTREDEN_BEPERKING_MET_WAARDEN
CHECK
beperking <constraintName> <expression>
geschonden door rij met waarden:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
De validatie van de eigenschappen van tabel <table>
is geschonden:
Zie DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED voor meer informatie
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED (Schrijven in deltaweergave niet ondersteund)
<viewIdentifier>
is een weergave. U mag geen gegevens naar een weergave schrijven.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST (De opgegeven Z-orderingskolom bestaat niet)
Z-Ordering-kolom <columnName>
bestaat niet in het gegevensschema.
DELTA Z-ordenen op kolom zonder statistieken
Z-Ordering op <cols>
zal worden geconfigureerd
ineffectief, omdat we momenteel geen statistieken verzamelen voor deze kolommen. Raadpleeg
<link>
voor meer informatie over gegevensoverslaan en z-ordering. U kunt uitschakelen
deze controle door het instellen
'%%sql stel <zorderColStatKey>
= false'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
is een partitiekolom. Z-Ordering kan alleen worden uitgevoerd op gegevenskolommen
Delta Delen
DELTA_SHARING_ACTIVATION_NONCE_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
Activeringsfout niet gevonden. De activeringskoppeling die u hebt gebruikt, is ongeldig of is verlopen. Genereer de activeringskoppeling opnieuw en probeer het opnieuw.
DELTA_SHARING_CROSS_REGION_SHARE_UNSUPPORTED
SQLSTATE: geen toegewezen waarde
Delen tussen <regionHint>
regio's en regio's buiten deze regio's wordt niet ondersteund.
DELTA_SHARING_KRIJG_ONTVANGER_EIGENSCHAPPEN_ONGELDIGE_AFHANKELIJKE
SQLSTATE: geen toegewezen waarde
De weergave die is gedefinieerd met de functie current_recipient
is alleen bedoeld voor delen en kan alleen worden opgevraagd aan de zijde van de gegevensontvanger. Het opgegeven beveiligde object met id <securableId>
is geen Delta Sharing-weergave.
DELTA_SHARING_MUTABLE_SECURABLE_TYPE_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
De opgegeven beveiligbare soort <securableKind>
biedt geen ondersteuning voor de muteerbaarheid in Delta Sharing.
DELTA_SHARING_ROTATE_TOKEN_NOT_AUTHORIZED_FOR_MARKETPLACE
SQLSTATE: geen toegewezen waarde
De opgegeven beveiligbare type <securableKind>
biedt geen ondersteuning voor het roteren van tokens die zijn geïnitieerd door de marketplace-service.
DS_AUTH_TYPE_NOT_AVAILABLE
SQLSTATE: geen toegewezen waarde
<dsError>
: authenticatietype niet beschikbaar in providerentiteit <providerEntity>
.
DS_CDF_NIET_INGESCHAKELD
SQLSTATE: geen toegewezen waarde
<dsError>
: Kan geen toegang krijgen tot de gegevensfeed voor <tableName>
. CDF is niet ingeschakeld voor de oorspronkelijke deltatabel. Neem contact op met uw gegevensprovider.
DS_CDF_NOT_GEDEELD
SQLSTATE: geen toegewezen waarde
<dsError>
: Kan geen toegang krijgen tot de gegevensfeed voor <tableName>
. CDF wordt niet gedeeld in de tabel. Neem contact op met uw gegevensprovider.
DS_CDF_RPC_INVALID_PARAMETER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_CLIENT_AUTH_ERROR_FOR_DB_DS_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_CLIENT_ERROR_FOR_DB_DS_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_EXCHANGE_FAILURE
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_CLIENT_OAUTH_TOKEN_UITWISSELING_ONGEAUTORISEERD
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
Cloudleverancier niet beschikbaar
SQLSTATE: geen toegewezen waarde
<dsError>
: cloudleverancier is tijdelijk niet beschikbaar voor <rpcName>
, probeer het opnieuw.<traceId>
DS_DATA_MATERIALIZATION_COMMAND_FAILED
SQLSTATE: geen toegewezen waarde
<dsError>
: Taak gegevensmaterialisatie <runId>
van org <orgId>
is mislukt bij opdracht <command>
Het data-materalisatiecommando wordt niet ondersteund (DS_DATA_MATERIALIZATION_COMMAND_NOT_SUPPORTED)
SQLSTATE: geen toegewezen waarde
<dsError>
: gegevensmaterialisatietaakuitvoer <runId>
van org <orgId>
ondersteunt opdracht <command>
niet
DS_DATA_MATERIALIZATION_NO_VALID_NAMESPACE
SQLSTATE: geen toegewezen waarde
<dsError>
: Kon geen geldige naamruimte vinden om materialisatie voor <tableName>
te maken. Neem contact op met uw gegevensprovider om dit op te lossen.
DS_DATA_MATERIALISATIE_RUN_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
<dsError>
: Gegevensmaterialisatietaak <runId>
van organisatie <orgId>
bestaat niet
DS_DELTA_ILLEGAL_STATE
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_DELTA_MISSING_CHECKPOINT_FILES
SQLSTATE: geen toegewezen waarde
<dsError>
: kan niet alle deelbestanden van het controlepunt vinden op versie: <version>
. <suggestion>
DS_DELTA_NULL_POINTER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_DELTA_RUNTIME_EXCEPTION
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_VERLOOP_TOKEN_NIET_GEAUTORISEERD_VOOR_MARKTPLAATS
SQLSTATE: geen toegewezen waarde
<dsError>
: de geleverde beveiligbare soort <securableKind>
biedt geen ondersteuning voor de actie voor verlopen token die is geïnitieerd door de Marketplace-service.
DS_FAILED_REQUEST_TO_OPEN_DS_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_FEATURE_ONLY_FOR_DATABRICKS_TO_DATABRICKS
SQLSTATE: geen toegewezen waarde
<dsError>
: <feature>
is alleen ingeschakeld voor delen van Databricks naar Databricks Delta.
DS_FILE_LISTING_EXCEPTION
SQLSTATE: geen toegewezen waarde
<dsError>
: <storage>
: <message>
DS_FILE_SIGNING_EXCEPTION
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_FLAKY_NETWORK_CONNECTION
SQLSTATE: geen toegewezen waarde
<dsError>
: netwerkverbinding is flaky voor <rpcName>
, probeer het opnieuw.<traceId>
DS_FOREIGN_TABLE_METADATA_REFRESH_FAILED
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_HADOOP_CONFIG_NOT_SET
SQLSTATE: geen toegewezen waarde
<dsError>
: <key>
is niet ingesteld door de beller.
DS_ILLEGAL_STATE
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_INTERNAL_ERROR_FROM_DB_DS_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_INVALID_AZURE_PATH
SQLSTATE: geen toegewezen waarde
<dsError>
: ongeldig Azure-pad : <path>
.
DS_ONGELDIGE_DELTA_ACTIE_OPERATIE
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
Ongeldig veld DS
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_ONGELDIGE_ITERATOR_OPERATIE
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_INVALID_PARTITION_SPEC
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_ONGELDIGE_RESPONS_VAN_DS_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_MATERIALIZATION_QUERY_FAILED
SQLSTATE: geen toegewezen waarde
<dsError>
: Query is mislukt voor <schema>
.
<table>
van Share <share>
.
DS_MATERIALISATIE_VRAAG_TIMEOUT
SQLSTATE: geen toegewezen waarde
<dsError>
: Query-tijd overschreden voor <schema>
.
<table>
delen vanuit <share>
na <timeoutInSec>
seconden.
DS_MISSING_IDEMPOTENCY_KEY
SQLSTATE: geen toegewezen waarde
<dsError>
: Idempotentiesleutel is vereist bij het opvragen van <schema>
.
<table>
van Share <share>
asynchroon gebruiken.
MEER_DAN_EEN_RPC_PARAMETER_SET
SQLSTATE: geen toegewezen waarde
<dsError>
: Geef slechts één van de opgegeven opties op: <parameters>
.
DS_NO_METASTORE_ASSIGNED (Geen metastore toegewezen)
SQLSTATE: geen toegewezen waarde
<dsError>
: er is geen metastore toegewezen voor de huidige werkruimte (workspaceId: <workspaceId>
).
DS_O2D_OIDC_WORKLOAD_IDENTITY_TOKEN_GENERATION_FAILED
SQLSTATE: geen toegewezen waarde
<dsError>
: Het genereren van het werkbelasting-identiteitstoken voor de OIDC-provider van O2D is mislukt: <message>
.
DS_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: geen toegewezen waarde
<dsError>
: paginerings- of queryargumenten komen niet overeen.
DS_PARTITION_COLUMNS_RENAMED
SQLSTATE: geen toegewezen waarde
<dsError>
: Partitiekolom [<renamedColumns>
] hernoemd in de gedeelde tabel. Neem contact op met uw gegevensprovider om dit op te lossen.
DS_QUERY_BEFORE_START_VERSION
SQLSTATE: geen toegewezen waarde
<dsError>
: u kunt alleen query's uitvoeren op tabelgegevens sinds versie <startVersion>
.
DS_QUERY_TIMEOUT_ON_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: er is een time-out opgetreden bij het verwerken van <queryType>
op <tableName>
na <numActions>
updates in <numIter>
iteraties.<progressUpdate> <suggestion> <traceId>
DS_RATE_LIMIT_ON_DS_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_RECIPIENT_RPC_INVALID_PARAMETER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_RESOURCE_ALREADY_EXIST_ON_DS_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_RESOURCE_EXHAUSTED
SQLSTATE: geen toegewezen waarde
<dsError>
: De limiet overschreden door <resource>
: [<limitSize>
]<suggestion>
.<traceId>
DS_RESOURCE_NOT_FOUND_ON_DS_SERVER
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_SYSTEM_WORKSPACE_GROUP_PERMISSION_UNSUPPORTED
SQLSTATE: geen toegewezen waarde
Kan geen bevoegdheden verlenen voor <securableType>
aan door het systeem gegenereerde groep <principal>
.
DS_TIJDREIZEN_NIET_TOEGESTAAN
SQLSTATE: geen toegewezen waarde
<dsError>
: Een tijdreizenquery is niet toegestaan tenzij de geschiedenis wordt gedeeld op <tableName>
. Neem contact op met uw gegevensprovider.
DS_UNAUTHORIZED
SQLSTATE: geen toegewezen waarde
<dsError>
: Niet geautoriseerd.
DS_UNAUTHORIZED_D2O_OIDC_RECIPIENT
SQLSTATE: geen toegewezen waarde
<dsError>
: Niet-geautoriseerde D2O OIDC-ontvanger: <message>
.
DS_ONBEKENDE_UITZONDERING
SQLSTATE: geen toegewezen waarde
<dsError>
: <traceId>
DS_UNKNOWN_QUERY_ID
SQLSTATE: geen toegewezen waarde
<dsError>
: onbekende query-id <queryID>
voor <schema>
.
<table>
van Share <share>
.
DS_UNKNOWN_QUERY_STATUS
SQLSTATE: geen toegewezen waarde
<dsError>
: Onbekende querystatus voor zoekopdracht-id <queryID>
voor <schema>
.
<table>
van Share <share>
.
DS_UNKNOWN_RPC
SQLSTATE: geen toegewezen waarde
<dsError>
: Onbekende rpc-<rpcName>
.
DS_UNSUPPORTED_DELTA_READER_VERSION
SQLSTATE: geen toegewezen waarde
<dsError>
: Delta-protocollezer versie <tableReaderVersion>
is hoger dan <supportedReaderVersion>
en kan niet worden ondersteund op de Delta sharing server.
NIET-ONDERSTEUNDE_DELTA_TABEL_FUNCTIES
SQLSTATE: geen toegewezen waarde
<dsError>
: Tabelfuncties <tableFeatures>
zijn te vinden in tabel<versionStr> <historySharingStatusStr> <optionStr>
DS_NIET_ONDERSTEUNDE_OPERATIE
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
DS_ONDERSTEUNING_OPSLAG_SCHEMA_NIET_GEGEVEN
SQLSTATE: geen toegewezen waarde
<dsError>
: Niet-ondersteund opslagschema: <scheme>
.
DS_UNSUPPORTED_TABLE_TYPE
SQLSTATE: geen toegewezen waarde
<dsError>
: kan <schema>
niet ophalen.
<table>
van Share <share>
omdat tabel met het type [<tableType>
] momenteel niet wordt ondersteund in het Delta Sharing-protocol.
DS_USER_CONTEXT_ERROR
SQLSTATE: geen toegewezen waarde
<dsError>
: <message>
Delen van weergavefuncties niet toegestaan
SQLSTATE: geen toegewezen waarde
<dsError>
: De volgende functie(s): <functions>
mogen niet in de weergavedeelquery worden gebruikt.
DS_WORKSPACE_DOMAIN_NOT_SET
SQLSTATE: geen toegewezen waarde
<dsError>
: werkruimte-<workspaceId>
domein is niet ingesteld.
DS_WORKSPACE_NOT_FOUND
SQLSTATE: geen toegewezen waarde
<dsError>
: werkruimte-<workspaceId>
is niet gevonden.
Automatische lader
CF_ADD_NEW_NOT_SUPPORTED
De modus Schemaontwikkeling <addNewColumnsMode>
wordt niet ondersteund wanneer het schema wordt opgegeven. Als u deze modus wilt gebruiken, kunt u het schema opgeven via cloudFiles.schemaHints
.
FOUT: Onduidelijke Authenticatieopties
Verificatie-opties voor notificatie-instellingen gevonden voor de (standaard) directory
vermeldingsmodus:
<options>
Als u de bestandsmeldingsmodus wilt gebruiken, moet u het volgende expliciet instellen:
.option("cloudFiles.<useNotificationsKey>
", "true")
Als u de validatie van uw opties wilt overslaan en deze wilt negeren
verificatieopties, kunt u het volgende instellen:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Incrementele vermeldingsmodus (cloudFiles<useIncrementalListingKey>
).
en bestandsmelding (cloudFiles.<useNotificationsKey>
)
zijn tegelijkertijd ingeschakeld.
Zorg ervoor dat u slechts één selecteert.
CF_AZURE_AUTHENTICATION_MISSING_OPTIONS
Geef een Databricks-servicereferentie op of zowel een clientId als clientSecret voor verificatie met Azure.
MEERDERE_OPTIES_VOOR_CF_AZURE_AUTHENTICATIE
Wanneer er een Databricks-servicereferentie wordt opgegeven, moeten er geen andere referentieopties (zoals clientId, clientSecret of connectionString) worden opgegeven.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
AdlsBlobSuffix en adlsDfsSuffix vereisen voor Azure
CF_BUCKET_MISMATCH
De <storeType>
in het bestandsevenement <fileEvent>
wijkt af van wat door de bron werd verwacht: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Kan het schema niet ontwikkelen wanneer het schemalogboek leeg is. Locatie van schemalogboek: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Kan het volgende wachtrijbericht niet parseren: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Kan de containernaam niet afleiden uit het pad: <path>
, opgeloste URI: <uri>
CF_KAN_GEEN_DIRECTORY_LISTING_UITVOEREN
Kan mapvermelding niet uitvoeren wanneer er een asynchrone backfill-thread wordt uitgevoerd
CF_SCHONE_BRONSTAAN_OVERSCHRIJVINGEN_TOEGESTAAN_BEIDE_AAN
Kan cloudFiles.cleanSource en cloudFiles.allowOverwrites niet tegelijk inschakelen.
CF_SCHOON_BRON_ONGEAUTORISEERDE_SCHRIJFTOESTEMMING
Auto Loader kan verwerkte bestanden niet verwijderen omdat deze geen schrijfmachtigingen heeft voor de bronmap.
<reason>
Om te herstellen kunt u het volgende doen:
- Schrijfrechten toekennen aan de bronmap OF
- CleanSource instellen op 'UIT'
U kunt de blokkering van uw stream ook opheffen door de SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors in te stellen op 'true'.
CF_DUPLICATE_KOLOM_IN_GEGEVENS
Er is een fout opgetreden bij het afleiden van het partitieschema van de tabel. U hebt dezelfde kolom gedupliceerd in uw gegevens- en partitiepaden. Als u de partitiewaarde wilt negeren, geeft u uw partitiekolommen expliciet op met behulp van: .option("cloudFiles".<partitionColumnsKey>
", "{door komma's gescheiden lijst}")
Lege_map_voor_schema-afleiding_CF
Kan het schema niet afleiden wanneer het invoerpad <path>
leeg is. Probeer de stream te starten wanneer er bestanden in het invoerpad staan of geef het schema op.
CF_EVENT_GRID_AUTH_ERROR
Kan geen Event Grid-abonnement maken. Zorg ervoor dat uw service
principal heeft <permissionType>
Event Grid-abonnementen. Meer informatie vindt u op:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Kan het Event Grid-abonnement niet maken. Zorg ervoor dat Microsoft.EventGrid is geconfigureerd.
geregistreerd als resourceprovider in uw abonnement. Meer informatie vindt u op:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Kan geen Event Grid-abonnement maken. Zorg ervoor dat uw opslag
account (<storageAccount>
) bevindt zich in uw resourcegroep (<resourceGroup>
) en dat
het opslagaccount is een StorageV2-account (algemeen gebruik v2). Meer informatie vindt u op:
<docLink>
CF_EVENT_MELDING_NIET_ONDERSTEUND
De gebeurtenismeldingsmodus voor automatisch laden wordt niet ondersteund voor <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW (Kan streamcontrole niet uitvoeren)
Kan niet controleren of de stream nieuw is
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Kan geen abonnement maken: <subscriptionName>
. Er bestaat al een abonnement met dezelfde naam en is gekoppeld aan een ander onderwerp: <otherTopicName>
. Het gewenste onderwerp is <proposedTopicName>
. Verwijder het bestaande abonnement of maak een abonnement met een nieuw achtervoegsel voor resources.
MISLUKT_BIJ_HET_AANMAKEN_PUBSUB_TOPIC
Kan onderwerp niet maken: <topicName>
. Er bestaat al een onderwerp met dezelfde naam.
<reason>
Het bestaande onderwerp verwijderen of het opnieuw proberen met een ander resourceachtervoegsel
CF_Mislukt_bij_het_verwijderen_van_GCP_melding
Kan de melding niet verwijderen met id <notificationId>
in bucket <bucketName>
voor onderwerp <topicName>
. Probeer het opnieuw of verwijder de melding handmatig via de GCP-console.
CF_KON_FREMEONT_UITGEVOERD_OPGEHOUDEN_SCHEMA_DESERIALISEREN
Kan het persistente schema niet deserialiseren vanuit tekenreeks: '<jsonSchema>
'
CF_MISLUKT_OM_SCHEMA_TE_ONTWIKKELEN
Kan geen schema ontwikkelen zonder een schemalogboek.
CF_NIET_GEVONDEN_PROVIDER
Kan provider voor <fileFormatInput>
niet vinden
CF_FAILED_TO_INFER_SCHEMA
Kan het schema voor formaat <fileFormatInput>
niet afleiden van bestaande bestanden in het invoerpad <path>
.
Zie CF_FAILED_TO_INFER_SCHEMA voor meer informatie
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Kan niet schrijven naar het schemalogboek op locatie <path>
.
CF_FILE_FORMAT_REQUIRED
Kan de vereiste optie niet vinden: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Er zijn meerdere (<num>
) abonnementen gevonden met het voorvoegsel Auto Loader voor onderwerp <topicName>
:
<subscriptionList>
Er mag slechts één abonnement per onderwerp zijn. Zorg er handmatig voor dat uw onderwerp niet meerdere abonnementen heeft.
CF_GCP_AUTHENTICATION
Gelieve een van de volgende op te geven: <clientEmail>
, <client>
,
<privateKey>
en <privateKeyId>
of geef <serviceCredential>
op om de referentie voor uw Databricks-service te gebruiken.
U kunt ook geen van deze opgeven om de standaardketen van de GCP-referentieprovider te gebruiken voor authenticatie met GCP-resources.
CF_GCP_LABELS_AANTAL_OVERSCHREDEN
Er zijn te veel labels (<num>
) ontvangen voor GCP-resource. Het maximumaantal labels per bron is <maxNum>
.
Aantal GCP-resource tags overschreden
Er zijn te veel resourcetags (<num>
) ontvangen voor GCP-resource. Het maximale aantal resourcetags per resource is <maxNum>
, omdat resourcetags worden opgeslagen als GCP-labels op resources en databricks-specifieke tags een deel van dit labelquotum verbruiken.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Onvolledig logbestand in het schema-log op pad <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Onvolledig metagegevensbestand in het controlepunt voor automatisch laden
CF_INCORRECT_BATCH_USAGE
CloudFiles is een streamingbron. Gebruik spark.readStream in plaats van spark.read. Als u deze controle wilt uitschakelen, stelt u <cloudFilesFormatValidationEnabled>
in op false.
CF_INCORRECT_SQL_PARAMS
De methode cloud_files accepteert twee vereiste tekenreeksparameters: het pad van waaruit moet worden geladen en de bestandsindeling. Opties voor bestandslezers moeten worden opgegeven in een tekenreeks sleutel-waarde map. bijvoorbeeld cloud_files("path", "json", map("option1", "value1")). Ontvangen: <params>
CF_INCORRECT_STREAM_USAGE (Onjuist gebruik van stream)
Als u cloudFiles wilt gebruiken als streamingbron, geeft u de bestandsindeling op met de optie cloudFiles.format en gebruikt u .load() om uw DataFrame te maken. Als u deze controle wilt uitschakelen, stelt u <cloudFilesFormatValidationEnabled>
in op false.
CF_INTERNAL_ERROR
Interne fout.
Zie CF_INTERNAL_ERROR voor meer informatie
CF_INVALID_ARN
Ongeldige ARN: <arn>
CF_ONGELDIG_AZURE_CERTIFICAAT
De persoonlijke sleutel met optie cloudFiles.certificate kan niet worden geparseerd. Geef een geldige openbare sleutel op in PEM-indeling.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
De persoonlijke sleutel met optie cloudFiles.certificatePrivateKey kan niet worden geparseerd. Geef een geldige persoonlijke sleutel op in PEM-indeling.
CF_ONGELDIGE_CHECKPOINT
Dit controlepunt is geen geldige CloudFiles-bron
CF_INVALID_CLEAN_SOURCE_MODE
Ongeldige modus voor de optie 'Schone Bron' <value>
.
ONGELEGDIGE GCP-RESOURCE-TAGSLEUTEL
Ongeldige resource-tag sleutel voor GCP-resource: <key>
. Sleutels moeten beginnen met een kleine letter, tussen 1 en 63 tekens lang zijn en alleen kleine letters, cijfers, onderstrepingstekens (_) en afbreekstreepjes (-) bevatten.
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Ongeldige resourcetagwaarde voor GCP-resource: <value>
. Waarden moeten tussen 0 en 63 tekens lang zijn en mogen alleen kleine letters, cijfers, onderstrepingstekens (_) en afbreekstreepjes (-) bevatten.
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Auto Loader biedt geen ondersteuning voor de volgende opties wanneer deze worden gebruikt met gebeurtenissen van beheerde bestanden:
<optionList>
U wordt aangeraden deze opties te verwijderen en de stream vervolgens opnieuw te starten.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Ongeldig antwoord van de service voor gebeurtenissen van beheerde bestanden. Neem contact op met de ondersteuning van Databricks voor hulp.
Zie CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE voor meer informatie
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.
<schemaEvolutionModeKey>
moet een van { zijn
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Schemahints kunnen slechts één keer een bepaalde kolom opgeven.
In dit geval wordt de kolom opnieuw gedefinieerd: <columnName>
meerdere keren in schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Schemahints kunnen niet worden gebruikt om de geneste typen van mappen en arrays te overrulen.
Conflicterende kolom: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset moet worden aangeroepen met een ReadLimit op deze bron.
CF_LOG_FILE_MALFORMED
Het logboekbestand is onjuist ingedeeld: kan de juiste logboekversie van <fileName>
niet lezen.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
U heeft gevraagd of Auto Loader bestaande bestanden op uw externe locatie moet negeren door de parameter includeExistingFiles op false in te stellen. De service voor gebeurtenissen van beheerde bestanden is echter nog steeds bezig met het detecteren van bestaande bestanden op uw externe locatie. Probeer het opnieuw nadat de gebeurtenissen van het beheerde bestand de detectie van alle bestanden op uw externe locatie hebben voltooid.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
U gebruikt Auto Loader met beheerde file-evenementen, maar het lijkt erop dat de externe locatie voor uw invoerpad '<path>
' geen file-evenementen heeft ingeschakeld of dat het invoerpad ongeldig is. Vraag uw Databricks-beheerder om bestandsevenementen in te schakelen op de externe locatie voor uw invoerpad.
CF_BEHEERDE_BESTANDSGEBEURTENISSEN_ENDPOINT_TOEGANG_GEWEIGERD (CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED)
U gebruikt Automatisch laadprogramma met gebeurtenissen van beheerde bestanden, maar u hebt geen toegang tot de externe locatie of het volume voor het invoerpad '<path>
' of het invoerpad is ongeldig. Vraag uw Databricks-beheerder om leesmachtigingen te verlenen voor de externe locatie of het externe volume of geef een geldig invoerpad op binnen een bestaande externe locatie of een bestaand volume.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Automatisch laden met beheerde bestandsgebeurtenissen is alleen beschikbaar op Databricks serverless. Als u wilt doorgaan, verplaatst u deze workload naar serverloze Databricks of schakelt u de optie cloudFiles.useManagedFileEvents uit.
CF_MAX_MOET_POSITIEF_ZIJN
max moet positief zijn
CF_METADATA_FILE_GEBRUIKT_DOOE_MEERDERE_PROCESSEN
Meerdere streamingquery's worden gelijktijdig gebruikt met <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Het metagegevensbestand in de controlepuntmap van de streamingbron ontbreekt. Deze metagegevens
bestand bevat belangrijke standaardopties voor de stream, zodat de stream niet opnieuw kan worden gestart
Nu onmiddellijk. Neem contact op met de ondersteuning van Databricks voor hulp.
CF_ONTBREKENDE_PARTITIE_KOLOM_FOUT
Partitiekolom <columnName>
bestaat niet in het opgegeven schema:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Geef een schema op met behulp van .schema() als er geen pad is opgegeven voor de CloudFiles-bron tijdens het gebruik van de bestandsmeldingsmodus. Om Auto Loader het schema te laten afleiden, geeft u een basispad op in .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Er zijn bestaande meldingen gevonden voor onderwerp-<topicName>
in bucket-<bucketName>
:
melding,id
<notificationList>
Om vervuiling van de abonnee met onbedoelde gebeurtenissen te voorkomen, verwijder de bovenstaande meldingen en probeer het opnieuw.
CF_NEW_PARTITION_ERROR
Nieuwe partitiekolommen zijn afgeleid uit uw bestanden: [<filesList>
]. Geef alle partitiekolommen in uw schema op of geef een lijst op met partitiekolommen waarvoor u waarden wilt extraheren met behulp van: .option("cloudFiles.partitionColumns", "{komma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Er is een fout opgetreden bij het afleiden van het partitieschema van de huidige batch bestanden. Geef uw partitiekolommen expliciet op met behulp van: .option("cloudFiles.<partitionColumnOption>
", "{door komma's gescheiden lijst}")
CF_PAD_BESTAAT_NIET_VOOR_LESBESTANDEN
Kan bestanden niet lezen wanneer het invoerpad <path>
niet bestaat. Controleer of het invoerpad bestaat en probeer het opnieuw.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Periodieke backfill wordt niet ondersteund als asynchrone backfill is uitgeschakeld. U kunt asynchrone backfill/directory listing inschakelen door spark.databricks.cloudFiles.asyncDirListing
in te stellen op true.
CF_PREFIX_MISMATCH
Niet-overeenkomende gebeurtenis gevonden: sleutel <key>
heeft het voorvoegsel niet: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Als u geen andere wijzigingen in uw code hoeft aan te brengen, stelt u de SQL in
configuratie: '<sourceProtocolVersionKey> = <value>
'
om uw stream te hervatten. Raadpleeg:
<docLink>
voor meer informatie.
CF_REGIO_NIET_GEVONDEN_FOUT
Kan de standaard AWS-regio niet ophalen. Geef een regio op met behulp van de optie cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Kan geen meldingsservices maken: het achtervoegsel van de resource mag niet leeg zijn.
Ongeldig teken in resource-suffix voor AWS: CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Kan geen meldingsservices maken: het achtervoegsel van de resource mag alleen alfanumerieke tekens, afbreekstreepjes (-) en onderstrepingstekens (_) bevatten.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Kan geen meldingsservices maken: het achtervoegsel van de resource mag alleen kleine letters, cijfers en streepjes (-) bevatten.
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Kan geen meldingsservices maken: het resourceachtervoegsel mag alleen alfanumerieke tekens, afbreekstreepjes (-), onderstrepingstekens (_), punten (.), tildes (~) plustekens (+) en procenttekens (<percentSign>
) bevatten.
CF_RESOURCE_SUFFIX_LIMIT
Kan geen meldingsservices maken: het achtervoegsel van de resource mag niet meer dan <limit>
tekens bevatten.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Kan geen meldingsservices maken: het achtervoegsel van de resource moet tussen <lowerLimit>
en <upperLimit>
tekens staan.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Beperkte GCP-resource tag-sleutel (<key>
) gevonden. De volgende GCP-resourcetagsleutels zijn beperkt voor automatisch laden: [<restrictedKeys>
]
CF_BEHOUD_GROTER_DAN_MAXIMALE_BESTANDSLEEFTIJD
cloudFiles.cleanSource.retentionDuration mag niet groter zijn dan cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Kan geen melding maken voor onderwerp: <topic>
met voorvoegsel: <prefix>
. Er is al een onderwerp met dezelfde naam met een ander voorvoegsel: <oldPrefix>
. Probeer een ander resourceachtervoegsel te gebruiken voor het instellen of verwijderen van de bestaande installatie.
CF_SCHEMA_LOG_DEEP_CLONE_FAILED
Kan geen schemalogboekvermeldingen klonen en migreren vanuit het bronschemalogboek.
CF_SFTP_WACHTWOORD_OF_SLEUTELBESTAND_ONTBREEKT
Wachtwoord- of sleutelbestand moet worden opgegeven voor SFTP.
Geef het wachtwoord op in de bron-URI of via <passwordOption>
of geef de inhoud van het sleutelbestand op via <keyFileOption>
.
CF_SFTP_NIET_INGESCHAKELD
Toegang tot SFTP-bestanden is niet ingeschakeld.. Neem contact op met de ondersteuning van Databricks voor hulp.
CF_SFTP_REQUIRE_UC_CLUSTER
Een UC-cluster is vereist voor toegang tot SFTP-bestanden. Neem contact op met de ondersteuning van Databricks voor hulp.
CF_SFTP_GEBRUIKERSNAAM_NIET_GEVONDEN
De gebruikersnaam moet worden opgegeven voor SFTP.
Geef de gebruikersnaam op in de bron-URI of via <option>
.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Geef het pad naar de bronmap op met behulp van optie path
.
CF_BRON_NIET_ONDERSTEUND
De bron voor cloudbestanden ondersteunt op dit moment alleen S3-, Azure Blob Storage (wasb/wasbs), Azure Data Lake Gen1 (adl) en Gen2 (abfs/abfss)-paden. pad: '<path>
', opgeloste URI: '<uri>
'
CF_STATUS_ONJUISTE_SQL_PARAMETERS
De cloud_files_state-functie accepteert een tekenreeksparameter die de controlepuntmap van een cloudFiles-stream of een meerdelige tableName aangeeft die een streamingtabel identificeert en een optionele tweede geheel getalparameter die de controlepuntversie vertegenwoordigt om de status te laden. De tweede parameter kan ook 'nieuwste' zijn om het meest recente controlepunt te lezen. Ontvangen: <params>
CF_STAAT_ONGELDIGE_HECKPUNT_PAD
Het pad naar het invoercontrolepunt <path>
is ongeldig. Het pad bestaat niet of er zijn geen cloud_files bronnen gevonden.
CF_STATE_INVALID_VERSION
De opgegeven versie <version>
bestaat niet of is verwijderd tijdens de analyse.
CF_THREAD_IS_DEAD (No improvements necessary if it is a technical term, or explain its meaning if possible and applicable.)
<threadName>
draad is dood.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Kan de locatie van het stroomcontrolepunt niet afleiden van de locatie van het broncontrolepunt: <checkPointLocation>
CF_ONMOGELIJK_HET_BESTANDSFORMAAT_TE_DETECTEREN
Kan de bronbestandsindeling niet detecteren uit <fileSize>
voorbeeldbestand(en), gevonden <formats>
. Geef het formaat op.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Kan bucketgegevens niet extraheren. Pad: '<path>
', opgeloste URI: '<uri>
'.
CF_ONMOGELIJK_OM_SLEUTELINFORMATIE_TE_EXTRAHEREN
Kan belangrijke informatie niet extraheren. Pad: '<path>
', opgeloste URI: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Kan de opslagaccountgegevens niet extraheren; pad: '<path>
', opgeloste URI: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
Er is een gebeurtenis voor het hernoemen van de map ontvangen voor het pad <path>
, maar we kunnen deze map niet efficiënt opnemen in een lijst. Als u wilt doorgaan met de stream, stelt u de optie 'cloudFiles.ignoreDirRenames' in op true en kunt u overwegen om reguliere backfills in te schakelen met cloudFiles.backfillInterval om deze gegevens te verwerken.
CF_ONVERWACHTE_LEESLIMIET
Onverwachte ReadLimit: <readLimit>
CF_ONBEKEND_OPTIE_SLEUTEL_FOUT
Onbekende optietoetsen gevonden:
<optionList>
Zorg ervoor dat alle opgegeven optiesleutels juist zijn. Als u iets wilt overslaan
Om uw opties te valideren en deze onbekende opties te negeren, kunt u het volgende instellen:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
Onbekend ReadLimit: <readLimit>
CF_NIET_ONDERSTEUNDE_CLOUD_FILES_SQL_FUNCTIE
De SQL-functie 'cloud_files' voor het maken van een streamingbron voor automatisch laden wordt alleen ondersteund in een Delta Live Tables-pijplijn. Meer informatie vindt u op:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
Schemadeductie wordt niet ondersteund voor indeling: <format>
. Geef het schema op.
CF_UNSUPPORTED_LOG_VERSION
Niet-ondersteunde LogVersion: de maximaal ondersteunde logversie is v<maxVersion>``, but encountered v``<version>
. Het logboekbestand is geproduceerd door een nieuwere versie van DBR en kan niet worden gelezen door deze versie. Voer een upgrade uit.
CF_ONDERSTEUND_SCHEMA_EVOLUTIE_MODUS (CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE)
De modus schema-evolutie <mode>
wordt niet ondersteund voor indeling: <format>
. Stel de evolutiemodus van het schema in op 'none'.
CF_USE_DELTA_FORMAT
Lezen vanuit een Delta-tabel wordt niet ondersteund met deze syntaxis. Als u gegevens uit Delta wilt gebruiken, raadpleegt u de documenten: een Delta-tabel (<deltaDocLink>
) lezen of een Delta-tabel lezen als een stroombron (<streamDeltaDocLink>
). De streamingbron van Delta is al geoptimaliseerd voor incrementeel verbruik van gegevens.
Georuimtelijk
EWKB_PARSE_ERROR
Fout bij het parseren van EWKB: <parseError>
op positie <pos>
GEOJSON_PARSE_ERROR
Fout bij het parseren van GeoJSON: <parseError>
op positie <pos>
Zie GEOJSON_PARSE_ERROR voor meer informatie
H3_INVALID_CELL_ID
<h3Cell>
is geen geldige H3-cel-id
Voor meer informatie, zie H3_INVALID_CELL_ID.
H3_INVALID_GRID_DISTANCE_VALUE
H3-rasterafstand <k>
moet niet-negatief zijn
Zie H3_INVALID_GRID_DISTANCE_VALUE voor meer informatie
H3_INVALID_RESOLUTION_VALUE
H3-resolutie <r>
moet liggen tussen <minR>
en <maxR>
, inclusief
Voor meer informatie, zie H3_INVALID_RESOLUTION_VALUE.
H3_NOT_ENABLED
<h3Expression>
is uitgeschakeld of niet ondersteund. Overweeg foton in te schakelen of over te schakelen naar een laag die H3-expressies ondersteunt
Zie H3_NOT_ENABLED voor meer informatie
H3_PENTAGON_ENCOUNTERED_ERROR
Er is een vijfhoek aangetroffen tijdens het berekenen van de hexring van <h3Cell>
met rasterafstand <k>
H3_UNDEFINED_GRID_DISTANCE
H3-rasterafstand tussen <h3Cell1>
en <h3Cell2>
is niet gedefinieerd
ST_DIFFERENT_SRID_VALUES (verschillende SRID-waarden)
Argumenten voor "<sqlFunction>
" moeten dezelfde SRID-waarde hebben. Waarden voor SRID gevonden: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
Ongeldige argumenttype_instelling (ST_INVALID_ARGUMENT_TYPE)
Argument voor "<sqlFunction>
" moet van het type <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: ongeldige of niet-ondersteunde CRS-transformatie van SRID-<srcSrid>
naar SRID-<trgSrid>
ST_ONGELDIGE_ENDIANNESS_WAARDE
Endianness '<e>
' moet 'NDR' (little-endian) of 'XDR' (big-endian) zijn
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: Ongeldige geohash-waarde: '<geohash>
'. Geohash-waarden moeten geldige basis32-tekenreeksen in kleine letters zijn, zoals beschreven inhttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_INDEX_VALUE
<sqlFunction>
: ongeldige index <index>
voor de opgegeven georuimtelijke waarde.
ST_INVALID_PRECISION_VALUE
Precisie-<p>
moet liggen tussen <minP>
en <maxP>
, inclusief
ST_INVALID_SRID_VALUE
Ongeldige of niet-ondersteunde SRID <srid>
ST_NIET_INGESCHAKELD
<stExpression>
is uitgeschakeld of niet ondersteund. Overweeg om Photon in te schakelen of over te schakelen naar een laag die ST-expressies ondersteunt
ST_UNSUPPORTED_RETURN_TYPE
De GEOGRAPHY
en GEOMETRY
gegevenstypen kunnen niet worden geretourneerd in query's. Gebruik een van de volgende SQL-expressies om ze te converteren naar standaardindelingen voor uitwisseling: <projectionExprs>
.
WKB_PARSE_ERROR
Fout bij het parseren van WKB: <parseError>
op positie <pos>
Zie WKB_PARSE_ERROR voor meer informatie
WKT_PARSE_ERROR
Fout bij het parseren van WKT: <parseError>
op positie <pos>
Zie WKT_PARSE_ERROR voor meer informatie
Unity Catalog
CONFLICTERENDE_KOLOMNAMEN_FOUT
Kolom <columnName>
conflicteert met een andere kolom met dezelfde naam, maar met/zonder volgspaties (bijvoorbeeld een bestaande kolom met de naam <columnName>
''). Wijzig de naam van de kolom met een andere naam.
VERBINDINGSREFERENTIES_WORDEN_NIET_ONDERSTEUND_VOOR_ONLINE_TABELVERBINDING
SQLSTATE: geen toegewezen waarde
Ongeldige aanvraag voor het ophalen van referenties op verbindingsniveau voor het verbindingstype <connectionType>
. Dergelijke referenties zijn alleen beschikbaar voor beheerde PostgreSQL-verbindingen.
VERBINDINGSTYPE_NIET_INGESCHAKELD
SQLSTATE: geen toegewezen waarde
Verbindingstype<connectionType>
is niet ingeschakeld. Schakel de verbinding in om deze te gebruiken.
DELTA_DELANDEEL_LEESALLEEN_ONTVANGER_BESTAAT
SQLSTATE: geen toegewezen waarde
Er is al een ontvanger-object '<existingRecipientName>
' met dezelfde deel-ID '<existingMetastoreId>
'.
DELTA_SHARING_READ_ONLY_SECURABLE_KIND
SQLSTATE: geen toegewezen waarde
Gegevens van een beveiligbaar type delta delen <securableKindName>
zijn alleen-lezen en kunnen niet worden gemaakt, gewijzigd of verwijderd.
Externetoegang uitgeschakeld op metastore
SQLSTATE: geen toegewezen waarde
De verstrekking van verificatiegegevens wordt geweigerd voor omgevingen buiten Databricks Compute omdat externe gegevenstoegang is uitgeschakeld voor metastore <metastoreName>
. Neem contact op met uw metastore-beheerder om de configuratie van Externe gegevenstoegang in te schakelen in de metastore.
EXTERNAL_ACCESS_NOT_ALLOWED_FOR_TABLE
SQLSTATE: geen toegewezen waarde
Tabel met id-<tableId>
kan niet worden geopend van buiten Databricks Compute Environment omdat het type is <securableKind>
. Alleen 'TABLE_EXTERNAL
', 'TABLE_DELTA_EXTERNAL
' en 'TABLE_DELTA
' tabeltypen kunnen extern worden geopend.
EXTERNE_GEBRUIKSSCHEMA_TOEGEWEZEN_AAN_VERKEERD_BEVEILIGBAAR_TYPE
SQLSTATE: geen toegewezen waarde
Privilege EXTERNAL
USE SCHEMA
is niet van toepassing op deze entiteit <assignedSecurableType>
en kan alleen worden toegewezen aan een schema of catalogus. Verwijder in plaats daarvan de bevoegdheid uit het <assignedSecurableType>
-object en wijs deze toe aan een schema of catalogus.
EXTERNE_SCHRIJFBEWERKING_NIET_TOEGESTAAN_VOOR_TABEL
SQLSTATE: geen toegewezen waarde
Tabel met id-<tableId>
kan niet worden geschreven van buiten Databricks Compute Environment omdat het type <securableKind>
is. Alleen 'TABLE_EXTERNAL
' en 'TABLE_DELTA_EXTERNAL
' tabeltypen kunnen extern worden geschreven.
BUITENLANDSE_CATALOGUS_OPSLAG_ROOT_MOET_SCHRIJVEN_ONDERSTEUNEN
SQLSTATE: geen toegewezen waarde
De opslaglocatie voor een buitenlandse catalogus van het type <catalogType>
wordt gebruikt voor het verwijderen van gegevens en kan niet alleen-lezen zijn.
HMS_BEVEILIGBARE_OVERLAPPINGSLIMIET_OVERSCHREDEN
SQLSTATE: geen toegewezen waarde
Het aantal <resourceType>
's voor invoerpad <url>
overschrijdt de toegestane limiet (<overlapLimit>
) voor overlappende HMS-<resourceType>
's.
INVALID_RESOURCE_NAME_DELTA_SHARING (Ongeldige resourcenaam voor Delta Sharing)
SQLSTATE: geen toegewezen waarde
Delta Sharing-verzoeken worden niet ondersteund met resourcenamen
Ongeldig_resource_naam_entiteit_type
SQLSTATE: geen toegewezen waarde
De opgegeven resourcenaam verwijst naar het entiteitstype <provided>
, maar <expected>
werd verwacht.
INVALID_RESOURCE_NAME_METASTORE_ID
SQLSTATE: geen toegewezen waarde
De opgegeven resourcenaam verwijst naar een metastore die niet binnen het bereik van de huidige aanvraag valt
LOCATIE_OVERLAP
SQLSTATE: geen toegewezen waarde
De URL van het invoerpad '<path>
' overlapt met <overlappingLocation>
binnen '<caller>
' aanroep.
<conflictingSummary>
.
REDSHIFT_FOREIGN_CATALOG_STORAGE_ROOT_MUST_BE_S3
SQLSTATE: geen toegewezen waarde
De opslaglocatie voor de externe Redshift-catalogus moet AWS S3 zijn.
BEVEILIGBAAR_TYPE_ONDERSTEUNT_LAKEHOUSE_FEDERATIE_NIET
SQLSTATE: geen toegewezen waarde
Het element dat beveiligd kan worden met type <securableKind>
biedt geen ondersteuning voor Lakehouse Federation.
SECURABLE_KIND_NOT_ENABLED (Beveiligingstype niet ingeschakeld)
SQLSTATE: geen toegewezen waarde
Beveiligbaar type '<securableKind>
' is niet ingeschakeld. Als dit een beveiligbaar type is dat is gekoppeld aan een preview-functie, schakelt u deze in in de werkruimte-instellingen.
SECURABLE_TYPE_ONDERSTEUNT_GEEN_LAKEHOUSE_FEDERATIE
SQLSTATE: geen toegewezen waarde
Beveiligbaar met type <securableType>
biedt geen ondersteuning voor Lakehouse Federation.
AANTAL KOLOMMEN VAN BRONTAFEL OVERTREFT LIMIET
SQLSTATE: geen toegewezen waarde
De brontabel bevat meer dan <columnCount>
kolommen. Verminder het aantal kolommen tot <columnLimitation>
of minder.
UC_AAD_TOKEN_LEVENSDUUR_TE_KORT
SQLSTATE: geen toegewezen waarde
De levensduur van uitgewisselde AAD-tokens is <lifetime>
die te kort is geconfigureerd. Controleer uw Azure AD-instelling om ervoor te zorgen dat het tijdelijke toegangstoken ten minste een uur heeft.https://learn.microsoft.com/azure/active-directory/develop/active-directory-configurable-token-lifetimes
UC_ABAC_EVALUATION_ERROR
SQLSTATE: geen toegewezen waarde
Fout bij het evalueren van ABAC-beleid op <resource>
.
UC_AUTHZ_ACTION_NOT_SUPPORTED
SQLSTATE: geen toegewezen waarde
Autoriseren <actionName>
wordt niet ondersteund; Controleer of de aangeroepen RPC is geïmplementeerd voor dit resourcetype
De aanmaak van de HMS-verbinding is geweigerd vanwege onvoldoende rechten
SQLSTATE: geen toegewezen waarde
Kan geen verbinding maken voor een ingebouwde Hive-metastore omdat gebruiker: <userId>
niet de beheerder van de werkruimte is: <workspaceId>
UC_BUILTIN_HMS_CONNECTION_MODIFY_BEPAALD_VELD wijzigen (beperkt)
SQLSTATE: geen toegewezen waarde
Probeer een beperkt veld in de ingebouwde HMS-verbinding '<connectionName>
' te wijzigen. Alleen 'warehouse_directory' kan worden bijgewerkt.
UC_KAN_PARTITIEFILTERKOLOM_NIET_HERNOEMEN
SQLSTATE: geen toegewezen waarde
Kan de naam van de tabelkolom niet wijzigen <originalLogicalColumn>
omdat deze wordt gebruikt voor het filteren van partities in <sharedTableName>
. Als u wilt doorgaan, kunt u de tabel verwijderen uit de share, de naam van de kolom wijzigen en de tabel opnieuw delen met de gewenste partitiefilterkolommen. Dit kan mogelijk echter de streaming query voor uw ontvanger verbreken.
UC_KIND_AANMAKEN_VERBODEN_VOOR_NIET_UC_CLUSTER
SQLSTATE: geen toegewezen waarde
Kan geen <securableType>
'<securable>
' maken onder <parentSecurableType>
'<parentSecurable>
' omdat de aanvraag niet afkomstig is van een UC-cluster.
UC_CLOUD_STORAGE_TOEGANGSFOUT
SQLSTATE: geen toegewezen waarde
Kan geen toegang krijgen tot cloudopslag: <errMsg>
exceptionTraceId=<exceptionTraceId>
UC_CONFLLICTERENDE_CONNECTIE_OPTIES
SQLSTATE: geen toegewezen waarde
Kan geen verbinding maken met zowel gebruikersnaam/wachtwoord als oauth-verificatieopties. Kies er een.
UC_VERBINDING_BESTAAT_VOOR_CREDENTIAL
SQLSTATE: geen toegewezen waarde
Referentie '<credentialName>
' heeft een of meer afhankelijke verbindingen. U kunt force-optie gebruiken om de referentie bij te werken of te verwijderen, maar de verbindingen met deze referentie werken mogelijk niet meer.
UC_CONNECTION_EXPIRED_ACCESS_TOKEN
SQLSTATE: geen toegewezen waarde
Het toegangstoken dat aan de verbinding is gekoppeld, is verlopen. Werk de verbinding bij om de OAuth-stroom opnieuw op te starten om een token op te halen.
UC_VERBINDING_VERLOPEN_VERNIEUW_TOKEN
SQLSTATE: geen toegewezen waarde
Het vernieuwingstoken dat aan de verbinding is gekoppeld, is verlopen. Werk de verbinding bij om de OAuth-stroom opnieuw op te starten om een nieuw token op te halen.
UC_VERBINDING_IN_MISLUKTE_STATUS
SQLSTATE: geen toegewezen waarde
De verbinding heeft de status FAILED
. Update de verbinding met geldige inloggegevens om deze opnieuw te activeren.
UC_CONNECTION_MISSING_REFRESH_TOKEN
SQLSTATE: geen toegewezen waarde
Er is geen refresh token gekoppeld aan de verbinding. Werk de integratie van de OAuth-client in uw id-provider bij om vernieuwingstokens te retourneren en werk de verbinding bij of maak de verbinding opnieuw om de OAuth-stroom opnieuw op te starten en de benodigde tokens op te halen.
UC_VERBINDING_OAUTH_WISSELING_MISLUKT
SQLSTATE: geen toegewezen waarde
De OAuth-tokenuitwisseling is mislukt met HTTP-statuscode <httpStatus>
. Het geretourneerde serverantwoord of uitzonderingsbericht is: <response>
UC_GECOÖRDINEERDE_COMMIT_BEKWAAMHEID_NIET_INGESCHAKELD
SQLSTATE: geen toegewezen waarde
Ondersteuning voor gecoördineerde doorvoeringen is niet ingeschakeld. Neem contact op met de ondersteuning van Databricks.
AANMAKEN_VERBODEN_ONDER_INACTIEF_BEVEILIGD_ELEMENT
SQLSTATE: geen toegewezen waarde
Kan <securableType>
'<securableName>
' niet maken omdat deze zich onder een <parentSecurableType>
'<parentSecurableName>
' bevindt die niet actief is. Verwijder het bovenliggende beveiligbare object en maak het bovenliggende object opnieuw aan.
UC_AANMELDINGSTOEGANG_VERBINDINGSPARSERING_MISLUKT
SQLSTATE: geen toegewezen waarde
Kan de opgegeven toegangsconnector-id niet parseren: <accessConnectorId>
. Controleer de opmaak en probeer het opnieuw.
UC_CREDENTIAL_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE: geen toegewezen waarde
Kan geen AAD-token verkrijgen om cloudmachtigingsvalidatie uit te voeren voor een toegangsconnector. Voer de actie opnieuw uit.
UC_CREDENTIAL_ONGELDIGE_CLOUD_RECHTEN
SQLSTATE: geen toegewezen waarde
Voor het registreren van een referentie is de rol bijdrager vereist voor de bijbehorende toegangsconnector met <accessConnectorId>
-ID. Neem contact op met uw accountbeheerder.
UC_CREDENTIAL_ONGELDIG_AANMELDINGSTYPE_VOOR_DOEL
SQLSTATE: geen toegewezen waarde
Referentietype '<credentialType>
' wordt niet ondersteund voor doel '<credentialPurpose>
'
UC_CREDENTIAL_PERMISSION_DENIED - Toestemming geweigerd voor referentie.
SQLSTATE: geen toegewezen waarde
Alleen de accountbeheerder kan een referentie maken of bijwerken met het type <storageCredentialType>
.
UC_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE: geen toegewezen waarde
Het vertrouwensbeleid van de IAM-rol om toe te staan dat het Databricks-account de rol mag aannemen, zou een externe id moeten vereisen. Neem contact op met uw accountbeheerder om de voorwaarde voor de externe id toe te voegen. Dit gedrag is bedoeld om te beschermen tegen het Verwarde Deputy-probleem https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_CREDENTIAL_ONDERGELIJKDIENSTPRINCIPAL_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
Service-principals kunnen de CREATE_STORAGE_CREDENTIAL
bevoegdheid niet gebruiken om beheerde identiteiten te registreren. Als u een beheerde identiteit wilt registreren, wijst u de service-principal de rol van accountbeheerder toe.
UC_CREDENTIAL_WORKSPACE_API_PROHIBITED
SQLSTATE: geen toegewezen waarde
Het maken of bijwerken van een referentie als een niet-accountbeheerder wordt niet ondersteund in de API op accountniveau. Gebruik in plaats daarvan de API op werkruimteniveau.
UC_DELTA_UNIVERSAL_FORMAT_KAN_IJSBERG_VERSIE_NIET_PARSEN
SQLSTATE: geen toegewezen waarde
Kan de versie van de ijsbergtabel niet analyseren vanaf metagegevenslocatie <metadataLocation>
.
UC_DELTA_UNIVERSAL_FORMAT_CONCURRENT_WRITE
SQLSTATE: geen toegewezen waarde
Er is een gelijktijdige update naar dezelfde IJsberg-metagegevensversie gedetecteerd.
UC_DELTA_UNIVERSAL_FORMAT_ONGELDIGE_LOCATIE_METADATA
SQLSTATE: geen toegewezen waarde
De locatie van de vastgelegde metagegevens <metadataLocation>
is ongeldig. Het is geen submap van de hoofdmap van de tabel <tableRoot>
.
UC_DELTA_UNIVERSAL_FORMAT_MISSING_FIELD_CONSTRAINT
SQLSTATE: geen toegewezen waarde
De opgegeven conversiegegevens voor de delta iceberg-indeling ontbreken vereiste velden.
UC_DELTA_UNIVERSAL_FORMAT_NON_CREATE_CONSTRAINT
SQLSTATE: geen toegewezen waarde
Het instellen van informatie over het delta iceberg-formaat bij aanmaak wordt niet ondersteund.
UC_DELTA_UNIVERSAL_FORMAT_TOO_LARGE_CONSTRAINT
SQLSTATE: geen toegewezen waarde
De opgegeven conversie-informatie over de delta iceberg-indeling is te groot.
UC_DELTA_UNIVERSAL_FORMAT_UPDATE_INVALID
SQLSTATE: geen toegewezen waarde
Uniforme metagegevens kunnen alleen worden bijgewerkt op Delta-tabellen waarvoor uniform is ingeschakeld.
UC_AFHANKELIJKHEIDSDIEPTELIMIET_OVERSCHREDEN
SQLSTATE: geen toegewezen waarde
<resourceType>
'<ref>
' diepte overschrijdt de limiet (of heeft een kringreferentie).
UC_AFHANKELIJKHEID_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
<resourceType>
'<ref>
' is ongeldig omdat een van de onderliggende resources niet bestaat. <cause>
UC_AFHANKELIJKHEID_TOEGANG_GEWEIGERD
SQLSTATE: geen toegewezen waarde
<resourceType>
'<ref>
' heeft onvoldoende bevoegdheden om uit te voeren omdat de eigenaar van een van de onderliggende resources een autorisatiecontrole heeft mislukt. <cause>
UC_DUBBELE_VERBINDING
SQLSTATE: geen toegewezen waarde
Er bestaat al een verbinding met de naam '<connectionName>
' met dezelfde URL. Vraag de eigenaar om toestemming om die verbinding te gebruiken in plaats van een duplicaat te maken.
UC_DUPLICAAT_STOFFENCATALOGUS_AANMAKEN
SQLSTATE: geen toegewezen waarde
Er is geprobeerd een Fabric-catalogus te maken met url '<storageLocation>
' die overeenkomt met een bestaande catalogus, die niet is toegestaan.
UC_DUPLICATE_TAG_TOEWYSING_AANMAKEN
SQLSTATE: geen toegewezen waarde
Tagtoewijzing met tagsleutel <tagKey>
bestaat al
UC_ENTITEIT_HEEFT_GEEN_OVEREENKOMSTIGE_ONLINE_CLUSTER
SQLSTATE: geen toegewezen waarde
Entiteit <securableType> <entityId>
heeft geen bijbehorend onlinecluster.
UC_OVERSCHRIJDT_MAX_BESTANDSLIMIET
SQLSTATE: geen toegewezen waarde
Er zijn meer dan <maxFileResults>
bestanden. Geef [max_results] op om het aantal geretourneerde bestanden te beperken.
UC_EXTERNE_LOCATIE_OP_NIET_TOEGESTAAN
SQLSTATE: geen toegewezen waarde
Kan niet <opName> <extLoc> <reason>
.
<suggestion>
.
UC_FUNCTIE_UITGESCHAKELD
SQLSTATE: geen toegewezen waarde
<featureName>
is momenteel uitgeschakeld in UC.
UC_VREEMDE_CATALOGUS_VOOR_VERBINDINGSTYPE_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
Het maken van een buitenlandse catalogus voor verbindingstype '<connectionType>
' wordt niet ondersteund. Dit verbindingstype kan alleen worden gebruikt voor het maken van beheerde opnamepijplijnen. Raadpleeg de Databricks-documentatie voor meer informatie.
Controle Van Buitenlandse Referenties Alleen Voor Leesbewerkingen
SQLSTATE: geen toegewezen waarde
Alleen READ-inloggegevens kunnen worden opgehaald voor vreemde tabellen.
UC_VOORKEURSLEUTEL_KIND_KOLOM_LENGTE_VERSCHILLEN
SQLSTATE: geen toegewezen waarde
Vreemde sleutel <constraintName>
: onderliggende kolommen en bovenliggende kolommen zijn van een verschillende grootte.
UC_FOREIGN_KEY_COLUMN_MISMATCH (buitenlandse sleutel kolom komt niet overeen)
SQLSTATE: geen toegewezen waarde
De buitenlandse sleutel ouderkolommen komen niet overeen met de primaire sleutel kindkolommen waarnaar wordt verwezen. Kolommen met vreemde sleutels in de bovenliggende tabel zijn (<parentColumns>
) en kindkolommen met primaire sleutels zijn (<primaryKeyChildColumns>
).
UC_VREEMDE_SLEUTEL_KOLOM_TYPE_PADLAAG
SQLSTATE: geen toegewezen waarde
Het kolomtype van de vreemde sleutel-kind komt niet overeen met het kolomtype van de ouder. Buitenlandse sleutelkolom <childColumnName>
heeft het type <childColumnType>
en de bovenliggende sleutelkolom <parentColumnName>
heeft type <parentColumnType>
.
UC_GCP_INVALID_PRIVATE_KEY
SQLSTATE: geen toegewezen waarde
Toegang geweigerd. Oorzaak: de persoonlijke sleutel van het serviceaccount is ongeldig.
UC_GCP_ONJUIST_PARTICULIERE_SLEUTEL_JSON_FORMAT
SQLSTATE: geen toegewezen waarde
De OAuth-persoonlijke sleutel van het Google Server-account moet een geldig JSON-object met vereiste velden zijn. Zorg ervoor dat u het volledige JSON-bestand opgeeft dat is gegenereerd op basis van de sectie SLEUTELS van de pagina met details van het serviceaccount.
UC_GCP_INVALID_PRIVATE_KEY_JSON_FORMAT_MISSING_FIELDS
SQLSTATE: geen toegewezen waarde
De OAuth-persoonlijke sleutel van het Google Server-account moet een geldig JSON-object met vereiste velden zijn. Zorg ervoor dat u het volledige JSON-bestand opgeeft dat is gegenereerd op basis van de sectie SLEUTELS van de pagina met details van het serviceaccount. Ontbrekende velden zijn <missingFields>
UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: geen toegewezen waarde
Er is vastgesteld dat de IAM-rol voor deze opslagreferentie niet automatisch wordt toegekend. Controleer het vertrouwen van uw rol en het IAM-beleid om ervoor te zorgen dat uw IAM-rol zichzelf kan aannemen volgens de documentatie voor opslagreferenties voor Unity Catalog.
UC_ICEBERG_COMMIT_CONFLICT
SQLSTATE: geen toegewezen waarde
Kan <tableName>
niet doorvoeren: metagegevenslocatie <baseMetadataLocation>
is gewijzigd van <catalogMetadataLocation>
.
UC_ICEBERG_COMMIT_INVALID_TABLE
SQLSTATE: geen toegewezen waarde
Kan Managed Iceberg-doorvoer niet uitvoeren naar een niet-beheerde Iceberg-tabel: <tableName>
.
UC_ICEBERG_COMMIT_MISSING_FIELD_CONSTRAINT
SQLSTATE: geen toegewezen waarde
De verstrekte Managed Iceberg-kommitgegevens missen vereiste velden.
UC_ID_MISMATCH (ID komt niet overeen)
SQLSTATE: geen toegewezen waarde
De <type> <name>
heeft geen id-<wrongId>
. Voer de bewerking opnieuw uit.
UC_INVALID_ACCESS_DBFS_ENTITY (Ongeldige toegang tot DBFS-entiteit)
SQLSTATE: geen toegewezen waarde
Ongeldige toegang van <securableType> <securableName>
in de gecentraliseerde catalogus <catalogName>
. <reason>
UC_INVALID_CLOUDFLARE_ACCOUNT_ID
SQLSTATE: geen toegewezen waarde
Ongeldige Cloudflare-account-id.
UC_ONGELDIGE_INLOGGEGEVENS_BEHEERSYSTEEM
SQLSTATE: geen toegewezen waarde
Ongeldige referentiegegevens voor de cloudprovider ‘<cloud>
’. Toegestane cloudprovider'<allowedCloud>
'.
UC_INVALID_CREDENTIAL_PURPOSE_VALUE
SQLSTATE: geen toegewezen waarde
Ongeldige waarde ‘<value>
’ voor het ‘doel’ van de referentie. Toegestane waarden<allowedValues>
'.
UC_ONGELDIGE_INLOGGEGEVENS_OVERGANG
SQLSTATE: geen toegewezen waarde
Kan een verbinding van <startingCredentialType>
naar <endingCredentialType>
niet bijwerken. De enige geldige overgang is van een verbinding op basis van een gebruikersnaam/wachtwoord naar een op een OAuth-token gebaseerde verbinding.
UC_INVALID_CRON_STRING_FABRIC
SQLSTATE: geen toegewezen waarde
Ongeldige cron-tekenreeks. Gevonden: '<cronString>
' met parseeruitzondering: '<message>
'
UC_ONGELDIGE_DIRECTE_TOEGANG_BEHEERDE_TABEL
SQLSTATE: geen toegewezen waarde
Ongeldige beheerde tabel voor directe toegang <tableName>
. Zorg ervoor dat de brontabel & pijplijndefinities niet zijn gedefinieerd.
UC_INVALID_EMPTY_STORAGE_LOCATION
SQLSTATE: geen toegewezen waarde
Onverwachte lege opslaglocatie voor <securableType>
'<securableName>
' in catalogus '<catalogName>
'. Voer DESCRIBE SCHEMA <catalogName>
uit om deze fout op te lossen.
<securableName>
en vernieuw deze pagina.
Onjuiste opties bijwerken (UC_INVALID_OPTIONS_UPDATE)
SQLSTATE: geen toegewezen waarde
Er zijn ongeldige opties opgegeven voor update. Ongeldige opties: <invalidOptions>
. Toegestane opties: <allowedOptions>
.
UC_INVALID_OPTION_VALUE
SQLSTATE: geen toegewezen waarde
Ongeldige waarde '<value>
' voor '<option>
'. Toegestane waarden<allowedValues>
'.
Ongeldige optie waarde: leeg
SQLSTATE: geen toegewezen waarde
'<option>
' mag niet leeg zijn. Voer een niet-lege waarde in.
UC_INVALID_R2_ACCESS_KEY_ID (Ongeldige R2-toegangssleutel-ID)
SQLSTATE: geen toegewezen waarde
Ongeldige toegangssleutel-ID voor R2.
UC_INVALID_R2_SECRET_ACCESS_KEY
SQLSTATE: geen toegewezen waarde
Ongeldige R2-geheime toegangssleutel.
UC_ONGELDIGE_REGELVOORWAARDE
SQLSTATE: geen toegewezen waarde
Ongeldige voorwaarde in regel '<ruleName>
'. Compilatiefout met het bericht ‘<message>
’.
Ongeldige update in systeemwerkruimte-beheerdersgroep over beveiligbaar object
SQLSTATE: geen toegewezen waarde
Kan <securableType>
'<securableName>
' niet bijwerken omdat deze eigendom is van een interne groep. Neem contact op met databricks-ondersteuning voor meer informatie.
UC_INVALID_WASBS_EXTERNAL_LOCATION_STORAGE_CREDENTIAL
SQLSTATE: geen toegewezen waarde
Aangezien opslagreferentie <storageCredentialName>
niet is gekoppeld aan de DBFS-hoofdmap, is het maken van een externe wasbs-locatie verboden.
UC_LOCATIE_ONGELDIG_SCHEME
SQLSTATE: geen toegewezen waarde
Opslaglocatie heeft een ongeldig URI-schema: <scheme>
.
UC_MALFORMED_OAUTH_SERVER_RESPONSE (Onjuiste OAUTH-serverrespons)
SQLSTATE: geen toegewezen waarde
Het antwoord van de tokenserver miste het veld <missingField>
. Het geretourneerde serverantwoord is: <response>
UC_METADATASTORE_TOEWIJZINGSTATUS_ONGELDIG
SQLSTATE: geen toegewezen waarde
'<metastoreAssignmentStatus>
' kan niet worden toegewezen. Alleen MANUALLY_ASSIGNABLE
en AUTO_ASSIGNMENT_ENABLED
worden ondersteund.
METASTORE_CERTIFICERING_NIET_INGESCHAKELD
SQLSTATE: geen toegewezen waarde
Metastore-certificering is niet ingeschakeld.
UC_METASTORE_DB_SHARD_MAPPING_NOT_FOUND
SQLSTATE: geen toegewezen waarde
Het is niet gelukt om een metastore naar database-shard toewijzing voor metastore-ID <metastoreId>
op te halen vanwege een interne fout. Neem contact op met de ondersteuning van Databricks.
UC_METASTORE_HAS_ACTIVE_MANAGED_ONLINE_CATALOGS
SQLSTATE: geen toegewezen waarde
De metastore <metastoreId>
heeft <numberManagedOnlineCatalogs>
beheerde online catalogus(sen). Verwijder ze expliciet en probeer de metastore opnieuw te verwijderen.
UC_METASTORE_STORAGE_ROOT_CREDENTIAAL_UPDATE_ONGELDIG
SQLSTATE: geen toegewezen waarde
Metastore-rootreferentie kan niet worden gedefinieerd bij het bijwerken van de locatie van de metastore-root. De referentie wordt opgehaald van de bovenliggende externe locatie van de metastore.
UC_METASTORE_STORAGE_ROOT_DELETION_INVALID
SQLSTATE: geen toegewezen waarde
Het verwijderen van de hoofdlocatie van de metastore-opslag is mislukt. <reason>
UC_METASTORE_STORAGE_ROOT_READ_ONLY_INVALID
SQLSTATE: geen toegewezen waarde
De rootmap <securableType>
voor een metastore mag niet alleen-lezen zijn.
UC_METASTORE_OPSLAG_ROOT_BIJWERKEN_ONGELDIG
SQLSTATE: geen toegewezen waarde
De hoofdmap van de metastore-opslag kan niet worden bijgewerkt zodra deze is ingesteld.
UC_MODEL_INVALID_STATE
SQLSTATE: geen toegewezen waarde
Kan geen tijdelijke '<opName>
' referenties genereren voor modelversie <modelVersion>
met status <modelVersionStatus>
. Inloggegevens van<opName>
kunnen alleen worden gegenereerd voor modelversies met status <validStatus>
UC_NO_ORG_ID_IN_CONTEXT
SQLSTATE: geen toegewezen waarde
Er is geprobeerd toegang te krijgen tot de organisatie-ID (of werkruimte-ID), maar er is geen context.
UC_ONLINE_CATALOG_NIET_AANPASBAAR
SQLSTATE: geen toegewezen waarde
De <rpcName>
vraagt updates aan <fieldName>
. Gebruik het tabblad Berekenen van de online winkel om alles behalve de opmerking, eigenaar en isolatiemodus van de onlinecatalogus te wijzigen.
UC_ONLINE_CATALOG_QUOTA_EXCEEDED
SQLSTATE: geen toegewezen waarde
Kan niet meer dan <quota>
online winkels maken in de metastore en er is al <currentCount>
. U hebt mogelijk geen toegang tot bestaande online winkels. Neem contact op met uw metastore-beheerder om toegang te krijgen of voor verdere instructies.
UC_ONLINE_INDEX_CATALOG_ONGELDIGE_CRUD
SQLSTATE: geen toegewezen waarde
Online index-catalogi moeten via de /vector-search-API <action>
worden.
UC_ONLINE_INDEX_CATALOG_NIET_AANPASBAAR
SQLSTATE: geen toegewezen waarde
De <rpcName>
vraagt updates aan <fieldName>
. Gebruik de /vector-search-API om iets anders te wijzigen dan opmerking, eigenaar en isolatieMode van een online indexcatalogus.
UC_ONLINE_INDEX_CATALOG_QUOTA_EXCEEDED (Limiet van de online indexcatalogus overschreden)
SQLSTATE: geen toegewezen waarde
Je kunt niet meer dan <quota>
online indexcatalogussen maken in de metastore en er is er al <currentCount>
beschikbaar. U hebt mogelijk geen toegang tot bestaande online-indexcatalogussen. Neem contact op met uw metastore-beheerder om toegang te krijgen of voor verdere instructies.
UC_ONLINE_INDEX_ONGELDIGE_CRUD
SQLSTATE: geen toegewezen waarde
online indexen moeten worden gemarkeerd als <action>
via de vector-search API.
UC_ONLINE_STORE_INVALID_CRUD
SQLSTATE: geen toegewezen waarde
online winkels moeten <action>
via het rekentabblad van de online winkel.
UC_ONLINE_TABEL_KOLOM_NAAM_TE_LANG
SQLSTATE: geen toegewezen waarde
De kolomnaam <columnName>
van de brontabel is te lang. De maximale lengte is <maxLength>
tekens.
UC_ONLINE_TABLE_PRIMARY_KEY_COLUMN_NOT_IN_SOURCE_TABLE_PRIMARY_KEY_CONSTRAINT
SQLSTATE: geen toegewezen waarde
Kolom <columnName>
kan niet worden gebruikt als een primaire sleutelkolom van de onlinetabel, omdat deze geen deel uitmaakt van de bestaande PRIMARY KEY
beperking van de brontabel. Zie <docLink>
voor meer informatie
UC_ONLINE_TABLE_TIMESERIES_SLEUTEL_NIET_IN_BRON_TABEL_PRIMAIRE_SLEUTEL_CONSTRAINT
SQLSTATE: geen toegewezen waarde
Kolom <columnName>
kan niet worden gebruikt als een tijdreekssleutel van de onlinetabel, omdat deze geen tijdreekskolom is van de bestaande PRIMARY KEY
beperking van de brontabel. Zie <docLink>
voor meer informatie
UC_ONLINE_VIEWS_PER_SOURCE_TABLE_QUOTA_EXCEEDED
SQLSTATE: geen toegewezen waarde
Er kunnen niet meer dan <quota>
onlinetabel(s) per brontabel worden gemaakt.
Toegang tot online bekijken geweigerd
SQLSTATE: geen toegewezen waarde
Voor toegang tot resource <resourceName>
is het gebruik van een serverloze SQL-warehouse vereist. Zorg ervoor dat het magazijn dat wordt gebruikt voor het uitvoeren van een query of het weergeven van een databasecatalogus in de gebruikersinterface serverloos is. Zie <docLink>
voor meer informatie
UC_ONLINE_WEERGAVE_VOORTDUREND_QUOTUM_OVERSCHREDEN
SQLSTATE: geen toegewezen waarde
Het is niet mogelijk meer dan <quota>
aaneengesloten online weergaven te maken in de online winkel, en er is al <currentCount>
. U hebt mogelijk geen toegang tot bestaande onlineweergaven. Neem contact op met uw online winkelbeheerder om toegang te krijgen of voor verdere instructies.
UC_ONLINE_VIEW_DOES_NOT_SUPPORT_DMK (Ondersteuning voor DMK ontbreekt in de online weergave)
SQLSTATE: geen toegewezen waarde
<tableKind>
kan niet worden gemaakt onder een opslaglocatie waarbij door Databricks beheerde sleutels worden gebruikt. Kies een ander schema/een andere catalogus op een opslaglocatie zonder Databricks Managed Keys-versleuteling.
Ongeldige catalogusweergave online
SQLSTATE: geen toegewezen waarde
Ongeldige catalogus <catalogName>
met soort <catalogKind>
om binnenin <tableKind>
te maken.
<tableKind>
kan alleen worden gemaakt onder catalogi van typen: <validCatalogKinds>
.
UC_ONLINE_VIEW_ONGELDIG_SCHEMA
SQLSTATE: geen toegewezen waarde
Ongeldig schema <schemaName>
met soort <schemaKind>
om <tableKind>
binnen te maken.
<tableKind>
kan alleen worden gemaakt onder schema's van het type: <validSchemaKinds>
.
UC_ONLINE_VIEW_INVALID_TTL_TIME_COLUMN_TYPE
SQLSTATE: geen toegewezen waarde
Kolom <columnName>
van het type <columnType>
kan niet worden gebruikt als een TTL-tijdkolom. Toegestane typen zijn <supportedTypes>
.
UC_BUITEN_VERGUNDE_PADEN_SCOPE
SQLSTATE: geen toegewezen waarde
Fout in geautoriseerd pad. De <securableType>
locatie <location>
is niet gedefinieerd binnen de geautoriseerde paden voor catalogus:<catalogName>
. Vraag de cataloguseigenaar om het pad toe te voegen aan de lijst met geautoriseerde paden die in de catalogus zijn gedefinieerd.
UC_OVERLAPPED_AUTHORIZED_PATHS
SQLSTATE: geen toegewezen waarde
De optie 'authorized_paths' bevat overlappende paden: <overlappingPaths>
. Zorg ervoor dat elk pad uniek is en niet met anderen in de lijst kruist.
UC_PAGINATION_AND_QUERY_ARGS_MISMATCH
SQLSTATE: geen toegewezen waarde
Het queryargument '<arg>
' is ingesteld op '<received>
' die verschilt van de waarde die wordt gebruikt in de eerste pagineringsoproep ('<expected>
')
UC_PATH_TOO_LONG
SQLSTATE: geen toegewezen waarde
Het invoerpad is te lang. Toegestane lengte: <maxLength>
. Invoerlengte: <inputLength>
. Invoer: <path>
...
UC_PER_METASTORE_DATABASE_CONCURRENCY_LIMIT_EXCEEDED
SQLSTATE: geen toegewezen waarde
Te veel aanvragen naar database vanuit metastore <metastoreId>
. Probeer het later opnieuw.
UC_PRIMAIRE_SLEUTEL_OP_TOELAATBAAR_KOLOM
SQLSTATE: geen toegewezen waarde
Kan de primaire sleutel <constraintName>
niet maken omdat de onderliggende kolom(en) <childColumnNames>
null-waarden kan of kunnen bevatten. Wijzig de null-waarde van de kolom en probeer het opnieuw.
UC_VERZOEK_TIMEOUT
SQLSTATE: geen toegewezen waarde
Deze bewerking duurde te lang.
UC_ROOT_OPSLAG_S3_BUCKET_NAAM_BEVAT_PUNT
SQLSTATE: geen toegewezen waarde
De naam van de S3-bucket voor hoofdopslag met puntjes wordt niet ondersteund door Unity Catalog: <uri>
UC_SCHEMA_EMPTY_STORAGE_LOCATION
SQLSTATE: geen toegewezen waarde
Onverwachte lege opslaglocatie voor schema '<schemaName>
' in catalogus '<catalogName>
'. Zorg ervoor dat het schema een padschema van <validPathSchemesListStr>
gebruikt.
UC_DIENST_TIJDENS_ONDERHOUD_NIET_BESCHIKBAAR
SQLSTATE: geen toegewezen waarde
Er treedt een tijdelijk probleem op tijdens het verwerken van uw aanvraag. Probeer het over enkele ogenblikpen opnieuw. Als het probleem zich blijft voordoen, neemt u contact op met de ondersteuning.
UC_STORAGE_CREDENTIAL_ACCESS_CONNECTOR_PARSING_FAILED
SQLSTATE: geen toegewezen waarde
Kan de opgegeven toegangsconnector-id niet parseren: <accessConnectorId>
. Controleer de opmaak en probeer het opnieuw.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_CREATION_PERMISSION_DENIED
SQLSTATE: geen toegewezen waarde
Kan geen opslagreferentie maken voor dbFS-hoofdmap omdat gebruiker: <userId>
niet de beheerder van de werkruimte is: <workspaceId>
UC_STORAGE_CREDENTIAL_DBFS_ROOT_INVALID_LOCATION
SQLSTATE: geen toegewezen waarde
Locatie <location>
bevindt zich niet in de DBFS-hoofdmap <dbfsRootLocation>
.
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_DBFS_ENABLED
SQLSTATE: geen toegewezen waarde
DBFS-basisopslagreferentie wordt nog niet ondersteund voor werkruimten met een firewall ingeschakelde DBFS
UC_STORAGE_CREDENTIAL_DBFS_ROOT_PRIVATE_NOT_SUPPORTED
SQLSTATE: geen toegewezen waarde
DBFS-basisopslagreferenties voor de huidige werkruimte worden nog niet ondersteund
UC_STORAGE_CREDENTIAL_DBFS_ROOT_WORKSPACE_DISABLED
SQLSTATE: geen toegewezen waarde
DBFS-hoofdmap is niet ingeschakeld voor werkruimte <workspaceId>
UC_OPSLAGREFERENTIE_FAILED_TO_OBTAIN_VALIDATION_TOKEN
SQLSTATE: geen toegewezen waarde
Kan geen AAD-token verkrijgen om cloudmachtigingsvalidatie uit te voeren voor een toegangsconnector. Voer de actie opnieuw uit.
Ongeldige cloudmachtigingen voor opslagreferentie
SQLSTATE: geen toegewezen waarde
Voor het registreren van een opslagreferentie is de rol bijdrager vereist voor de bijbehorende toegangsconnector met ID <accessConnectorId>
. Neem contact op met uw accountbeheerder.
UC_OPSLAG_INLOGGEGEVENS_MACTOEGANG_GEWEIGERD
SQLSTATE: geen toegewezen waarde
Alleen de accountbeheerder kan een opslagreferentie maken of bijwerken met het type <storageCredentialType>
.
UC_STORAGE_CREDENTIAL_SERVICE_PRINCIPAL_MISSING_VALIDATION_TOKEN
SQLSTATE: geen toegewezen waarde
Ontbrekend validatietoken voor service-principal. Geef een geldig Entra ID-token met ARM-bereik op in de 'X-Databricks-Azure-SP-Management-Token'-aanvraagheader en probeer het opnieuw. Raadpleeghttps://docs.databricks.com/api/workspace/storagecredentials voor meer informatie
UC_STORAGE_CREDENTIAL_TRUST_POLICY_IS_OPEN
SQLSTATE: geen toegewezen waarde
Het vertrouwensbeleid van de IAM-rol om toe te staan dat het Databricks-account de rol mag aannemen, zou een externe id moeten vereisen. Neem contact op met uw accountbeheerder om de voorwaarde voor de externe id toe te voegen. Dit gedrag is bedoeld om te beschermen tegen het Verwarde Deputy-probleem https://docs.aws.amazon.com/IAM/latest/UserGuide/confused-deputy.html).
UC_STORAGE_CREDENTIAL_NIET-GERECHTIGDE_SERVICE PRINCIPAL_ONDERSTEUNING NIET MOGELIJK
SQLSTATE: geen toegewezen waarde
Service-principals kunnen de CREATE_STORAGE_CREDENTIAL
bevoegdheid niet gebruiken om beheerde identiteiten te registreren. Als u een beheerde identiteit wilt registreren, wijst u de service-principal de rol van accountbeheerder toe.
UC_STORAGE_CREDENTIAL_WASBS_NOT_DBFS_ROOT
SQLSTATE: geen toegewezen waarde
Locatie <location>
bevindt zich niet in de DBFS-hoofdmap, waardoor we geen opslagreferentie <storageCredentialName>
kunnen maken.
UC_STORAGE_CREDENTIAL_WORKSPACE_API_VERBODEN
SQLSTATE: geen toegewezen waarde
Het maken of bijwerken van een opslagreferentie als een niet-accountbeheerder wordt niet ondersteund in de API op accountniveau. Gebruik in plaats daarvan de API op werkruimteniveau.
Systeem werkruimte groepsrechten niet ondersteund
SQLSTATE: geen toegewezen waarde
Kan geen bevoegdheden verlenen voor <securableType>
aan door het systeem gegenereerde groep <principal>
.
UC_TAG_TOEWIJZING_MET_SLEUTEL_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
Tagtoewijzing met tagsleutel <tagKey>
bestaat niet
UC_UNSUPPORTED_HTTP_CONNECTION_BASE_PATH
SQLSTATE: geen toegewezen waarde
Ongeldig basispad opgegeven, basispad moet ongeveer /api/resources/v1 zijn. Niet-ondersteund pad: <path>
UC_ONDERSTEUND_HTTP_VERBINDING_HOST
SQLSTATE: geen toegewezen waarde
Ongeldige hostnaam opgegeven. De hostnaam moet bijvoorbeeldhttps://www.databricks.com zijn, zonder padachtervoegsel. Niet-ondersteunde host: <host>
UC_NIET_ONDERSTEUND_LATIJNS_TEKEN_IN_PAD
SQLSTATE: geen toegewezen waarde
Alleen eenvoudige Latijns/Latijns-1 ASCII
tekens worden ondersteund in externe locatie-/volume-/tabelpaden. Niet-ondersteund pad: <path>
Bijwerken van UC niet toegestaan voor voorziebare beveiliging
SQLSTATE: geen toegewezen waarde
Kan <securableType>
‘<securableName>
’ niet bijwerken omdat het wordt voorzien.
UC_WRITE_CONFLICT
SQLSTATE: geen toegewezen waarde
De <type> <name>
is gewijzigd door een ander verzoek. Voer de bewerking opnieuw uit.
UNITY_CATALOG_EXTERNAL_COORDINATED_COMMITS_REQUEST_DENIED
SQLSTATE: geen toegewezen waarde
Aanvraag voor het uitvoeren van commit/getCommits voor tabel '<tableId>
' van buiten de ingeschakelde rekenomgeving van de Databricks Unity Catalog wordt om veiligheidsredenen geweigerd. Neem contact op met databricks-ondersteuning voor integraties met Unity Catalog.
AANVRAAG VOOR HET AANMAKEN VAN EEN EXTERNE STAGING TABEL IN HET UNITY CATALOG GEWEIGERD
SQLSTATE: geen toegewezen waarde
Aanvraag om staging-tabel '<tableFullName>
' vanuit een omgeving buiten de Databricks Unity Catalog-ingeschakelde rekenomgeving te maken, wordt uit veiligheidsoverwegingen geweigerd. Neem contact op met databricks-ondersteuning voor integraties met Unity Catalog.
Verzoek om een externe tabel te maken in de Unity Catalog geweigerd voor een niet-externe tabel
SQLSTATE: geen toegewezen waarde
De aanvraag om een niet-externe tabel '<tableFullName>
' aan te maken van buiten de Databricks Unity Catalog ingeschakelde rekenomgeving wordt om veiligheidsredenen geweigerd. Neem contact op met databricks-ondersteuning voor integraties met Unity Catalog.
UNITY_CATALOG_EXTERNAL_GENERATE_PATH_CREDENTIALS_DENIED - Toegang geweigerd voor het genereren van padreferenties in de externe catalogus.
SQLSTATE: geen toegewezen waarde
Aanvraag voor het genereren van een toegangsreferentie voor het pad ‘<path>
’ van buiten een databricks rekenomgeving die de Unity Catalog ondersteunt, wordt geweigerd om veiligheidsredenen. Neem contact op met databricks-ondersteuning voor integraties met Unity Catalog.
UNITY_CATALOG_EXTERNE_TABEL_AANMAKEN_CREDENTIALS_GEWEIGERD
SQLSTATE: geen toegewezen waarde
Aanvraag om een toegangscertificaat te genereren voor de tabel '<tableId>
' van buiten de Databricks Unity Catalog-geconfigureerde rekenomgeving, wordt uit veiligheidsredenen geweigerd. Neem contact op met databricks-ondersteuning voor integraties met Unity Catalog.
UNITY_CATALOG_EXTERNAL_GET_FOREIGN_CREDENTIALS_DENIED
SQLSTATE: geen toegewezen waarde
Aanvraag om buitenlandse referenties op te halen voor beveiligbare items van buiten de rekenomgeving met Databricks Unity Catalog is om veiligheidsredenen geweigerd.
UNITY_CATALOG_EXTERNE_UPDATA_METADATA_SNAPSHOT_GEWEIGERD
SQLSTATE: geen toegewezen waarde
Aanvraag voor het bijwerken van metadata-snapshots wordt om veiligheidsredenen geweigerd indien deze afkomstig zijn van buiten de ingeschakelde rekenomgeving van de Databricks Unity Catalog.
SCHRIJFCREDENTIALS_NIET_ONDERSTEUND_VOOR_LEGACY_BEHEERD_ONLINE_TABEL
SQLSTATE: geen toegewezen waarde
Ongeldige aanvraag voor het ophalen van schrijfrechten voor een beheerde onlinetabel in een onlinecatalogus.
Bestands-API
FILES_API_API_IS_NOT_ENABLED
SQLSTATE: geen toegewezen waarde
<api_name>-API is niet ingeschakeld
BESTANDEN_API_API_IS_NIET_INGESCHAKELD_VOOR_CLOUD_PADEN
SQLSTATE: geen toegewezen waarde
De aangevraagde methode van de Files-API wordt niet ondersteund voor cloudpaden
TOEGANG_GEAWEIGERD_AAN_FILES_API_AWS
SQLSTATE: geen toegewezen waarde
Toegang tot de opslagbucket wordt geweigerd door AWS.
BESTANDEN_API_AWS_VOLLEDIGE_TOEGANG_GEDEACTIVEERD
SQLSTATE: geen toegewezen waarde
Alle toegang tot de opslagbucket is uitgeschakeld in AWS.
FILES_API_AWS_BUCKET_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
De opslagbucket bestaat niet in AWS.
FILES_API_AWS_VERBODEN
SQLSTATE: geen toegewezen waarde
Toegang tot de opslagbucket is verboden door AWS.
FILES_API_AWS_INVALID_AUTHORIZATION_HEADER
SQLSTATE: geen toegewezen waarde
De werkruimte is onjuist geconfigureerd: deze moet zich in dezelfde regio bevinden als de hoofdopslagbucket van de AWS-werkruimte.
FILES_API_AWS_INVALID_BUCKET_NAME
SQLSTATE: geen toegewezen waarde
De naam van de opslagbucket is ongeldig.
FILES_API_AWS_KMS_KEY_DISABLED
SQLSTATE: geen toegewezen waarde
De geconfigureerde KMS-sleutels voor toegang tot de opslagbucket zijn uitgeschakeld in AWS.
FILES_API_AWS_ONGEAUTORISEERD
SQLSTATE: geen toegewezen waarde
Toegang tot AWS-resources is niet geautoriseerd.
BESTANDEN_API_AZURE_ACCOUNT_IS_GEDEACTIVEERD
SQLSTATE: geen toegewezen waarde
Het opslagaccount is uitgeschakeld in Azure.
(No changes needed, as the phrase is typically an untranslated technical constant)
SQLSTATE: geen toegewezen waarde
De Azure-container bestaat niet.
Toegang tot FILES_API_AZURE is verboden
SQLSTATE: geen toegewezen waarde
Toegang tot de opslagcontainer is verboden door Azure.
Azure heeft een lease
SQLSTATE: geen toegewezen waarde
Azure heeft gereageerd dat er momenteel een lease voor de resource is. Probeer het later opnieuw.
FILES_API_AZURE_ONVOLDOENDE_ACCOUNTRECHTEN
SQLSTATE: geen toegewezen waarde
Het account dat wordt geopend, beschikt niet over voldoende machtigingen om deze bewerking uit te voeren.
FILES_API_AZURE_INVALID_STORAGE_ACCOUNT_NAME
SQLSTATE: geen toegewezen waarde
Kan geen toegang krijgen tot het opslagaccount in Azure: ongeldige naam van het opslagaccount.
FILES_API_AZURE_KEY_BASED_AUTHENTICATION_NOT_PERMITTED
SQLSTATE: geen toegewezen waarde
De sleutelkluiskluis is niet gevonden in Azure. Controleer de instellingen voor door de klant beheerde sleutels.
FILES_API_AZURE_KEY_VAULT_KEY_NOT_FOUND
SQLSTATE: geen toegewezen waarde
De Azure Key Vault-sleutel is niet gevonden in Azure. Controleer de instellingen voor door de klant beheerde sleutels.
FILES_API_AZURE_KEY_VAULT_VAULT_NOT_FOUND
SQLSTATE: geen toegewezen waarde
De sleutelkluiskluis is niet gevonden in Azure. Controleer de instellingen voor door de klant beheerde sleutels.
FILES_API_AZURE_MI_ACCESS_CONNECTOR_NOT_FOUND
SQLSTATE: geen toegewezen waarde
Azure Managed Identity Credential en Access Connector zijn niet gevonden. Dit kan komen doordat IP-toegangsbeheer uw aanvraag heeft afgewezen.
FILES_API_AZURE_OPERATION_TIMEOUT
SQLSTATE: geen toegewezen waarde
De bewerking kan niet worden voltooid binnen de toegestane tijd.
FILES_API_AZURE_PATH_INVALID
SQLSTATE: geen toegewezen waarde
Het aangevraagde pad is niet geldig voor Azure.
FILES_API_AZURE_PATH_IS_IMMUTABLE
SQLSTATE: geen toegewezen waarde
Het aangevraagde pad is onveranderbaar.
FILES_API_AZURE_NIET_ONDERSTEUNDE_HEADER
SQLSTATE: geen toegewezen waarde
Een van de opgegeven headers in de bewerking wordt niet ondersteund.
BESTANDEN_API_CATALOGUS_NIET_GEVONDEN
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
BESTANDEN_API_CLOUD_BRONNEN_UITGEPUT
SQLSTATE: geen toegewezen waarde
<message>
Bestanden_API_DubbelePunt_Is_Niet_Ondersteund_In_Pad
SQLSTATE: geen toegewezen waarde
het teken ':' wordt niet ondersteund in paden
FILES_API_CONTROL_PLANE_NETWORK_ZONE_NOT_ALLOWED
SQLSTATE: geen toegewezen waarde
Databricks Control Plane-netwerkzone is niet toegestaan.
BESTANDEN_API_MAPPEN_KUNNEN_GEEN_INHOUD_HEBBEN
SQLSTATE: geen toegewezen waarde
Er is een hoofdtekst opgegeven, maar mappen kunnen geen hoofdtekst van het bestand hebben
HET_DIRECTORY_VAN_DE_FILES_API_IS_NIET_LEEG
SQLSTATE: geen toegewezen waarde
De map is niet leeg. Deze bewerking wordt niet ondersteund voor niet-lege mappen.
BESTANDEN_API_DIRECTORY_IS_NIET_GEVONDEN
SQLSTATE: geen toegewezen waarde
De map die wordt geopend, is niet gevonden.
FILES_API_DUPLICATED_HEADER
SQLSTATE: geen toegewezen waarde
De aanvraag bevatte meerdere kopieën van een header die slechts eenmaal is toegestaan.
FILES_API_DUPLICATE_QUERY_PARAMETER
SQLSTATE: geen toegewezen waarde
De queryparameter '<parameter_name>' moet exact één keer aanwezig zijn, maar meerdere keren is opgegeven.
FILES_API_EMPTY_BUCKET_NAME
SQLSTATE: geen toegewezen waarde
De naam van de DBFS-bucket is leeg.
Bestand is te groot voor APIaanroep
SQLSTATE: geen toegewezen waarde
Het object overschrijdt de maximaal toegestane objectgrootte.
BESTANDEN_API_VERVALTIJD_MOET_AANWEZIG_ZIJN
SQLSTATE: geen toegewezen waarde
verlooptijd moet aanwezig zijn
BESTANDEN_API_VERLOPEN_TOKEN
SQLSTATE: geen toegewezen waarde
Het opgegeven token is verlopen.
BESTANDEN_API_VERVALTIJD_MOET_IN_DE_TOEKOMST_LIGGEN
SQLSTATE: geen toegewezen waarde
De vervaltijd moet in de toekomst liggen
De vervaltijd van FILES_API ligt te ver in de toekomst
SQLSTATE: geen toegewezen waarde
Aangevraagde TTL is langer dan ondersteund (1 uur)
FILES_API_EXTERNAL_LOCATION_PATH_OVERLAP_OTHER_UC_STORAGE_ENTITY
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
FILES_API_FILE_ALREADY_EXISTS
SQLSTATE: geen toegewezen waarde
Het bestand dat wordt gemaakt, bestaat al.
FILES_API_FILE_NOT_FOUND
SQLSTATE: geen toegewezen waarde
Het bestand dat wordt geopend, is niet gevonden.
BESTANDEN_API_BESTAND_OF_MAP_EINDIGT_OP_EEN_PUNT
SQLSTATE: geen toegewezen waarde
Bestanden of mappen die eindigen op de '.' tekens worden niet ondersteund.
FILES_API_FILE_SIZE_EXCEEDED
SQLSTATE: geen toegewezen waarde
De bestandsgrootte mag niet groter zijn dan <max_download_size_in_bytes> bytes, maar <size_in_bytes> bytes zijn gevonden.
BESTANDEN_API_GCP_ACCOUNT_IS_GEDEACTIVEERD
SQLSTATE: geen toegewezen waarde
De toegang tot de opslagbucket is uitgeschakeld in GCP.
FILES_API_GCP_BUCKET_DOES_NOT_EXIST
SQLSTATE: geen toegewezen waarde
De opslagbucket bestaat niet in GCP.
FILES_API_GCP_FORBIDDEN
SQLSTATE: geen toegewezen waarde
Toegang tot de bucket wordt door GCP geweigerd.
BESTANDEN_API_GCP_SLEUTEL_UITSCHAKELD_OF_VERWIJDERD
SQLSTATE: geen toegewezen waarde
De door de klant beheerde versleutelingssleutel die voor die locatie is geconfigureerd, wordt uitgeschakeld of vernietigd.
BESTANDEN_API_GCP_VRAAG_IS_VERBODEN_DOOR_BELEID
SQLSTATE: geen toegewezen waarde
De GCP-verzoeken aan de bucket zijn volgens het beleid verboden, controleer de VPC-servicebeperkingen.
BESTANDEN_API_HOST_TIJDLIJK_NIET_BESCHIKBAAR
SQLSTATE: geen toegewezen waarde
De host van de cloudprovider is tijdelijk niet beschikbaar; Probeer het later opnieuw.
Invalid voortzettingstoken van het bestanden-API
SQLSTATE: geen toegewezen waarde
Het opgegeven paginatoken is ongeldig.
FILES_API_INVALID_PAGE_TOKEN
SQLSTATE: geen toegewezen waarde
ongeldig paginatoken
FILES_API_INVALID_PATH
SQLSTATE: geen toegewezen waarde
Ongeldig pad: <validation_error>
FILES_API_INVALID_RANGE
SQLSTATE: geen toegewezen waarde
De range-header is ongeldig.
FILES_API_INVALID_RESOURCE_FULL_NAME
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
FILES_API_INVALID_SESSION_TOKEN
SQLSTATE: geen toegewezen waarde
Ongeldig sessietoken
FILES_API_INVALID_SESSION_TOKEN_TYPE
SQLSTATE: geen toegewezen waarde
Ongeldig sessietokentype. Verwacht '<expected>
' maar kreeg '<actual>
'.
BESTANDEN_API_ONGELDIGE_TIJDSTEMPEL
SQLSTATE: geen toegewezen waarde
De tijdstempel is ongeldig.
FILES_API_INVALID_UPLOAD_TYPE
SQLSTATE: geen toegewezen waarde
Ongeldig uploadtype. Verwacht '<expected>
' maar kreeg '<actual>
'.
FILES_API_INVALID_URL_PARAMETER
SQLSTATE: geen toegewezen waarde
De URL die als parameter is doorgegeven, is ongeldig
FILES_API_INVALID_VALUE_FOR_OVERWRITE_QUERY_PARAMETER
SQLSTATE: geen toegewezen waarde
De queryparameter 'overschrijven' moet een van de volgende zijn: true, false, maar was: <got_values>
BESTANDEN_API_ONGELDIG_WAARDE_VOOR_QUERY_PARAMETER
SQLSTATE: geen toegewezen waarde
De queryparameter<parameter_name>moet een van de volgende zijn: <expected>
maar wel: <actual>
Bestands-API: Onjuist geformatteerd verzoekbody
SQLSTATE: geen toegewezen waarde
Onjuist gestructureerde aanvraagbody
BESTANDEN_API_BEHEERDE_CATALOGUS_FUNCTIE_GEDEACTIVEERD
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
FILES_API_METASTORE NIET GEVONDEN
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
BESTANDEN_API_METHODE_IS_NIET_INGESCHAKELD_VOOR_TAKEN_BACKGROUND_BEREKEN_ARTIFACT_OPSLAG
SQLSTATE: geen toegewezen waarde
De aangevraagde methode van de Files-API wordt niet ondersteund voor de opslag van achtergrondtaken van rekencapaciteit en artefacten.
BESTANDEN_API_CONTENT_LENGTH_ONTBREEKT
SQLSTATE: geen toegewezen waarde
De header met de lengte van de inhoud is vereist in de aanvraag.
FILES_API_MISSING_QUERY_PARAMETER
SQLSTATE: geen toegewezen waarde
De queryparameter '<parameter_name>' is vereist, maar ontbreekt in de aanvraag.
FILES_API_MISSING_REQUIRED_PARAMETER_IN_REQUEST
SQLSTATE: geen toegewezen waarde
Er ontbreekt een vereiste parameter voor de aanvraag.
HET_BESTANDEN_API_MODEL_VERSIE_IS_NIET_KLAAR
SQLSTATE: geen toegewezen waarde
Modelversie is nog niet gereed
BESTANDEN_API_MULTIPART_UPLOAD_STOPPEN_VOORAFGEPREFORMULEERDE_URL_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
Vooraf ondertekende URL's voor het afbreken van uploads met meerdere onderdelen worden niet ondersteund voor bestanden die zijn opgeslagen op <cloud_storage_provider>.
BESTANDEN_API_UPLOAD_IN_MEERDERE_DELEN_LEGE_ONDERDELENLIJST
SQLSTATE: geen toegewezen waarde
De lijst met onderdelen moet ten minste één element bevatten, maar is leeg.
BESTANDS_API_MULTIPART_UPLOAD_ONGELDIG_ONDERDEELNUMMER
SQLSTATE: geen toegewezen waarde
Onderdeelnummers moeten binnen de grenzen vallen die zijn opgegeven in het antwoord dat is ontvangen bij het initiëren van de upload.
BESTANDEN_API_MEEDEL_UPLOAD_ONTBREKENDE_ETAG
SQLSTATE: geen toegewezen waarde
ETags moeten worden opgegeven voor bestanden die zijn opgeslagen op <cloud_storage_provider>. Ten minste één ETag is niet opgegeven of leeg.
FILES_API_MULTIPART_UPLOAD_AANGEPASTE_OPSLAG_ENTITY_STATUS
SQLSTATE: geen toegewezen waarde
De interne status van de opslagentiteit is gewijzigd sinds het uploaden is gestart, bijvoorbeeld omdat het bestandspad niet verwijst naar dezelfde onderliggende cloudopslaglocatie. Ga door met het initiëren van een nieuwe uploadsessie.
BESTANDEN_API_MULTIPART_UPLOAD_NIET-TRAILENDE_DELEN_MET_VERSCHILLENDE_FORMATEN
SQLSTATE: geen toegewezen waarde
De onderdelen die zijn geüpload als onderdeel van een uploadsessie met meerdere onderdelen, moeten dezelfde grootte hebben voor bestanden die zijn opgeslagen op <cloud_storage_provider>, met uitzondering van het laatste deel dat kleiner kan zijn.
FILES_API_MULTIPART_UPLOAD_PART_SIZE_OUT_OF_RANGE
SQLSTATE: geen toegewezen waarde
De grootte van de onderdelen die zijn geüpload als onderdeel van een uploadsessie met meerdere onderdelen, moet binnen de grenzen van het antwoord vallen dat is ontvangen bij het initiëren van de upload.
(Only if context requires an explanation, otherwise leave as is for technical accuracy) FILES_API_MULTIPART_UPLOAD_SESSION_NIET_GEVONDEN
SQLSTATE: geen toegewezen waarde
De uploadsessie is niet gevonden. Mogelijk is het afgebroken of voltooid.
BESTANDEN_API_DEELUPLOAD_ONGEORDENDE_DEELLIJST
SQLSTATE: geen toegewezen waarde
De lijst met onderdelen moet worden geordend op het onderdeelnummer, maar is niet gerangschikt.
BESTANDEN_API_NIET_INGESCHAKELD_VOOR_LOCATIE
SQLSTATE: geen toegewezen waarde
Bestands-API voor <place>
is niet ingeschakeld voor deze werkruimte/dit account
Bestands-API niet ondersteund voor interne werkruimteopslag
SQLSTATE: geen toegewezen waarde
De aangevraagde methode van de Files-API wordt niet ondersteund voor interne werkruimteopslag
FILES_API_OPERATION_MUST_BE_PRESENT
SQLSTATE: geen toegewezen waarde
operatie moet aanwezig zijn
BESTANDEN_API_PAGINAGROOTTE_MOET_GROTER_OF_GELIJK_ZIJN_AAN_NUL
SQLSTATE: geen toegewezen waarde
page_size moet groter of gelijk zijn aan 0
FILES_API_PAD_KOMT_OP_EEN_SLASH
SQLSTATE: geen toegewezen waarde
Paden die eindigen op het teken /, vertegenwoordigen mappen. Deze API biedt geen ondersteuning voor bewerkingen in directory's.
FILES_API_PATH_IS_A_DIRECTORY
SQLSTATE: geen toegewezen waarde
Het opgegeven pad wijst naar een bestaande map. Deze API biedt geen ondersteuning voor bewerkingen in directory's.
FILES_API_PATH_IS_A_FILE
SQLSTATE: geen toegewezen waarde
Het opgegeven pad verwijst naar een bestaand bestand. Deze API biedt geen ondersteuning voor bewerkingen op bestanden.
BESTANDEN_API_PAD_IS_GEEN_GELDIG_UTF8_GECODEERDE_URL
SQLSTATE: geen toegewezen waarde
het opgegeven pad is geen geldige UTF-8-gecodeerde URL
Het FILES_API_PATH is niet ingeschakeld voor de Dataplane-proxy
SQLSTATE: geen toegewezen waarde
Het opgegeven pad is niet ingeschakeld voor de proxy van het datavlak
(No improvements needed if it's a technical string and should remain unchanged.)
SQLSTATE: geen toegewezen waarde
het pad moet aanwezig zijn
FILES_API_PATH_NOT_SUPPORTED
SQLSTATE: geen toegewezen waarde
<rejection_message>
BESTANDEN_API_PAD_TE_LANG
SQLSTATE: geen toegewezen waarde
Het opgegeven bestandspad is te lang.
Bestanden API: Voorwaarde mislukt
SQLSTATE: geen toegewezen waarde
De aanvraag is mislukt vanwege een voorwaarde.
FILES_API_VOORAF_ONDERTEKENDE_URLS_VOOR_MODELLEN_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
Bestands-API voor vooraf ondertekende URL's voor modellen wordt momenteel niet ondersteund
FILES_API_R2_CREDENTIALS_DISABLED
SQLSTATE: geen toegewezen waarde
R2 wordt momenteel niet ondersteund.
FILES_API_RANGE_NOT_SATISFIABLE
SQLSTATE: geen toegewezen waarde
Het aangevraagde bereik is niet bevredigend.
BESTANDEN_API_RECURSIEVE_LIJST_IS_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
Recursief weergeven van bestanden wordt niet ondersteund.
BESTANDEN_API_VERZOEK_IS_ONJUIST_GEROUTEERD
SQLSTATE: geen toegewezen waarde
Aanvraag is onjuist gerouteerd
BESTANDEN_API_AANVRAAG_MOET_ACCOUNTINFORMATIE_BEVATTEN
SQLSTATE: geen toegewezen waarde
Aanvraag moet accountgegevens bevatten
Bestanden_API_verzoek_moet_gebruikersinformatie_bevatten
SQLSTATE: geen toegewezen waarde
Aanvraag moet gebruikersgegevens bevatten
BESTANDEN_API_VRAAG_MOET_INFORMATIE_OVER_WERKRUIMTE_OMVATTEN
SQLSTATE: geen toegewezen waarde
Aanvraag moet werkruimtegegevens bevatten
BESTANDEN_API_BRON_IS_ALLEENLEZEN
SQLSTATE: geen toegewezen waarde
Resource heeft het kenmerk Alleen-lezen.
FILES_API_RESOURCE_NOT_FOUND - Het bestand API-bron niet gevonden.
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
FILES_API_SCHEMA_NOT_FOUND
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
DE BESTANDEN_API_VEILIGE_URL_KAN_NIET_WORDEN_BENADERD
SQLSTATE: geen toegewezen waarde
De URL kan niet worden geopend.
HANDTEKENINGVERIFICATIE_VAN_BESTANDEN_API_MISLUKT
SQLSTATE: geen toegewezen waarde
De verificatie van de handtekening is mislukt.
FILES_API_STORAGE_CONTEXT_IS_NOT_SET (De opslagcontext van de API-bestanden is niet ingesteld)
SQLSTATE: geen toegewezen waarde
Opslagconfiguratie voor deze werkruimte is niet toegankelijk.
FILES_API_STORAGE_CREDENTIAL_NOT_FOUND
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
FILES_API_TABLE_TYPE_NOT_SUPPORTED
SQLSTATE: geen toegewezen waarde
Bestands-API wordt niet ondersteund voor <table_type>
FILES_API_UC_IAM_ROLE_NON_SELF_ASSUMING
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
FILES_API_UC_MODEL_INVALID_STATE
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
BESTANDS_API_UC_TOESTEMMING_GEWEIGERD
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
FILES_API_UC_RESOURCE_EXHAUSTED
SQLSTATE: geen toegewezen waarde
<message>
FILES_API_UC_UNSUPPORTED_LATIN_CHARACTER_IN_PATH
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
FILES_API_UC_VOLUME_NAME_CHANGED
SQLSTATE: geen toegewezen waarde
<foutbericht_unity_catalogus>
Onverwachte fout bij het verwerken van URI-bestanden_api.
SQLSTATE: geen toegewezen waarde
Onverwachte fout bij het parseren van de URI
FILES_API_ONVERWACHTE_QUERY_PARAMETERS
SQLSTATE: geen toegewezen waarde
Onverwachte queryparameters: <unexpected_query_parameters>
FILES_API_UNKNOWN_METHOD
SQLSTATE: geen toegewezen waarde
Onbekende methode <method>
Bestanden_API_Onbekende_Serverfout
SQLSTATE: geen toegewezen waarde
Onbekende serverfout.
BESTANDEN_API_ONBEKENDE_URL_HOST
SQLSTATE: geen toegewezen waarde
De URL-host is onbekend.
Onbekend pad voor bestanden-API niet ondersteund
SQLSTATE: geen toegewezen waarde
Het opgegeven pad wordt niet ondersteund door de Files-API. Zorg ervoor dat het opgegeven pad geen gevallen van '../' of './' reeksen bevat. Zorg ervoor dat het opgegeven pad niet meerdere opeenvolgende slashes gebruikt (bijvoorbeeld '///').
FILES_API_URL_GENERATION_DISABLED
SQLSTATE: geen toegewezen waarde
Het genereren van vooraf toegewezen URL's is niet ingeschakeld voor <cloud>
.
BESTANDEN_API_VOLUME_TYPE_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
De Bestands-API wordt niet ondersteund voor <volume_type>.
BESTANDEN_API_WERKRUIMTE_IS_GEANNULEERD
SQLSTATE: geen toegewezen waarde
De werkruimte is opgeheven.
BESTANDEN_API_WERKRUIMTE_NIET_GEVONDEN
SQLSTATE: geen toegewezen waarde
Opslagconfiguratie voor deze werkruimte is niet toegankelijk.
Delta Live-tabellen
ALTER_SCHEDULE_SCHEDULE_DOES_NOT_EXIST
Kan <type>
niet wijzigen in een tabel zonder een bestaand schema of een bestaande trigger. Voeg een schema of trigger toe aan de tabel voordat u deze probeert te wijzigen.
API_QUOTA_OVERSCHREDEN
U hebt het API-quotum voor de gegevensbron overschreden <sourceName>
.
Zie API_QUOTA_EXCEEDED voor meer informatie
WIJZIGINGEN_TOEPASSEN_PARTIËLE_BIJWERKINGEN_NIET_INGESCHAKELD
SQLSTATE: geen toegewezen waarde
Functie COLUMNS
TO UPDATE
is in preview en is niet ingeschakeld voor uw werkruimte. Neem contact op met uw Databricks-vertegenwoordiger voor meer informatie over deze functie en toegang tot de persoonlijke preview.
ARCHITECTURE_MIGRATION_FAILURE
SQLSTATE: geen toegewezen waarde
Zie ARCHITECTURE_MIGRATION_FAILURE voor meer informatie
KAN_GEEN_KOLOM_TOEVOEGEN_AAN_OPGENOMEN_KOLOMMEN
SQLSTATE: geen toegewezen waarde
Nieuwe kolommen (<columnNames>
) worden toegevoegd aan include_columns veld in de pijplijndefinitie voor de tabel <qualifiedTableName>
. Vernieuw de tabel volledig om mogelijk gegevensverlies te voorkomen of verwijder deze kolommen uit include_columns.
KAN_NIET_UITSLUITEN_NIET_BESTAANDE_KOLOM
SQLSTATE: geen toegewezen waarde
Pijplijndefinitie sluit kolommen (<columnNames>
) uit die niet aanwezig zijn in de tabel <qualifiedTableName>
van bron-<sourceType>
. Verwijder deze kolommen uit het exclude_columns veld.
KAN_VEREISTE_KOLOM_NIET_FILTEREN
SQLSTATE: geen toegewezen waarde
Pijplijndefinitie bevat geen vereiste kolommen (<columnNames>
) in de tabel <qualifiedTableName>
van bron <sourceType>
voor inname. Voeg ze toe aan include_columns of verwijder ze uit exclude_columns.
KAN_NIET_NIET_BESTAANDE_KOLOM_OPNEMEN
SQLSTATE: geen toegewezen waarde
Pijplijndefinitie bevat kolommen (<columnNames>
) die niet bestaan in de tabel <qualifiedTableName>
van bron <sourceType>
. Verwijder deze kolommen uit het include_columns veld.
Kan_tabel_niet_importeren_zonder_primair_sleutel
SQLSTATE: geen toegewezen waarde
De tabel <qualifiedTableName>
in de <sourceType>
bron heeft geen primaire sleutel.
Geef een primaire sleutel op in de connectorconfiguratie om de tabel op te nemen als deze bestaat.
KAN_KOLOM_NIET_VERWIJDEREN_UIT_UITGESLOTEN_KOLOMMEN
SQLSTATE: geen toegewezen waarde
Kolommen (<columnNames>
) worden verwijderd uit exclude_columns veld in de pijplijndefinitie voor de tabel <qualifiedTableName>
. Vernieuw de tabel volledig om mogelijk gegevensverlies te voorkomen of voeg deze kolommen weer toe aan exclude_columns.
KAN_CATALOGUS_NIET_INSTELLEN_VOOR_HMS_PIPELINE
SQLSTATE: geen toegewezen waarde
Kan geen catalogus toevoegen aan een bestaande pijplijn met gedefinieerde opslaglocatie als u UC een nieuwe pijplijn wilt gebruiken en catalogus wilt instellen.
Bestaande opslaglocatie: '<storageLocation>
'
Aangevraagde catalogus: '<catalog>
'
KAN_NIET_BEIDE_OPNEMEN_&_UITSLUITEN_KOLOMMEN_SPECIFICEREN
SQLSTATE: geen toegewezen waarde
De definitie van de pijplijn geeft zowel include_columns als exclude_columns voor <identifier>
op. Verwijder een van deze.
KAN_CLUSTERING_COLUMNS_NIET_BIJWERKEN
SQLSTATE: geen toegewezen waarde
Kan clusteringkolommen voor tabel <tableName>
niet bijwerken omdat deze partitiekolommen gebruikt. Een tabel kan partitiekolommen of clusterkolommen gebruiken, maar niet beide.
Als u wilt schakelen tussen liquide clustering en partitionering, activeert u een volledige vernieuwing van deze tabel.
KAN_PARTITIEKOLOMMEN_NIET_BIJWERKEN
SQLSTATE: geen toegewezen waarde
Kan partitiekolommen voor streamingtabel <tableName>
niet bijwerken.
Huidig : <existingPartitionColumns>
,
Aangevraagd: <requestedPartitionColumns>
Als u deze partitiewijziging wilt toepassen, activeert u een volledige vernieuwing van deze tabel en andere streamingtabellen met bijgewerkte partitiekolommen.
U kunt deze wijziging ook herstellen om de bestaande partitiekolommen te blijven gebruiken.
KAN_TABELSCHEMA_NIET_BIJWERKEN
SQLSTATE: geen toegewezen waarde
Kan de huidige en nieuwe schema's voor tabel <tableName>
niet samenvoegen.
Als u door wilt gaan met deze schemawijziging, kunt u een volledige vernieuwing van deze tabel activeren.
Afhankelijk van uw gebruiksscenario en de schemawijzigingen, kunt u de schemawijziging mogelijk negeren. U kunt uw query's bijwerken zodat het uitvoerschema compatibel is met het bestaande schema (bijvoorbeeld door kolommen expliciet naar het juiste gegevenstype te gieten).
KAN_NIET_SCHRIJVEN_NAAR_INACTIEVE_KOLOMMEN
SQLSTATE: geen toegewezen waarde
De volgende tabellen in het doel hebben inactieve kolommen die conflicteren met de huidige brontabellen:
<details>
Deze kolommen blijven inactief in de doeltabellen omdat ze eerder uit de brontabellen zijn verwijderd.
Als u door wilt gaan met de update, voert u een FULL REFRESH
uit op de tabellen of verwijdert u deze inactieve kolommen uit de doeltabellen via ALTER TABLE DROP COLUMN
opdracht en voert u de update opnieuw uit.
KAN_NIET_SCHRIJVEN_NAAR_INACTIEVE_TABELLEN
SQLSTATE: geen toegewezen waarde
De volgende tabellen in het doel zijn inactief en conflicteren met de huidige brontabellen: <tables>
.
Deze tabellen blijven inactief omdat ze eerder zijn verwijderd uit de bron of niet zijn geselecteerd uit de connector.
Als u door wilt gaan met de update, voert u een FULL REFRESH
uit op de tabellen of verwijdert u deze inactieve tabellen van de bestemming in Catalog Explorer of via DROP TABLE
opdracht en voert u de update opnieuw uit.
KAN_NIET_SCHRIJVEN_NAAR_TABELLEN_IN_AFWACHTING_RESET
SQLSTATE: geen toegewezen waarde
De volgende tabellen in de bestemming worden niet correct opnieuw ingesteld in de vorige volledige vernieuwing: <tables>
.
Activeer een volledige vernieuwing om ze te herstellen.
CATALOG_SPEC_UNSUPPORTED
SQLSTATE: geen toegewezen waarde
CatalogSpecs worden momenteel niet ondersteund door de databaseconnectors. Verwijder de catalogusspecificatie.
CDC_TOEPASSING_VEREIST_EEN_VOLLEDIGE_VERNIEUWING_VAN_ALLE_BESTEMMINGSTABELLEN
SQLSTATE: geen toegewezen waarde
Volledige vernieuwing van de ene doeltabel en de normale update van een andere doeltabel uit dezelfde bron wordt niet ondersteund.
Vernieuw beide tabellen volledig om door te gaan, indien mogelijk.
Volledig vernieuwde tabellen: <fullRefreshTables>
Doeltabellen voor bron <sourceTable>
: <destinationTables>
CDC_TOEPASSER_SCHEMA_GEWIJZIGD_TIJDENS_STREAMING
SQLSTATE: geen toegewezen waarde
Schemaversie <dataSchemaVersion>
verschilt van de leesschemaversie <readSchemaVersion>
.
DLT voert de update opnieuw uit.
CDC_ONVERENIGBARE_SCHEMA_WIJZIGINGEN
SQLSTATE: geen toegewezen waarde
Er is een incompatibele schemawijziging (<cause>
) aangetroffen van schemaversie <previousSchemaVersion>
naar <currentSchemaVersion>
.
Daarom kunnen we niet doorgaan met het toepassen van wijzigingen voor <tableName>
. Vraag een volledige vernieuwing van de tabel aan.
Vorige schema: <previousSchema>
Huidig schema: <currentSchema>
CDC_POTENTIËLE_DATAGEBREKEN
SQLSTATE: geen toegewezen waarde
De volgende tabel [<needFullRefreshTableList>
] heeft al <retention>
dagen geen geslaagde update.
Voer een volledige vernieuwing uit voor deze tabellen of de hele pijplijn.
CDC_SAME_TABLE_FROM_MULTIPLE_SOURCES
SQLSTATE: geen toegewezen waarde
Dezelfde tabelnaam <table>
uit meerdere bronnen gevonden: <sources>
.
Splits ze op in verschillende pijplijnen om conflicten te voorkomen.
CDC_TABLE_NOT_FOUND_IN_ALL_TABLES
SQLSTATE: geen toegewezen waarde
Tabel <table>
is niet gevonden in de momentopname van alle tabellen van de brondatabase.
Details van tabelspecificatie:
<tableSpec>
CHANGES_HMS_PIPELINE_TO_UC_NOT_ALLOWED
SQLSTATE: geen toegewezen waarde
Het wijzigen van een HMS-pijplijn in een UC-pijplijn is niet toegestaan.
WIJZIGINGEN_VAN_UC_PIPELINE_NAAR_HMS_NIET_TOEGESTAAN
SQLSTATE: geen toegewezen waarde
Het wijzigen van een UC-pijplijn in een HMS-pijplijn is niet toegestaan.
WIJZIGEN_VAN_CATALOGUS_NIET_TOEGESTAAN
SQLSTATE: geen toegewezen waarde
Kan de catalogus van een bestaande pijplijn niet wijzigen. Bestaande catalogus: '<existingCatalog>
'. Aangevraagde catalogus: '<requestedCatalog>
'.
CHANGING_TARGET_SCHEMA_NOT_ALLOWED
SQLSTATE: geen toegewezen waarde
Het wijzigen van het doelschema is niet toegestaan. Reden: <reason>
.
CLUSTER_AANMAAK_CREDITS_OPGEBRUIKT
Het is niet gelukt een cluster te maken omdat u het beschikbare tegoed hebt uitgeput. Voeg een betalingswijze toe om uw account te upgraden.
Toestemming voor het maken van cluster geweigerd
U bent niet gemachtigd om clusters te maken. Neem contact op met uw beheerder.
PROEFCLUSTER_AANMAKEN_VERLOPEN
Kan een cluster niet maken of starten omdat de proefperiode voor uw werkruimte is verlopen. Neem contact op met uw beheerder.
CLUSTER_LAUNCH_CLIENT_ERROR
Kan het pijplijncluster niet starten <clusterId>
: <clusterStateMessage>
Deze fout wordt waarschijnlijk veroorzaakt door een onjuiste configuratie in de pijplijn.
Controleer de configuratie van het pijplijncluster en het bijbehorende clusterbeleid.
CLUSTER_START_CLOUD_FALEN
Kan het pijplijncluster niet starten <clusterId>
: <clusterStateMessage>
Deze fout kan tijdelijk zijn: start uw pijplijn en rapport opnieuw op als u hetzelfde probleem nog steeds ziet.
Clusterbeleid-toestemming geweigerd
U bent niet gemachtigd om toegang te krijgen tot het clusterbeleid dat is geconfigureerd voor deze pijplijn. Neem contact op met uw beheerder.
CLUSTER_SETUP_CLIENT_ERROR
Zie CLUSTER_SETUP_CLIENT_ERROR voor meer informatie
CLUSTER_ONBEREIKBAAR
SQLSTATE: geen toegewezen waarde
Communicatie verloren met chauffeur. Cluster <clusterId>
was gedurende <timeoutSeconds>
seconden niet bereikbaar.
KOLOM_OM_BIJ_TE_WERKEN_NIET_GEVONDEN
SQLSTATE: geen toegewezen waarde
Kolom <column>
opgegeven in COLUMNS
TO UPDATE
niet gevonden in het brondataframe.
GELIJKTIJDIGE_UPGRADE_GESLAAGD_NIET_OM_VOORGAANDE_UPDATE_TE_STOPPEN
SQLSTATE: geen toegewezen waarde
Gestart met update '<upgradedUpdateId>
' voor een upgrade, maar het lukte niet om de vorige update '<oldUpdateId>
' te stoppen.
Deze fout is waarschijnlijk tijdelijk. De pijplijn wordt automatisch opnieuw geprobeerd en het probleem moet zichzelf oplossen.
Meld deze fout aan Databricks als u nog steeds hetzelfde probleem ziet.
Onveranderde tekst gebruiken om de technische nauwkeurigheid en herkenbaarheid in een programmeeromgeving te behouden.
SQLSTATE: geen toegewezen waarde
De gegevensset <datasetName>
bestaat al. Zorg ervoor dat de queryfunctie slechts eenmaal is gemarkeerd als een weergave of tabel.
GEGEVENSET_NIET_GEDEFINIEERD
SQLSTATE: geen toegewezen waarde
Kan de gegevensset ‘<datasetName>
’ niet lezen. Deze gegevensset is niet gedefinieerd in de pijplijn.
Als deze tabel wordt beheerd door een andere pijplijn, gebruikt u dlt.read
/ dlt.readStream
niet om de tabel te lezen of de naam vooraf te laten gaan met het trefwoord LIVE.
DE_SCHEDULE_SCHEDULE_BESTAAT_NIET
Kan SCHEDULE
niet verwijderen in een tabel zonder een bestaand schema of een bestaande trigger.
Gedupliceerde_Invoerspecificaties_Tabelinstellingen
SQLSTATE: geen toegewezen waarde
De configuratie van de invoerpijplijn bevat dubbele tabellen. Zorg ervoor dat elke tabel uniek is.
LEGE_INVOERCONFIGURATIE_OBJECTEN
SQLSTATE: geen toegewezen waarde
De configuratie-objecten voor gegevensinvoer zijn leeg.
FUNCTIE_EVENT_LOG_PICKER_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
Het publiceren van het gebeurtenislogboek naar Unity Catalog wordt niet ondersteund voor deze pijplijn. Neem contact op met databricks-ondersteuning als dit onverwacht is.
KON_NIET_EVENEMENT_LOG_MAKEN
SQLSTATE: geen toegewezen waarde
Kan gebeurtenislogboek voor pijplijn (id=<pipelineId>
) niet maken met id-<eventLogIdentifier>
. Zie de uitzondering hieronder voor meer informatie.
NIET_GELUKT_OM_EVENT_LOG_BIJ_TE_WERKEN
SQLSTATE: geen toegewezen waarde
Het is niet gelukt om de gebeurtenislogboek-id van pijplijn (id=<pipelineId>
) bij te werken naar <newEventLogIdentifier>
met zichtbaarheid <newVisibility>
. Zie de uitzondering hieronder voor meer informatie.
STROOMSCHEMA_GEWIJZIGD
SQLSTATE: geen toegewezen waarde
Flow <flowName>
is beëindigd sinds er tijdens de uitvoering een schemawijziging is opgetreden.
De schemawijziging is compatibel met het bestaande doelschema en de volgende uitvoering van de stroom kan worden hervat met het nieuwe schema.
FOREACH_BATCH_SINK_ONLY_SUPPORTED_IN_PREVIEW_CHANNEL
SQLSTATE: geen toegewezen waarde
DLT ForeachBatch Sink wordt momenteel niet ondersteund.
Voor de privé-preview van de DLT ForeachBatch-sink is het PREVIEW
-kanaal vereist.
DLT-sinks: <sinkNames>
GATEWAY_PIPELINE_INIT_SCRIPTS_NIET_TOEGESTAAN
SQLSTATE: geen toegewezen waarde
De Gateway-pijplijn staat geen init-scripts voor clusters toe. Verwijder het uit <from>
.
GATEWAY_PIPELINE_SPARK_CONFIGURATIE_NIET_TOEGESTAAN
SQLSTATE: geen toegewezen waarde
De Gateway-pijplijn staat Spark-configuratie [<configs>
] niet toe. Verwijder ze uit <from>
.
ILLEGALE_KOLOM_OM_GEGEVENS_TYPE_BIJ_TE_WERKEN
SQLSTATE: geen toegewezen waarde
Het gegevenstype van de kolom, gespecificeerd in COLUMNS
tot UPDATE
, moet een tekenreeksmatrix zijn, maar er is <illegalDataType>
gevonden.
ILLEGAL_SCHEMA_FIELD_IN_PIPELINE_SPEC
SQLSTATE: geen toegewezen waarde
Het opgegeven schemaveld in de pijplijninstellingen is ongeldig. Reden: <reason>
.
INGESTION_CONFIG_DUPLICATED_SCHEMA
SQLSTATE: geen toegewezen waarde
De configuratie van de opnamepijplijn bevat dubbele schema's. Zorg ervoor dat elk schema uniek is.
INGESTION_GATEWAY_AUTHENTICATION_FAILURE
SQLSTATE: geen toegewezen waarde
Authenticatiefout
Zie INGESTION_GATEWAY_AUTHENTICATION_FAILURE voor meer informatie
INGESTION_GATEWAY_CDC_NOT_ENABLED
SQLSTATE: geen toegewezen waarde
CDC is niet ingeschakeld op <entityType>
'<entityName>
'. Foutbericht: '<errorMessage>
'.
INGESTIE_GATEWAY_VERBINDINGSVERWIJZING_ONTBREEKT
SQLSTATE: geen toegewezen waarde
Er ontbreekt een verbinding in de gatewayconfiguratie.
Voeg een verwijzing toe naar de Unity Catalog-verbinding met uw referenties.
Details van definitie van opnamegatewaypijplijn:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_CATALOG
SQLSTATE: geen toegewezen waarde
De configuratie van de opnamegateway mist de catalogus van de interne opslaglocatie.
Voeg de catalogus voor interne opslaglocaties toe.
Details van definitie van opnamegatewaypijplijn:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_NAME
SQLSTATE: geen toegewezen waarde
De naam van de interne opslaglocatie ontbreekt in de configuratie van de opnamegateway.
Voeg de naam van de interne opslaglocatie toe.
Details van definitie van opnamegatewaypijplijn:
<definition>
INGESTION_GATEWAY_MISSING_INTERNAL_STORAGE_SCHEMA
SQLSTATE: geen toegewezen waarde
De configuratie van de opnamegateway mist het schema van de interne opslaglocatie.
Voeg het schema voor de interne opslaglocatie toe.
Details van definitie van opnamegatewaypijplijn:
<definition>
INGESTION_GATEWAY_ONBEREIKBARE_HOST_OF_POORT_FOUT
SQLSTATE: geen toegewezen waarde
Verbindingsfout vanwege onjuiste hostnaam <host>
en/of poort <port>
.
Zie INGESTION_GATEWAY_UNREACHABLE_HOST_OR_PORT_FAILURE voor meer informatie
CAPACITEIT_INSTANCE_POOL_OVERSCHREDEN
Kan een cluster niet maken of starten omdat deze bewerking de capaciteit van de exemplaargroep overschrijdt: <errorMessage>
ONGELDIGE_AANPASSINGEN_TOEPASSEN_OPDRACHT
SQLSTATE: geen toegewezen waarde
APPLY CHANGES
opdracht is ongeldig.
<reason>
.
ONGELDIGE_ARGUMENT_TYPE
SQLSTATE: geen toegewezen waarde
De waarde van een ongeldig type die aan parameter '<paramName>
' is doorgegeven. Verwachte <expectedType>
.
<additionalMsg>
.
ONGELDIGE_EVENT_LOG_PICKER_CONFIGURATIE
SQLSTATE: geen toegewezen waarde
Ongeldige configuratie van gebeurtenislogboekkiezer gevonden in pijplijnspecificatie: <message>
Ongeldige_naam_in_gebruik_commando
SQLSTATE: geen toegewezen waarde
Ongeldige naam ‘<name>
’ in de <command>
-opdracht. Reden: <reason>
ONGELDIGE_VERNIEUW_SELECTIE
SQLSTATE: geen toegewezen waarde
De vernieuwingsselectieparameters die voor deze update zijn opgegeven, zijn ongeldig sinds
Zie INVALID_REFRESH_SELECTION voor meer informatie
Ongeldige_Schema_Naam
SQLSTATE: geen toegewezen waarde
Ongeldig schema<schemaName>
opgegeven in de pijplijninstelling. Reden: <reason>
.
ONGELDIG TRIGGER-INTERVALFORMaat
SQLSTATE: geen toegewezen waarde
De configuratie van het triggerinterval die is opgegeven in de <configurationType>
is ongeldig
LIVE_VERWIJZING_BUITEN_QUERY_DEFINITIE_KLASSIEK
SQLSTATE: geen toegewezen waarde
Verwijzingen naar gegevenssets met behulp van het LIVE
virtuele schema buiten de definitie van de gegevenssetquery (d.w.z. @dlt.table annotatie) worden niet ondersteund.
LIVE_REFERENCE_OUTSIDE_QUERY_DEFINITION_DPM
SQLSTATE: geen toegewezen waarde
Verwijzen naar gegevenssets die gebruikmaken van een LIVE
virtueel schema <identifier>
buiten de definitie van de gegevenssetquery (zoals bijvoorbeeld @dlt.table annotatie) wordt niet ondersteund.
LIVE_REFERENTIE_BUITEN_QUERY_DEFENITIE_SPARK_SQL
SQLSTATE: geen toegewezen waarde
Verwijzingen naar gegevenssets met behulp van het LIVE
virtuele schema in de spark.sql(...) API mogen niet buiten de definitie van de gegevenssetquery (d.w.z. de @dlt.table-annotatie) worden aangeroepen. Deze kan alleen worden aangeroepen binnen de definitie van de gegevenssetquery.
FOUT_BIJ_HET_LEZEN_VAN_MATERIALIZED_VIEW_METADATA
SQLSTATE: geen toegewezen waarde
Kan tabel <tableName>
niet vernieuwen vanwege een leesfout in metagegevens. Neem contact op met de ondersteuning van Databricks.
MAXIMAAL_AANTAL_HERPROBERINGEN_BEREIKT_VOORDAT_ENZYME_HERBEREKENING
SQLSTATE: geen toegewezen waarde
Het maximumaantal nieuwe pogingen is bereikt. Aantal nieuwe pogingen:<flowRetryCount>
. maxFlowFailureRetryCountThreshold:<maxFlowRetryAttempts>
. <message>
METASTORE-OPERATIE TIJDSDUUR VERSTREKEN
SQLSTATE: geen toegewezen waarde
Bewerkingen die betrokken zijn bij het bijwerken van de metastore-informatie voor <tableName>
duurde langer dan <timeout>
.
Dit probleem kan tijdelijk zijn of kan duiden op fouten in de geconfigureerde metastore-client. Start de pijplijn opnieuw op en meld dit probleem als dit zich blijft voordoen.
ONTBREKENDE_CREATIE_SCHEMA_PRIVILEGE
SQLSTATE: geen toegewezen waarde
Gebruiker '<userName>
' is niet gemachtigd om een schema te maken in de catalogus <catalogName>
ONTBREKENDE_TABELAANMAAKRECHTEN
SQLSTATE: geen toegewezen waarde
Gebruiker '<userName>
' is niet gemachtigd om een tabel te maken in het schema <schemaName>
MISSING_RUN_AS_USER
SQLSTATE: geen toegewezen waarde
Er is geen gebruiker opgegeven voor de update.
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_FOUND
De doelpijplijn <pipelineId>
kan niet worden gevonden. Zorg ervoor dat u zich in dezelfde werkruimte bevindt als de pijplijn, dat u de eigenaar van de pijplijn bent en dat de pijplijn ten minste één keer is uitgevoerd.
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_NOT_IN_NEW_ARCHITECTURE
De doelpijplijn <pipelineId>
maakt geen gebruik van de modus Direct Publishing. Voor het verplaatsen van een tabel tussen pijplijnen moeten zowel de bron- als de doelpijplijn in de Directe publicatiemodus staan.
TABEL_VERPLAATSEN_TUSSEN_PIPELINES_BESTEMMINGSPIPELINE_TOESTEMMING_GEWEIGERD
U mag deze bewerking niet uitvoeren, u bent niet de eigenaar van de doelpijplijn <pipelineId>
. Alleen eigenaren kunnen een tabel verplaatsen tussen pijplijnen.
MOVE_TABLE_BETWEEN_PIPELINES_DESTINATION_PIPELINE_TYPE_NOT_WORKSPACE
De doelpijplijn <pipelineId>
is geen standaardpijplijn. We ondersteunen alleen het verplaatsen van tabellen tussen standaardpijplijnen.
VERPLAATS_TABEL_TUSSEN_PIPELINES_FUNCTIE_UITSCHAKELD
Het verplaatsen van <tableType>
tussen pijplijnen wordt nog niet ondersteund.
TABEL_VERPLAATSEN_TUSSEN_PIPELINES_BRON_PIPELINE_NIET_GEVONDEN
De bronpijplijn <pipelineId>
, die de tabel <tableName>
beheert, is niet gevonden. Zorg ervoor dat u zich in dezelfde werkruimte bevindt als de pijplijn, u de eigenaar van de pijplijn bent en dat de pijplijn ten minste één keer wordt uitgevoerd.
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_NOT_IN_NEW_ARCHITECTURE
De bronpijplijn <pipelineId>
, die de tabel <tableName>
beheert, maakt geen gebruik van de Direct Publishing Mode. Om een tabel tussen pijplijnen te verplaatsen, moeten zowel de bron- als de bestemmingspijplijnen zich in de modus Direct publiceren bevinden.
VERPLAATS_TABEL_TUSSEN_PIJPLEIDINGEN_BRON_PIJPLEIDING_PERMISSIE_GEWEEIGERD
U mag deze bewerking niet uitvoeren, u bent niet de eigenaar van de bronpijplijn <pipelineId>
, het beheren van de tabel <tableName>
. Alleen eigenaren kunnen een tabel verplaatsen tussen pijplijnen.
MOVE_TABLE_BETWEEN_PIPELINES_SOURCE_PIPELINE_TYPE_NOT_WORKSPACE
De bronpijplijn <pipelineId>
, het beheren van de tabel <tableName>
, is geen standaardpijplijn. We ondersteunen alleen het verplaatsen van tabellen tussen standaardpijplijnen.
TABEL_VERPLAATSEN_TUSSEN_PIJPLIJNEN_TABEL_VERANDERD
De tabel <tableName>
is gewijzigd tijdens de bewerking. Probeer het opnieuw
VERPLAATS_TABEL_TUSSEN_PIPELINES_BIJWERKING_IS_AAN_DE_GANG
De pijplijn <pipelineId>
voor de tabel <tableName>
is actief. Stop de pijplijn voordat u de bewerking uitvoert.
wederzijds exclusieve opties
SQLSTATE: geen toegewezen waarde
Wederzijds exclusieve opties <options>
. Verwijder een van deze opties.
TABEL_ZONDER_UC_REEDS_BEHEERD_DOOR_ANDERE_PIPELINE
SQLSTATE: geen toegewezen waarde
Tabel '<tableName>
' wordt al beheerd door pijplijn <otherPipelineId>
.
Als u wilt dat de tabel '<tableName>
' wordt beheerd door deze pijplijn-
- Verwijder de tabel uit de pijplijn
<otherPipelineId>
'. - Start een volledige vernieuwingsupdate voor deze pijplijn.
Als u de tabel vanuit meerdere pijplijnen wilt blijven beheren, schakelt u deze controle uit door de configuratie-pipelines.tableManagedByMultiplePipelinesCheck.enabled
in te stellen op false
in uw pijplijninstellingen.
Dit wordt niet aanbevolen omdat gelijktijdige bewerkingen in de tabel met elkaar conflicteren en leiden tot onverwachte resultaten.
NOTITIEBOEK_NIET_GEVONDEN
Kan notebook niet laden<notebookPath>
'.
NO_TABLES_IN_PIPELINE
SQLSTATE: geen toegewezen waarde
Pijplijnen hebben naar verwachting ten minste één tabel gedefinieerd, maar er zijn geen tabellen gevonden in uw pijplijn.
Controleer of u de verwachte bronbestanden hebt opgenomen en of uw broncode tabeldefinities bevat (bijvoorbeeld CREATE <mv>
in SQL-code, @dlt.table in Python-code).
Houd er rekening mee dat alleen tabellen worden meegeteld voor deze controle. Deze fout kan ook optreden als u alleen weergaven of stromen in uw pijplijn opneemt.
GEEN_WERKOMGEVINGEN
Kan een cluster niet maken of starten omdat uw organisatie geen werkomgevingen heeft. Neem contact op met de ondersteuning van Databricks.
NIET-HERSTARTBARE ANALYSE IN PIJPLIJN
SQLSTATE: geen toegewezen waarde
Pijplijn kan de brontabellen (<tables>
) niet analyseren vanwege fouten die niet opnieuw kunnen worden geprobeerd na gedeeltelijke uitvoering.
Er wordt geen nieuwe pijplijnupdate gemaakt. Controleer het gebeurtenislogboek en los de problemen dienovereenkomstig op.
PIJPLIJN_NIET_GEREED_VOOR_GEPLANDE_UPDATE
SQLSTATE: geen toegewezen waarde
De tabel is nog niet gereed voor vernieuwen
Zie PIPELINE_NOT_READY_FOR_SCHEDULED_UPDATE voor meer informatie
PIPELINE_TYPE_QUOTA_EXCEEDED
Kan update '<updateId>
' niet starten omdat de limiet voor actieve pijplijnen van het type '<pipelineType>
' is bereikt.
PIP_INSTALL_ERROR
SQLSTATE: geen toegewezen waarde
Er is een fout opgetreden tijdens het aanroepen van de %pip-installatie.
PIP_INSTALL_NOT_AT_TOP_OF_NOTEBOOK
SQLSTATE: geen toegewezen waarde
Gevonden cellen die %pip installatie bevatten en niet bovenaan het notebook staan voor '<notebookPath>
'
Verplaats alle %pip installatiecellen naar het begin van het notebook.
PY4J_BLOCKED_API
SQLSTATE: geen toegewezen waarde
U gebruikt een Python-API die niet wordt ondersteund in de huidige omgeving.
Raadpleeg de Databricks-documentatie voor alternatieven.
<additionalInfo>
REFERENTIE_DLT_GEGEVENSET_BUITEN_QUERY_DEFENITIE
SQLSTATE: geen toegewezen waarde
Het verwijzen naar DLT-dataset <identifier>
buiten de querydefinitie van de gegevensset (bijvoorbeeld @dlt.table annotatie) wordt niet ondersteund. Lees het in plaats daarvan binnen de definitie van de datasetquery.
VERVERSMODUS_BESTAAT_AL
Kan <type>
niet toevoegen aan een tabel die al <existingType>
bevat. Verwijder de bestaande planning of gebruik ALTER TABLE
...
ALTER <type>
... om het te wijzigen.
GERESERVEERD_TREFWOORD_IN_GEBRUIK_CATALOGUS
SQLSTATE: geen toegewezen waarde
USE CATALOG
'<reservedKeyword>
' is illegaal omdat '<reservedKeyword>
' een gereserveerd trefwoord is in DLT.
RESERVED_KEYWORD_IN_USE_SCHEMA
SQLSTATE: geen toegewezen waarde
USE SCHEMA
'<reservedKeyword>
' is illegaal omdat '<reservedKeyword>
' een gereserveerd trefwoord is in DLT.
RUN_AS_USER_NOT_FOUND
SQLSTATE: geen toegewezen waarde
De opgegeven uitvoering als gebruiker<runAsUserId>
voor de update bestaat niet in de werkruimte.
SAAS_CONNECTION_ERROR
Kan geen verbinding maken met de <sourceName>
bron. Foutcode: <saasConnectionErrorCode>
.
Zie SAAS_CONNECTION_ERROR voor meer informatie
SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR
SQLSTATE: geen toegewezen waarde
Er is een schemawijziging opgetreden in de tabel <tableName>
van de <sourceName>
bron.
Zie SAAS_CONNECTOR_SCHEMA_CHANGE_ERROR voor meer informatie
SAAS_CONNECTOR_SOURCE_API_ERROR
Er is een fout opgetreden in de <sourceName>
API-aanroep. Bron-API-type: <saasSourceApiType>
. Foutcode: <saasSourceApiErrorCode>
.
Probeer de doeltabel te vernieuwen. Als het probleem zich blijft voordoen, dient u een ticket in.
SAAS_CONNECTOR_UNSUPPORTED_ERROR
Er is een niet-ondersteunde fout opgetreden in de gegevensbron <sourceName>
.
Zie SAAS_CONNECTOR_UNSUPPORTED_ERROR voor meer informatie
SAAS_ONVERENIGBARE_SCHEMA_WIJZIGINGEN_TIJDENS_INIT
SQLSTATE: geen toegewezen waarde
Er zijn incompatibele schemawijzigingen gedetecteerd bij het initialiseren van de pijplijn:
<details>
Voer een volledige vernieuwing uit op de betrokken tabellen.
SAAS_SCHEMA_UITEENGEBROKEN_TIJDENS_ANALYSE
SQLSTATE: geen toegewezen waarde
Het geanalyseerde schema van de brontabel (<table>
) is afgeweken van het verwachte schema.
Probeer de pijplijnupdate opnieuw en kijk of het probleem is opgelost.
Als dit probleem zich blijft voordoen, voert u een volledige vernieuwing uit voor de bovenstaande tabellen
Verwacht schema:
<expectedSchema>
Werkelijk schema:
<actualSchema>
SAAS_UC_CONNECTION_INACCESSIBLE
SQLSTATE: geen toegewezen waarde
De opgegeven verbinding <connectionName>
is niet toegankelijk. Controleer de verbinding en probeer het opnieuw.
Voor meer informatie, zie SAAS_UC_CONNECTION_INACCESSIBLE
SCHEMA_SPEC_EMPTY_CATALOG
SQLSTATE: geen toegewezen waarde
SchemaSpec heeft een lege string in het catalogus-veld.
Verwijder de lege tekenreeks of voeg de catalogusnaam toe. (Als dit schema geen deel uitmaakt van een catalogus in de bron, moet u het veld niet instellen.)
Details van schemaspecificatie:
<schemaSpec>
SCHEMA_SPEC_EMPTY_SCHEMA
SQLSTATE: geen toegewezen waarde
SchemaSpec heeft een lege tekenreeks in het schemaveld.
Verwijder de lege tekenreeks of voeg de schemanaam toe. (Als deze tabel geen deel uitmaakt van een schema in de bron, moet u het veld niet instellen.)
Details van schemaspecificatie:
<schemaSpec>
SCHEMA_SPEC_REQUIRE_ONE_OF_CATALOG_SCHEMA (no translation needed if this is a technical identifier)
SQLSTATE: geen toegewezen waarde
Er moet ten minste één broncatalogus en bronschema aanwezig zijn. Maar beide zijn leeg.
Details van schemaspecificatie:
<schemaSpec>
SERVICENOW_CONNECTOR_INSTANCE_HIBERNATION_ERROR
Er is een fout opgetreden in ServiceNow. Bron-API-type: <saasSourceApiType>
.
Kan geen verbinding maken met het ServiceNow-exemplaar. Het exemplaar lijkt in de sluimerstand of inactief te zijn.
Meld je aan bij je ServiceNow-beheerportal en wacht een tijdje totdat de instantie volledig is geactiveerd.
Om het opnieuw te proberen, voert u de hele pijplijn opnieuw uit of vernieuwt u de specifieke doeltabel. Als de fout zich blijft voordoen, dient u een ticket in.
SERVICENOW_CONNECTOR_INVALID_TABLE_ERROR
Er is een fout opgetreden in ServiceNow. Bron-API-type: <saasSourceApiType>
.
Kan geen query uitvoeren op het schema van de tabel<tableName>
'. De tabel bestaat niet in het ServiceNow-account voor deze gebruiker.
Controleer de tabelnaam op typefouten en zorg ervoor dat de gebruiker over de benodigde machtigingen beschikt om toegang te krijgen tot de tabel.
Om het opnieuw te proberen, kunt u de hele pijplijn opnieuw uitvoeren of deze doeltabel specifiek vernieuwen. Als de fout zich blijft voordoen, dient u een ticket in.
SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR
Er is een fout opgetreden in ServiceNow. Bron-API-type: <saasSourceApiType>
.
Er is een ongeldige SERVICENow API-eindpunt-URL gedetecteerd. De URL-structuur komt niet overeen met de verwachte ServiceNow-indeling.
Controleer de ServiceNow-exemplaarconfiguratie in de UC-verbindingsreferenties.
Zie SERVICENOW_CONNECTOR_MALFORMED_ENDPOINT_URL_ERROR voor meer informatie
SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR
Er is een fout opgetreden in ServiceNow. Bron-API-type: <saasSourceApiType>
.
Zie SERVICENOW_CONNECTOR_UNAUTHORIZED_ACCESS_ERROR voor meer informatie
SET_TBLPROPERTIES_NOT_ALLOWED_FOR_DLT_DATASET
ALTER <commandTableType>
...
SET TBLPROPERTIES
wordt niet ondersteund. Als u tabeleigenschappen wilt wijzigen, wijzigt u de oorspronkelijke definitie en voert u een update uit.
SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE
Opname voor object <objName>
is onvolledig omdat de Salesforce API-querytaak te lang duurde, is mislukt of handmatig is geannuleerd.
Zie SFDC_CONNECTOR_BULK_QUERY_JOB_INCOMPLETE voor meer informatie
SFDC_CONNECTOR_CREATE_BULK_QUERY_JOB_FAILED
Opname voor object <objName>
is onvolledig omdat het maken van de querytaak voor de Salesforce-bulk-API is mislukt. Foutcode: <saasSourceApiErrorCode>
.
<actionText>
.
SINKEN_WORDEN_NIET_ONDERSTEUND_IN_SEG
SQLSTATE: geen toegewezen waarde
DLT-sinks worden niet ondersteund in werkruimten zonder internet. De volgende sinks zijn gevonden: <sinkNames>
Tijdlimiet overschreden bij starten van de Python REPL
SQLSTATE: geen toegewezen waarde
Time-out tijdens het wachten totdat de Python REPL is gestart. Het duurde langer dan <timeoutSeconds>
seconden.
STREAMING_DOELWIT_NIET_GEDEFINIEERD
SQLSTATE: geen toegewezen waarde
Kan de doeltabel <target>
niet vinden voor de <command>
opdracht. Doeltabel <target>
is niet gedefinieerd in de pijplijn.
TABEL_SPECIFICATIE_BEIDE_CATALOGUS_SCHEMA_VEREIST
SQLSTATE: geen toegewezen waarde
TableSpec ontbreekt een van de broncatalogus en/of het bronschema.
Details van tabelspecificatie:
<tableSpec>
TABLE_SPEC_EMPTY_CATALOG
SQLSTATE: geen toegewezen waarde
TableSpec heeft een lege tekenreeks in het catalogusveld.
Verwijder de lege tekenreeks of voeg de catalogusnaam toe. (Als deze tabel geen deel uitmaakt van een catalogus in de bron, moet u het veld niet instellen.)
Details van tabelspecificatie:
<tableSpec>
TABLE_SPEC_EMPTY_SCHEMA
SQLSTATE: geen toegewezen waarde
TableSpec heeft een lege tekenreeks in het schemaveld.
Verwijder de lege tekenreeks of voeg de schemanaam toe. (Als deze tabel geen deel uitmaakt van een schema in de bron, moet u het veld niet instellen.)
Details van tabelspecificatie:
<tableSpec>
TABLE_SPEC_EMPTY_TABLE
SQLSTATE: geen toegewezen waarde
Tabelnaam is leeg. Geef een tabelnaam op.
Details van tabelspecificatie:
<tableSpec>
TABEL_TOKEN_BESTAAT_NIET_VOOR_SCHEMA_EVOLUTIE_ERFGOEDTABEL
SQLSTATE: geen toegewezen waarde
Schemaontwikkeling kan niet worden ingeschakeld vanwege ontbrekende metagegevens. Activeer een volledige verversing.
Reden: Token voor momentopnametabellen moet worden gedefinieerd wanneer schemaontwikkeling is ingeschakeld.
Ongeldige waarde voor triggerinterval
Het triggerinterval moet een positieve duur zijn, de maximaal acceptabele waarde is 2.147.483.647 seconden. Ontvangen: <actual>
seconden.
TYPE_TRIGGER_BRON_NIET_ONDERSTEUND
De bron-<source>
met het type <type>
wordt momenteel niet ondersteund door triggers.
UC_CLEARING_DOEL_SCHEMA_NIET_TOEGESTAAN
SQLSTATE: geen toegewezen waarde
Het wissen van het doelschemaveld is niet toegestaan voor UC-pijplijnen. Reden: <reason>
.
UC_DOEL_SCHEMA_VEREIST
SQLSTATE: geen toegewezen waarde
Het doelschemaveld is vereist voor UC-pijplijnen. Reden: <reason>
.
ONVERWACHTE_PIPELINE_SCHEMA_TOEGANGSFOUT
SQLSTATE: geen toegewezen waarde
Onverwachte fout tijdens het controleren van schemamachtigingen voor pijplijn <pipelineId>
. Neem contact op met de ondersteuning van Databricks.
ONOPGELOSTE_DOELPAD
SQLSTATE: geen toegewezen waarde
Het opslagpad voor sink <identifier>
kan niet worden opgelost. Neem contact op met de ondersteuning van Databricks.
Onopgeloste_Tabel_Pad
SQLSTATE: geen toegewezen waarde
Het opslagpad voor tabel <identifier>
kan niet gevonden worden. Neem contact op met de ondersteuning van Databricks.
NIET-ONDERSTEUND_KANAAL_VOOR_DPM
SQLSTATE: geen toegewezen waarde
Niet-ondersteund kanaal voor de modus Direct Publishing. U verwacht het 'CURRENT
' of het 'PREVIEW
' kanaal, maar kreeg 'PREVIOUS
'.
NIET-ONDERSTEUNDE_OPDRACHT_IN_NIET-DPM_PIPELINE
SQLSTATE: geen toegewezen waarde
<command>
alleen ondersteund in de DLT-pijplijn met directe publicatiemodus
UNSUPPORTED_COMMAND_IN_QUERY_DEFINITION (Niet-ondersteunde opdracht in querydefinitie)
SQLSTATE: geen toegewezen waarde
'<command>
' wordt niet ondersteund in de querydefinitie. Verplaats de opdracht buiten de querydefinitie. Als het een DLT-pijplijn in Python is, plaatst u de '<command>
' buiten de @dlt.table(/@dlt.view() decorator. Als het een DLT-pijplijn in Scala is, verplaatst u de '<command>
' buiten de 'query'-methode.
Niet-ondersteunde functie voor werkruimte
<featureName>
wordt niet ondersteund in uw werkruimte. Neem contact op met de ondersteuning van Databricks om deze functie in te schakelen voor uw werkruimte.
Niet Ondersteunde Taal
Kan <language>
notebook ‘<notebookPath>
’ niet laden. Momenteel worden alleen <supportedLanguages>
notebooks ondersteund.
NIET-ONDERSTEUND_BEHEERD_OPNAME_BRON_TYPE
SQLSTATE: geen toegewezen waarde
Ongeldige definitie van beheerde opnamepijplijn, niet-ondersteund brontype: <sourceType>
.
UNSUPPORTED_SAAS_INGESTION_TYPE
SQLSTATE: geen toegewezen waarde
Het ingevoerde opnametype <ingestionType>
wordt niet ondersteund.
Neem contact op met databricks-ondersteuning als dit probleem zich blijft voordoen.
NIET-ONDERSTEUNDE_SPARK_SQL_OPDRACHT
SQLSTATE: geen toegewezen waarde
'<command>
' wordt niet ondersteund in spark.sql("...") API in DLT Python. Ondersteunde opdracht: <supportedCommands>
.
GEBRUIK_CATALOGUS_IN_HMS
SQLSTATE: geen toegewezen waarde
Alleen USE CATALOG
wordt ondersteund in een UC-ingeschakelde DLT-pijplijn.
TEKST_NIET_OPGESLAGEN_IN_UC
SQLSTATE: geen toegewezen waarde
Kan tabel <tableName>
niet vernieuwen omdat er geen query is opgeslagen in Unity Catalog. Neem contact op met de ondersteuning van Databricks.
WORKDAY_RAPPORT_URL_LEEG
SQLSTATE: geen toegewezen waarde
De URL van het Workday-rapport is leeg. Er moet ten minste één rapport worden opgegeven.
WERKRUIMTELIMIET_OVERSCHREDEN
Kan update ‘<updateId>
’ niet starten omdat er al '<maxActiveUpdates>
' actieve pijplijnen in deze werkruimte worden uitgevoerd.
Allerlei
ABAC-rij-kolom-beleidsregels_niet_ondersteund_op_toegewezen_clusters
SQLSTATE: geen toegewezen waarde
Query op tabel <tableFullName>
met rijfilter of kolommasker dat is toegewezen via beleidsregels, wordt niet ondersteund voor toegewezen clusters.
AZURE_ENTRA_AANMELDINGSGEGEVENS_ONTBREKEN
SQLSTATE: geen toegewezen waarde
Referenties voor Azure Entra (ook wel Azure Active Directory genoemd) ontbreken.
Zorg ervoor dat u bent aangemeld met uw Entra-account
of u hebt een persoonlijk Toegangstoken (PAT) van Azure DevOps ingesteld in Gebruikersinstellingen > Git-integratie.
Als u geen PAT gebruikt en Azure DevOps met de Repos-API gebruikt,
u moet een Azure Entra-toegangstoken gebruiken.
Ziehttps://docs.microsoft.com/azure/databricks/dev-tools/api/latest/aad/app-aad-token voor stappen voor het verkrijgen van een Azure Entra-toegangstoken.
AZURE_ENTRA_CREDENTIALS_PARSE_FAILURE
SQLSTATE: geen toegewezen waarde
Er is een fout opgetreden met uw Azure Entra-referenties (Azure Active Directory). Probeer uit te loggen.
Entra https://portal.azure.com) en weer aanmelden.
U kunt ook gebruikersinstellingen bezoeken > Git-integratie om in te stellen
om een persoonlijk Azure DevOps-toegangstoken in te stellen.
AZURE_ENTRA_LOGIN_ERROR
SQLSTATE: geen toegewezen waarde
Er is een fout opgetreden met uw Azure Active Directory-referenties. Probeer uit te loggen.
Azure Active Directory https://portal.azure.com) en u kunt zich opnieuw aanmelden.
CLEAN_ROOM_DELTA_SHARING_ENTITY_NOT_AUTHORIZED
SQLSTATE: geen toegewezen waarde
Referentiegeneratie voor het beveiligbare delen van clean room-delta's kan niet worden aangevraagd.
CLEAN_ROOM_HIDDEN_SECURABLE_PERMISSION_DENIED
SQLSTATE: geen toegewezen waarde
Beveiligbare <securableName>
met type <securableType>
en soort <securableKind>
wordt beheerd door het clean room-systeem, de gebruiker heeft geen toegang.
CONSTRAINT_ALREADY_EXISTS
SQLSTATE: geen toegewezen waarde
Beperking met naam <constraintName>
bestaat al, kies een andere naam.
CONSTRAINT_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
Beperking <constraintName>
bestaat niet.
KAN_OP_AFSTANDSVERSIEBEHEER_MIET_LEZEN
SQLSTATE: geen toegewezen waarde
Kan externe opslagplaats (<repoUrl>
) niet lezen.
Ga naar uw externe Git-provider om ervoor te zorgen dat:
- Uw externe GIT-opslagplaats-URL is geldig.
- Uw persoonlijke toegangstoken of app-wachtwoord heeft de juiste toegang tot de opslagplaats.
KON_ONDERDAK_OPLOSSINGS_HOST_NIET_VINDEN
SQLSTATE: geen toegewezen waarde
Kan de host voor <repoUrl>
niet oplossen.
CSMS_BEGINNING_OF_TIME_NIET_ONDERSTEUND
SQLSTATE: geen toegewezen waarde
Parameter beginning_of_time
kan niet waar zijn.
De voortgangstoken van CSMS is verlopen.
SQLSTATE: geen toegewezen waarde
Aangevraagde objecten kunnen niet worden gevonden voor het vervolgtoken.
CSMS_INVALID_CONTINUATION_TOKEN
SQLSTATE: geen toegewezen waarde
Het vervolgtoken is ongeldig. Oorzaak: <msg>
CSMS_INVALID_MAX_OBJECTS
SQLSTATE: geen toegewezen waarde
Ongeldige waarde <value>
voor parameter max_objects, verwachte waarde in [<minValue>
, <maxValue>
]
CSMS_INVALID_URI_FORMAT
SQLSTATE: geen toegewezen waarde
Ongeldige URI-indeling. Verwacht een volume (bijvoorbeeld "/Volumes/catalog/schema/volume") of cloudopslagpad (bijvoorbeeld 's3://some-uri')
CSMS_KAFKA_TOPIC_MISSING (Kafka-onderwerp ontbreekt)
SQLSTATE: geen toegewezen waarde
Moet een Kafka-onderwerp opgeven
CSMS_LOCATION_ERROR
SQLSTATE: geen toegewezen waarde
Kan geen objecten weergeven. Er zijn problemen op de locatie die moeten worden opgelost. Details: <msg>
CSMS_LOCATION_NOT_KNOWN
SQLSTATE: geen toegewezen waarde
Er is geen locatie gevonden voor URI-<path>
CSMS_METASTORE_RESOLUTION_FAILED
SQLSTATE: geen toegewezen waarde
Kan geen metastore voor de aanvraag bepalen.
CSMS_DIENST_GEDEACTIVEERD
SQLSTATE: geen toegewezen waarde
Service is uitgeschakeld
CSMS_UNITY_CATALOG_ENTITY_NOT_FOUND
SQLSTATE: geen toegewezen waarde
Unity Catalog-entiteit is niet gevonden. Zorg ervoor dat de catalogus, het schema, het volume en/of de externe locatie bestaat.
CSMS_UNITY_CATALOG_EXTERNAL_LOCATION_DOES_NOT_EXIST
SQLSTATE: geen toegewezen waarde
De externe locatie van Unity Catalog bestaat niet.
CSMS_UNITY_CATALOG_EXTERNAL_STORAGE_OVERLAP
SQLSTATE: geen toegewezen waarde
URI overlapt met andere volumes
CSMS_UNITY_CATALOG_METASTORE_DOES_NOT_EXIST
SQLSTATE: geen toegewezen waarde
Kan geen metastore voor de aanvraag bepalen. Metastore bestaat niet
CSMS_UNITY_CATALOG_TOEGANG_GEAWEIGERD
SQLSTATE: geen toegewezen waarde
Machtiging geweigerd
CSMS_UNITY_CATALOGUSTABEL_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
De tabel Unity Catalog bestaat niet.
CSMS_UNITY_CATALOG_VOLUME_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
Unity Catalog-volume bestaat niet.
CSMS_URI_ONTBREEKT
SQLSTATE: geen toegewezen waarde
Moet URI opgeven
CSMS_URI_TOO_LONG
SQLSTATE: geen toegewezen waarde
De opgegeven URI is te lang. Maximale toegestane lengte is <maxLength>
.
DMK_CATALOGS_DISALLOWED_ON_CLASSIC_COMPUTE
SQLSTATE: geen toegewezen waarde
Databricks Default Storage kan niet worden geopend met behulp van classic Compute. Gebruik serverloze rekenkracht om toegang te krijgen tot gegevens in de standaardopslag
GITHUB_APP_KON_GEGEVENS_NIET_VERVERSEN
SQLSTATE: geen toegewezen waarde
De bewerking is mislukt omdat gekoppelde GitHub-app-referenties niet kunnen worden vernieuwd.
Probeer het opnieuw of ga naar Gebruikersinstellingen > Git-integratie en probeer uw Git-provideraccount opnieuw te koppelen.
Als het probleem zich blijft voordoen, dient u een ondersteuningsticket in.
GITHUB_APP_REFERENTIES_GEEN_TOEGANG
SQLSTATE: geen toegewezen waarde
De koppeling naar uw GitHub-account heeft geen toegang. Ga als volgt te werk om deze fout op te lossen:
- Een beheerder van de opslagplaats moet naarhttps://github.com/apps/databricks/installations/new gaan en de Databricks GitHub-app in de opslagplaats installeren.
Een eigenaar van een GitHub-account kan de app ook installeren op het account om toegang te verlenen tot de opslagplaatsen van het account.
- Als de app al is geïnstalleerd, laat dan een beheerder controleren of, wanneer zij gerichte toegang gebruiken met de optie 'Alleen geselecteerde repositories', ze toegang tot deze repository hebben door deze te selecteren.
Raadpleeghttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app voor meer informatie.
Als het probleem zich blijft voordoen, dient u een ondersteuningsticket in.
GitHub-app verlopen referenties
SQLSTATE: geen toegewezen waarde
Gekoppelde GitHub-app-referenties zijn verlopen na 6 maanden inactiviteit.
Ga naar Gebruikersinstellingen > Git-integratie en probeer uw referenties opnieuw te koppelen.
Als het probleem zich blijft voordoen, dient u een ondersteuningsticket in.
GITHUB_APP_INSTALL_ON_DIFFERENT_USER_ACCOUNT
SQLSTATE: geen toegewezen waarde
De koppeling naar uw GitHub-account heeft geen toegang. Ga als volgt te werk om deze fout op te lossen:
- GitHub-gebruiker
<gitCredentialUsername>
moet naarhttps://github.com/apps/databricks/installations/new gaan en de app installeren op het account<gitCredentialUsername>
om toegang toe te staan. - Als gebruiker
<gitCredentialUsername>
de app al heeft geïnstalleerd en ze gebruiken scoped toegang met de optie 'Alleen opslagplaatsen selecteren', moeten ze ervoor zorgen dat ze toegang tot deze opslagplaats hebben door deze te selecteren.
Raadpleeghttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app voor meer informatie.
Als het probleem zich blijft voordoen, dient u een ondersteuningsticket in.
GITHUB_APP_INSTALL_ON_ORGANIZATION
SQLSTATE: geen toegewezen waarde
De koppeling naar uw GitHub-account heeft geen toegang. Ga als volgt te werk om deze fout op te lossen:
- Een eigenaar van de GitHub-organisatie
<organizationName>
moet naarhttps://github.com/apps/databricks/installations/new gaan en de app installeren in de organisatie<organizationName>
om toegang te verlenen. - Als de app al is geïnstalleerd in GitHub-organisatie
<organizationName>
, laat dan een eigenaar van deze organisatie ervoor zorgen dat bij gebruik van bereiktoegang met de optie 'Alleen geselecteerde opslagplaatsen', toegang tot deze opslagplaats is opgenomen door deze te selecteren.
Raadpleeghttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app voor meer informatie.
Als het probleem zich blijft voordoen, dient u een ondersteuningsticket in.
INSTALLEER_GITHUB_APP_OP_JE_ACCOUNT
SQLSTATE: geen toegewezen waarde
De koppeling naar uw GitHub-account heeft geen toegang. Ga als volgt te werk om deze fout op te lossen:
- Ga naarhttps://github.com/apps/databricks/installations/new en installeer de app op uw account
<gitCredentialUsername>
om toegang toe te staan. - Als de app al is geïnstalleerd en u bereiktoegang gebruikt met de optie Alleen opslagplaatsen selecteren, moet u ervoor zorgen dat u toegang tot deze opslagplaats hebt opgenomen door deze te selecteren.
Raadpleeghttps://docs.databricks.com/en/repos/get-access-tokens-from-git-provider.html#link-github-account-using-databricks-github-app voor meer informatie.
Als het probleem zich blijft voordoen, dient u een ondersteuningsticket in.
GIT_CREDENTIAL_ALGEMEEN_ONGELDIG
SQLSTATE: geen toegewezen waarde
Ongeldige Git-providerreferenties voor opslagplaats-URL <repoUrl>
.
Uw huidige Git-referentiesprovider is <gitCredentialProvider>
en de gebruikersnaam is <gitCredentialUsername>
.
Ga naar Gebruikersinstellingen > Git-integratie om uw referenties weer te geven.
Ga naar uw externe Git-provider om ervoor te zorgen dat:
- U hebt het juiste e-mailadres of de juiste gebruikersnaam van de Git-gebruiker ingevoerd met de inloggegevens van uw Git-provider.
- Uw token of app-wachtwoord heeft de juiste toegang tot de opslagplaats.
- Uw token is niet verlopen.
- Als u eenmalige aanmelding hebt ingeschakeld bij uw Git-provider, moet u uw token autoriseren.
GIT_CREDENTIAL_ONGELDIGE_PAT
SQLSTATE: geen toegewezen waarde
Ongeldige persoonlijke toegangstokenreferenties voor Git-provider voor de URL van de opslagplaats <repoUrl>
.
Uw huidige Git-referentiesprovider is <gitCredentialProvider>
en de gebruikersnaam is <gitCredentialUsername>
.
Ga naar Gebruikersinstellingen > Git-integratie om uw referenties weer te geven.
Ga naar uw externe Git-provider om ervoor te zorgen dat:
- U hebt het juiste e-mailadres of de juiste gebruikersnaam van de Git-gebruiker ingevoerd met de inloggegevens van uw Git-provider.
- Uw token of app-wachtwoord heeft de juiste toegang tot de opslagplaats.
- Uw token is niet verlopen.
- Als u eenmalige aanmelding hebt ingeschakeld bij uw Git-provider, moet u uw token autoriseren.
GIT_CREDENTIAL_MISSING
SQLSTATE: geen toegewezen waarde
Er zijn geen Git-referenties geconfigureerd, maar de referenties zijn vereist voor deze opslagplaats (<repoUrl>
).
Ga naar Gebruikersinstellingen > Git-integratie om uw Git-referenties in te stellen.
GIT_CREDENTIAL_GEEN_SCHRIJFTOEGANG
SQLSTATE: geen toegewezen waarde
Schrijftoegang tot <gitCredentialProvider>
opslagplaats (<repoUrl>
) is niet verleend.
Zorg ervoor dat u (<gitCredentialUsername>
) schrijftoegang hebt tot deze externe opslagplaats.
GIT_CREDENTIAL_PROVIDER_MISMATCHED
SQLSTATE: geen toegewezen waarde
Onjuiste Git-referentieprovider voor opslagplaats.
De huidige Git-referentieprovider (<gitCredentialProvider>
) komt niet overeen met die van de Git-provider van de opslagplaats <repoUrl>
.
Probeer een andere opslagplaats of ga naar Gebruikersinstellingen > Git-integratie om uw Git-referenties bij te werken.
GIT_PROXY_CLUSTER_NOT_READY
SQLSTATE: geen toegewezen waarde
Het Git-proxycluster is niet gereed.
GIT_SECRET_IN_CODE
SQLSTATE: geen toegewezen waarde
Geheimen gevonden in de doorvoering. Detail: <secretDetail>
. Ga als volgt te werk om deze fout op te lossen:
Verwijder het geheim en probeer opnieuw te committen.
Als het probleem zich blijft voordoen, dient u een ondersteuningsticket in.
HIERARCHISCHE_NAMESPACE_NIET_INGESCHAKELD
SQLSTATE: geen toegewezen waarde
Het Azure-opslagaccount heeft geen hiërarchische naamruimte ingeschakeld.
Ongeldige Veldlengte
SQLSTATE: geen toegewezen waarde
<rpcName> <fieldName>
te lang. De maximale lengte is <maxLength>
tekens.
INVALID_PARAMETER_VALUE
SQLSTATE: geen toegewezen waarde
<msg>
Zie INVALID_PARAMETER_VALUE voor meer informatie
Taken bij Taakframework - Uitvoerrapport niet gevonden
SQLSTATE: geen toegewezen waarde
Taakframework: Uitvoer van taakuitvoering voor taak met runId <runId>
en orgId <orgId>
kon niet worden gevonden.
STATUS_TAAK_FRAMEWORK_TAAK_RUN_STATUS_NIET_GEVONDEN
SQLSTATE: geen toegewezen waarde
Taakframework: Taakuitvoeringsstatus voor taak met runId <runId>
en orgId <orgId>
is niet gevonden.
JOBS_TASK_REGISTRY_TASK_CLIENT_CONFIG_DOES_NOT_EXIST
SQLSTATE: geen toegewezen waarde
RPC ClientConfig voor taak met id <taskId>
bestaat niet.
JOBS_TAAK_REGISTER_TAAK_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
Taak met id-<taskId>
bestaat niet.
TAKEN_TAKENREGISTRATIE_NIET-ONDERSTEUNDE_TAAKVERANTWOORDELIJKHEID
SQLSTATE: geen toegewezen waarde
Taakregister: Niet-ondersteunde of onbekende JobTaak met klasse <taskClassName>
.
PADGEBASSEERDE_TOEGANG_NIET_ONDERSTEUND_VOOR_EXTERNE_SHALLOW_KLONEN
SQLSTATE: geen toegewezen waarde
Padgebaseerde toegang tot externe ondiepe kloontabel <tableFullName>
wordt niet ondersteund. Gebruik daarentegen tabelnamen om toegang te krijgen tot de ondiepe kloon.
Padgebaseerde toegang niet ondersteund voor fabric.
SQLSTATE: geen toegewezen waarde
De Fabric-tabel op url '<url>
' is niet gevonden. Gebruik de opdracht REFRESH FOREIGN CATALOG
om Fabric-tabellen te vullen.
PAD_GEBASEERDE_TOEGANG_NIET_ONDERSTEUND_VOOR_TABELLEN_MET_RIJ_KOLOM_TOEGANGSBELEIDEN
SQLSTATE: geen toegewezen waarde
Padgebaseerde toegang tot tabel <tableFullName>
met rijfilter of kolommasker wordt niet ondersteund.
TOEGANG_GEWEIGERD
SQLSTATE: geen toegewezen waarde
Gebruiker heeft geen <msg>
op <resourceType>
'<resourceName>
'.
REDACTIE_VERWIJDER_ASSET_HANDLER_ONGELDIGE_INPUT
SQLSTATE: geen toegewezen waarde
Kan verwijderobjectaanvraag niet parseren: <invalidInputMsg>
VERWIJDER_OBJECT_NIET_IN_PRULLENBAK
SQLSTATE: geen toegewezen waarde
Kan het object niet verwijderen <resourceName>
die zich niet in de prullenbak bevindt
REDASH_TOEGANG_GEWENST
SQLSTATE: geen toegewezen waarde
Kan de resource <resourceId>
niet vinden of hebt geen toestemming om toegang te verkrijgen tot de resource.
REDASH_QUERY_NOT_FOUND
SQLSTATE: geen toegewezen waarde
Kan de resource niet vinden vanuit de query-id <queryId>
REDASH_QUERY_SNIPPET_AANMAKEN_MISLUKT
SQLSTATE: geen toegewezen waarde
Kan geen nieuw queryfragment maken
QUOTUM VOOR QUERY-SNIPPETS OVERSCHREDEN
SQLSTATE: geen toegewezen waarde
Het quotum voor het aantal queryfragmenten is bereikt. Het huidige quotum is <quota>
.
REDASH_QUERY_SNIPPET_TRIGGER_REEDS_IN_GEBRUIK
SQLSTATE: geen toegewezen waarde
De opgegeven trigger <trigger>
wordt al gebruikt door een ander queryfragment in deze werkruimte.
REDASH_RESOURCE_NOT_FOUND
SQLSTATE: geen toegewezen waarde
De aangevraagde resource <resourceName>
bestaat niet
REDASH_RESTORE_ASSET_HANDLER_INVALID_INPUT
SQLSTATE: geen toegewezen waarde
Kan verwijderobjectaanvraag niet parseren: <invalidInputMsg>
REDASH_HERSTEL_OBJECT_NIET_IN_PRULLENBAK
SQLSTATE: geen toegewezen waarde
Het object <resourceName>
kan niet worden hersteld omdat het zich niet in de prullenbak bevindt.
REDASH_PRULLENBAK_OBJECT_AL_IN_PRULLENBAK
SQLSTATE: geen toegewezen waarde
Kan het al weggegooide object niet verwijderen <resourceName>
KAN_BRONNAAM_NIET_GENEREREN
SQLSTATE: geen toegewezen waarde
Kan de resourcenaam niet genereren van id <id>
REDASH_VISUALISATIE_AANMAKEN_MISLUKT
SQLSTATE: geen toegewezen waarde
Kan geen nieuwe visualisatie maken
REDASH_VISUALIZATION_NOT_FOUND
SQLSTATE: geen toegewezen waarde
Kan visualisatie <visualizationId>
niet vinden
Redash visualisatiequotum overschreden.
SQLSTATE: geen toegewezen waarde
Het quotum voor het aantal visualisaties op query <query_id> is bereikt. Het huidige quotum is <quota>
.
REPOSITORY_URL_NOT_FOUND
SQLSTATE: geen toegewezen waarde
Externe opslagplaats (<repoUrl>
) is niet gevonden.
Uw huidige Git-referentiesprovider is <gitCredentialProvider>
en de gebruikersnaam is <gitCredentialUsername>
.
Ga naar uw externe Git-provider om ervoor te zorgen dat:
- Uw externe GIT-opslagplaats-URL is geldig.
- Uw persoonlijke toegangstoken of app-wachtwoord heeft de juiste toegang tot de opslagplaats.
RESOURCE_ALREADY_EXISTS
SQLSTATE: geen toegewezen waarde
<resourceType>
'<resourceIdentifier>
' bestaat al
BRON_BESTAAT_NIET
SQLSTATE: geen toegewezen waarde
<resourceType>
'<resourceIdentifier>
' bestaat niet.
RIJ_KOLOM_TOEGANGSBELEIDEN_NIET_ONDERSTEUND_OP_TOEGEWEZEN_CLUSTERS
SQLSTATE: geen toegewezen waarde
Query op tabel <tableFullName>
met rijfilter of kolommasker niet ondersteund voor toegewezen clusters.
RIJ_KOLOM_BEVEILIGING_WORDT_NIET_ONDERSTEUND_MET_TABEL_IN_DELTA_SHARING
SQLSTATE: geen toegewezen waarde
Tabel <tableFullName>
wordt gedeeld met Delta Sharing en kan geen rij-/kolombeveiliging gebruiken.
SERVICE_TIJDELIJK_NIET_BESCHIKBAAR
SQLSTATE: geen toegewezen waarde
De <serviceName>
service is tijdelijk onder onderhoud. Probeer het later opnieuw.
TABEL_MET_RIJ_KOLOM_BEVEILIGING_NIET_ONGESTEUND_IN_ONLINEMODUS
SQLSTATE: geen toegewezen waarde
Tabel <tableFullName>
kan niet zowel rij-/kolombeveiliging als online gerealiseerde weergaven hebben.
TEVEEL_RIJEN_OM_BIJ_TE_WERKEN
SQLSTATE: geen toegewezen waarde
Te veel rijen om bij te werken, update afbreken.