Partager via


Classes d’erreur dans Azure Databricks

S’applique à : oui coché Databricks SQL oui coché Databricks Runtime 12.2 et versions ultérieures

Les classes d’erreur sont des chaînes descriptives, en langage compréhensible par un humain et correspondant à la condition d’erreur.

Vous pouvez utiliser des classes d’erreur pour gérer par programmation les erreurs dans votre application sans avoir à analyser le message d’erreur.

Ceci est une liste des conditions d’erreur courantes nommées retournées par Azure Databricks.

Databricks Runtime et Databricks SQL

AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION

SQLSTATE : 42845

L’expression <sqlExpr> non déterministe ne doit pas apparaître dans les arguments d’une fonction d’agrégation.

AI_FUNCTION_HTTP_PARSE_CAST_ERROR

SQLSTATE : 2203G

Échec de l’analyse de la sortie du modèle lors de la conversion en retourType spécifié : « <dataType> », réponse JSON a été : « <responseString> ». Mettez à jour le returnType pour qu’il corresponde au contenu du type représenté par le JSON de réponse, puis réessayez la requête.

AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR

SQLSTATE : 2203G

La sortie réelle du modèle comporte plusieurs colonnes « <responseString> ». Toutefois, le type de retour spécifié["<dataType>"] n’a qu’une seule colonne. Mettez à jour le returnType pour contenir le même nombre de colonnes que la sortie du modèle, puis réessayez la requête.

AI_FUNCTION_HTTP_REQUEST_ERROR

SQLSTATE : 08000

Une erreur s’est produite lors de l’exécution d’une requête HTTP pour la fonction <funcName>: <errorMessage>

AI_FUNCTION_INVALID_HTTP_RESPONSE

SQLSTATE : 08000

Réponse HTTP non valide pour la fonction <funcName>: <errorMessage>

AI_FUNCTION_INVALID_MAX_WORDS

SQLSTATE : 22032

Le nombre maximal de mots doit être un entier non négatif, mais obtenu <maxWords>.

AI_FUNCTION_INVALID_MODEL_PARAMETERS

SQLSTATE : 22023

Les paramètres de modèle fournis (<modelParameters>) ne sont pas valides dans la fonction AI_QUERY pour servir le point de terminaison «<endpointName> ».

Pour plus d’informations, consultez AI_FUNCTION_INVALID_MODEL_PARAMETERS

AI_FUNCTION_JSON_PARSE_ERROR

SQLSTATE : 22000

Une erreur s’est produite lors de l’analyse de la réponse JSON pour la fonction <funcName> : <errorMessage>

AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR

SQLSTATE : 2203G

Échec de l’analyse du schéma pour le point de terminaison de service « <endpointName> » : <errorMessage>, réponse JSON a été : « <responseJson> ».

Définissez manuellement le paramètre returnType dans la fonction AI_QUERY pour remplacer la résolution de schéma.

AI_FUNCTION_UNSUPPORTED_ERROR

SQLSTATE : 56038

La fonction <funcName> n'est pas prise en charge dans l'environnement actuel. Il est disponible uniquement dans Databricks SQL Pro et Serverless.

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

Échec de l’évaluation de la fonction SQL «<functionName> », car l’argument fourni <invalidValue> a « <invalidDataType> », mais seuls les types suivants sont pris en charge : <supportedDataTypes>. Mettez à jour l’appel de fonction de façon à fournir un argument de type chaîne, et réessayez la requête.

AI_FUNCTION_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

La fonction IA : «<functionName> » ne prend pas en charge le type suivant comme type de retour : «<typeName> ». Le type de retour doit être un type SQL valide compris par Catalyst et pris en charge par la fonction IA. Les types actuels pris en charge comprennent : <supportedValues>

AI_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE : 22032

La valeur fournie «<argValue> » n’est pas prise en charge par l’argument «<argName> ». Les valeurs prises en charge sont les suivantes : <supportedValues>

AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH

SQLSTATE: 0A000

Le «<sqlExpr>» fourni n’est pas pris en charge par l’argument returnType.

AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

La recherche vectorielle avec type d’incorporation de colonne <embeddingColumnType> n’est pas prise en charge.

AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR

SQLSTATE: 0A000

La recherche vectorielle avec type d’index <indexType> n’est pas prise en charge.

AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR

SQLSTATE: 0A000

Échec de matérialiser la requête de recherche vectorielle du type <dataType> Spark vers des objets scala-natifs pendant l’encodage des requêtes avec une erreur : <errorMessage>.

AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR

SQLSTATE: 0A000

La recherche vectorielle avec num_results supérieur à <maxLimit> n’est pas prise en charge. La limite spécifiée était <requestedLimit>. Veuillez réessayer avec num_results <= <maxLimit>

ALL_PARAMETERS_MUST_BE_NAMED

SQLSTATE : 07001

L’utilisation de requêtes paramétrisées nommées nécessite que tous les paramètres soient nommés. Paramètres dont les noms sont manquants : <exprs>.

ALL_PARTITION_COLUMNS_NOT_ALLOWED

SQLSTATE : KD005

Impossible d’utiliser toutes les colonnes pour les colonnes de partition.

ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE : 42710

La <type>colonne<columnName> ALTER TABLE spécifie l’option «<optionName>» plusieurs fois, ce qui n’est pas valide.

AMBIGUOUS_ALIAS_IN_NESTED_CTE

SQLSTATE: 42KD0

Le nom <name> est ambigu dans l’expression «nested CTE»

Définissez sur <config> « CORRIGÉ » pour que le nom défini dans l’expression CTE interne soit prioritaire. Si elle est définie sur « HERITÉ», les définitions CTE externes sont prioritaires.

Voir https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine’.

AMBIGUOUS_COLUMN_OR_FIELD

SQLSTATE : 42702

La colonne ou le champ <name> est ambigu et a <n> correspondances.

AMBIGUOUS_COLUMN_REFERENCE

SQLSTATE : 42702

La colonne <name> est ambiguë. Cela est dû au fait que vous avez joint plusieurs DataFrame ensemble, et que certains de ces DataFrames sont identiques.

Cette colonne pointe vers l’un des DataFrames, mais Spark est incapable de déterminer lequel.

Affectez des alias aux DataFrames avec différents noms par le biais de DataFrame.alias avant de les joindre,

et spécifiez la colonne à l’aide du nom qualifié, par exemple df.alias("a").join(df.alias("b"), col("a.id") > col("b.id")).

AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Référence ambiguë à une contrainte <constraint>.

AMBIGUOUS_LATERAL_COLUMN_ALIAS

SQLSTATE : 42702

L’alias de colonne latérale <name> est ambigu et a <n> correspondances.

AMBIGUOUS_REFERENCE

SQLSTATE : 42704

La référence <name> est ambiguë, elle peut être : <referenceNames>.

AMBIGUOUS_REFERENCE_TO_FIELDS

SQLSTATE : 42000

Génère une référence au champ <field>. Elle apparaît <count> fois dans le schéma.

ANALYZE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE: 0A000

ANALYZE CONSTRAINTS n’est pas pris en charge.

ANSI_CONFIG_CANNOT_BE_DISABLED

SQLSTATE : 56038

La configuration <config> ANSI SQL ne peut pas être désactivée dans ce produit.

AQE_THREAD_INTERRUPTED

SQLSTATE: HY008

Le thread AQE est interrompu, probablement en raison de l’annulation de requête par l’utilisateur.

ARGUMENT_NOT_CONSTANT

SQLSTATE : 42K08

La fonction <functionName> inclut un paramètre <parameterName> à la position <pos> qui nécessite un argument constant. Calculez l’argument <sqlExpr> séparément et transmettez le résultat sous forme de constante.

ARITHMETIC_OVERFLOW

SQLSTATE : 22003

<message>.<alternative>Si nécessaire, définissez <config> sur « faux » pour contourner cette erreur.

Pour plus d’informations, voir ARITHMETIC_OVERFLOW

ASSIGNMENT_ARITY_MISMATCH

SQLSTATE : 42802

Nombre de colonnes ou de variables affectées ou aliasées : <numTarget> ne correspond pas au nombre d’expressions sources : <numExpr>.

AS_OF_JOIN

SQLSTATE : 42604

En tant que jointure non valide.

Pour plus d’informations, consultez AS_OF_JOIN

AVRO_DEFAULT_VALUES_UNSUPPORTED

SQLSTATE: 0A000

L’utilisation des valeurs par défaut n’est pas prise en charge lorsque rescuedDataColumn est activé. Vous pouvez peut-être supprimer cette vérification en définissant spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue sur false, mais les valeurs par défaut ne s’appliqueront pas et les valeurs Null seront toujours utilisées.

AVRO_INCOMPATIBLE_READ_TYPE

SQLSTATE : 22KD3

Impossible de convertir Avro <avroPath> en SQL <sqlPath>, car le type de données encodé d’origine est <avroType>, mais vous essayez de lire le champ en tant que <sqlType>, ce qui entraînerait une réponse incorrecte.

Pour autoriser la lecture de ce champ, activez la configuration SQL : “spark.sql.legacy.avro.allowIncompatibleSchema”.

AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED

SQLSTATE: 0A000

L’utilisation de la correspondance de champ positionnelle n’est pas prise en charge lorsque rescuedDataColumn ou failOnUnknownFields sont activés. Désactivez ces options pour continuer.

BATCH_METADATA_NOT_FOUND

SQLSTATE : 42K03

Impossible de trouver le lot <batchMetadataFile>.

BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE

SQLSTATE : 42616

Les informations d’identification de connexion BigQuery doivent être spécifiées avec le paramètre « GoogleServiceAccountKeyJson » ou les paramètres « projectId », « OAuthServiceAcctEmail » , « OAuthPvtKey » ensemble

BINARY_ARITHMETIC_OVERFLOW

SQLSTATE : 22003

<value1> <symbol> <value2> a provoqué un dépassement de capacité.

BOOLEAN_STATEMENT_WITH_EMPTY_ROW

SQLSTATE : 21000

L’instruction <invalidStatement> booléenne n’est pas valide. Ligne unique attendue avec une valeur du BOOLEAN type, mais a obtenu une ligne vide.

BUILT_IN_CATALOG

SQLSTATE : 42832

<operation> ne prend pas en charge les catalogues intégrés.

CALL_ON_STREAMING_DATASET_UNSUPPORTED

SQLSTATE: 42KDE

La méthode <methodName> ne peut pas être appelée sur le jeu de données/dataframe de streaming.

CANNOT_ALTER_COLLATION_BUCKET_COLUMN

SQLSTATE : 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN ne peut pas modifier le classement de type/les sous-types de colonnes de compartiment, mais a trouvé la colonne de compartiment <columnName> dans la table <tableName>.

CANNOT_ALTER_PARTITION_COLUMN

SQLSTATE : 428FR

ALTER TABLE (ALTER|CHANGE) COLUMN n’est pas pris en charge pour les colonnes de partition, mais a trouvé la colonne de partition <columnName> dans la table <tableName>.

CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK

SQLSTATE : 42611

Le filigrane doit être défini pour réattribuer la colonne de temps d’événement. Échec de la recherche de définition de filigrane dans la requête de diffusion en continu.

CANNOT_CAST_DATATYPE

SQLSTATE : 42846

Impossible de lancer <sourceType> sur <targetType>.

CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE

SQLSTATE : 42846

Impossible de convertir Protobuf <protobufColumn> en SQL <sqlColumn> car le schéma est incompatible (protobufType = <protobufType> , sqlType = <sqlType>).

CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE

SQLSTATE : 42846

Impossible de convertir <protobufType>de Protobuf en <toType> type SQL.

CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE

SQLSTATE : 42846

Impossible de convertir SQL <sqlColumn> en Protobuf <protobufColumn>, car le schéma est incompatible (protobufType = <protobufType>, sqlType = <sqlType>).

CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE

SQLSTATE : 42846

Impossible de convertir SQL <sqlColumn> en Protobuf <protobufColumn>, car <data> n’est pas dans les valeurs définies pour enum : <enumString>.

CANNOT_COPY_STATE

SQLSTATE : 0AKD0

Impossible de copier l’état du catalogue (comme la base de données actuelle ou les vues temporaires) de Unity Catalog vers un catalogue hérité.

CANNOT_CREATE_DATA_SOURCE_TABLE

SQLSTATE: 42KDE

Échec de la création de la table de source de données <tableName> :

Pour plus d’informations, consultez CANNOT_CREATE_DATA_SOURCE_TABLE.

CANNOT_DECODE_URL

SQLSTATE : 22546

L’URL fournie ne peut pas être décodée : <url>. Vérifiez que l’URL est correctement mise en forme, puis réessayez.

CANNOT_DELETE_SYSTEM_OWNED

SQLSTATE : 42832

Le système <resourceType> ne peut pas être supprimé car il a un propriétaire.

CANNOT_DROP_AMBIGUOUS_CONSTRAINT

SQLSTATE: 42K0C

Impossible de supprimer la contrainte portant le nom <constraintName> partagé par une contrainte CHECK

et une contrainte PRIMARY KEY ou FOREIGN KEY. Vous pouvez supprimer la contrainte PRIMARY KEY ou

FOREIGN KEY par des requêtes :

  • ALTER TABLE .. DROP PRIMARY KEY ou
  • ALTER TABLE .. DROP FOREIGN KEY ..

CANNOT_ESTABLISH_CONNECTION

SQLSTATE: 08001

Impossible d’établir la connexion à la base de données distante <jdbcDialectName>. Veuillez vérifier les informations de connexion et les références, par exemple l'hôte, le port, l'utilisateur, le mot de passe et les options de la base de données. ** Si vous pensez que les informations sont correctes, veuillez vérifier la configuration réseau de votre espace de travail et assurez-vous qu’elle n’ait pas de restrictions de trafic sortant vers l’hôte. Veuillez également case activée que l’hôte ne bloque pas les connexions entrantes à partir du réseau où les clusters Spark de l’espace de travail sont déployés. ** Messages d’erreur détaillés : <causeErrorMessage>.

CANNOT_ESTABLISH_CONNECTION_SERVERLESS

SQLSTATE: 08001

Impossible d’établir la connexion à la base de données distante <jdbcDialectName>. Veuillez vérifier les informations de connexion et les références, par exemple l'hôte, le port, l'utilisateur, le mot de passe et les options de la base de données. ** Si vous pensez que les informations sont correctes, autorisez le trafic entrant d’Internet vers votre hôte, car vous utilisez le calcul serverless. Si vos stratégies réseau n’autorisent pas le trafic Internet entrant, utilisez le calcul non serverless, ou vous pouvez contacter votre représentant Databricks pour en savoir plus sur la mise en réseau privée serverless. ** Messages d’erreur détaillés : <causeErrorMessage>.

CANNOT_INVOKE_IN_TRANSFORMATIONS

SQLSTATE: 0A000

Les transformations et actions de jeu de données ne peuvent être appelées que par le pilote, pas à l’intérieur d’autres transformations de jeu de données ; par exemple, dataset1.map(x => dataset2.values.count() * x) n’est pas valide, car l’action de transformation et de comptage des valeurs ne peut pas être effectuée à l’intérieur de la transformation dataset1.map. Pour plus d’informations, voir SPARK-28702.

CANNOT_LOAD_FUNCTION_CLASS

SQLSTATE : 46103

Impossible de charger la classe <className> lors de l’inscription de la fonction <functionName>, vérifiez qu’elle se trouve sur le chemin d'accès.

CANNOT_LOAD_PROTOBUF_CLASS

SQLSTATE : 42K03

Impossible de charger la classe Protobuf avec le nom <protobufClassName>. <explanation>.

CANNOT_LOAD_STATE_STORE

SQLSTATE : 58030

Une erreur s’est produite pendant l’état de chargement.

Pour plus d’informations, voir CANNOT_LOAD_STATE_STORE

CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE

SQLSTATE : 42825

Échec de la fusion des types de données incompatibles <left> et <right>. Veuillez vérifier les types de données des colonnes fusionnées et assurez-vous qu’ils sont compatibles. Si nécessaire, envisagez de convertir les colonnes en types de données compatibles avant de tenter la fusion.

CANNOT_MERGE_SCHEMAS

SQLSTATE : 42KD9

Échec de la fusion des schémas :

Schéma initial :

<left>

Le schéma qui ne peut pas être fusionné avec le schéma initial :

<right>.

CANNOT_MODIFY_CONFIG

SQLSTATE : 46110

Impossible de modifier la valeur de la configuration Spark :<key>.

Voir aussi https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements’.

CANNOT_PARSE_DECIMAL

SQLSTATE : 22018

Impossible d'analyser la valeur décimale. Vérifiez que l’entrée est un nombre valide avec des séparateurs de virgules ou de virgules décimales facultatifs.

CANNOT_PARSE_INTERVAL

SQLSTATE : 22006

Impossible d'analyser <intervalString>. Vérifiez que la valeur fournie est dans un format valide pour définir un intervalle. Vous pouvez référencer la documentation pour connaître le format approprié. Si le problème persiste, vérifiez que la valeur d’entrée n’est pas null ou vide, puis réessayez.

CANNOT_PARSE_JSON_FIELD

SQLSTATE : 2203G

Impossible d’analyser le nom <fieldName> du champ et la valeur <fieldValue> du token JSON type <jsonType> pour cibler les données Spark de type <dataType>.

CANNOT_PARSE_PROTOBUF_DESCRIPTOR

SQLSTATE : 22018

Erreur lors de l’analyse des octets de descripteur dans Protobuf FileDescriptorSet.

CANNOT_PARSE_TIMESTAMP

SQLSTATE : 22007

<message>. Si nécessaire, définissez <ansiConfig> sur « false » pour contourner cette erreur.

CANNOT_QUERY_TABLE_DURING_INITIALIZATION

SQLSTATE : 55019

Impossible d’interroger MV/ST pendant l’initialisation.

Pour plus d’informations, consultez CANNOT_QUERY_TABLE_DURING_INITIALIZATION

CANNOT_READ_ARCHIVED_FILE

SQLSTATE : KD003

Impossible de lire le fichier au niveau du chemin d’accès <path>, car il a été archivé. Ajustez vos filtres de recherche pour exclure les fichiers archivés.

CANNOT_READ_FILE

SQLSTATE : KD003

Impossible de lire le fichier <format> au niveau du chemin d’accès : <path>.

Pour plus d’informations, voir CANNOT_READ_FILE

CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER

SQLSTATE : 42501

Impossible de lire la clé sensible «<key>» du fournisseur sécurisé.

CANNOT_RECOGNIZE_HIVE_TYPE

SQLSTATE: 429BB

Impossible de reconnaître la chaîne de type hive : <fieldType>, colonne : <fieldName>. Le type de données spécifié pour le champ ne peut pas être reconnu par Spark SQL. Veuillez vérifier le type de données du champ spécifié et assurez-vous qu’il s’agit d’un type de données Spark SQL valide. Reportez-vous à la documentation Spark SQL pour obtenir la liste des types de données valides et leur format. Si le type de données est correct, vérifiez que vous utilisez une version prise en charge de Spark SQL.

CANNOT_REFERENCE_UC_IN_HMS

SQLSTATE : 0AKD0

Impossible de référencer Unity Catalog <objType> dans les objets de Hive Metastore.

CANNOT_RENAME_ACROSS_CATALOG

SQLSTATE : 0AKD0

Le renommage de <type> dans plusieurs catalogues n’est pas autorisé.

CANNOT_RENAME_ACROSS_SCHEMA

SQLSTATE : 0AKD0

Le renommage de <type> dans plusieurs schémas n’est pas autorisé.

CANNOT_RESOLVE_DATAFRAME_COLUMN

SQLSTATE : 42704

Impossible de résoudre la colonne de DataFrame <name>. Cela est probablement dû à des références illégales comme df1.select(df2.col("a")).

CANNOT_RESOLVE_STAR_EXPAND

SQLSTATE : 42704

Impossible de résoudre <targetString>.* en fonction des colonnes d’entrée <columns>. Veuillez vérifier que la table ou le struct spécifié existe et qu’il est accessible dans les colonnes d’entrée.

CANNOT_RESTORE_PERMISSIONS_FOR_PATH

SQLSTATE : 58030

Échec de la définition des autorisations sur le chemin d’accès menant de<path> à <permission>.

CANNOT_SAVE_VARIANT

SQLSTATE: 0A000

Impossible d’enregistrer le type de données variant dans le stockage externe.

CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS

SQLSTATE : 0AKD0

Impossible de cloner des tables superficielles dans Unity Catalog et Hive Metastore.

CANNOT_SHALLOW_CLONE_NESTED

SQLSTATE : 0AKUC

Impossible de cloner de manière superficielle une table <table> qui est déjà un clone superficiel.

CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET

SQLSTATE : 0AKUC

Le clone superficiel est uniquement pris en charge pour une table de type MANAGED. La table <table> n’est pas de type MANAGED.

CANNOT_UPDATE_FIELD

SQLSTATE: 0A000

Impossible de mettre à jour <table> le type de champ <fieldName> :

Pour plus d’informations, voir CANNOT_UPDATE_FIELD

CANNOT_UP_CAST_DATATYPE

SQLSTATE : 42846

Impossible de lancer <expression> de <sourceType> vers <targetType>.

<details>

CANNOT_VALIDATE_CONNECTION

SQLSTATE : 08000

La validation de <jdbcDialectName> connexion n’est pas prise en charge. Veuillez contacter le support Databricks pour d’autres solutions ou définissez « spark.databricks.testConnectionBeforeCreation » sur « false » pour ignorer le test de connexion avant de créer un objet de connexion.

CANNOT_WRITE_STATE_STORE

SQLSTATE : 58030

Erreur lors de l’écriture de fichiers de magasin d’état pour le fournisseur <providerClass>.

Pour plus d’informations, consultez CANNOT_LOAD_STATE_STORE

CAST_INVALID_INPUT

SQLSTATE : 22018

La valeur <expression> du type <sourceType> ne peut pas être castée vers <targetType> car elle est incorrecte. Corrigez la valeur en fonction de la syntaxe, ou modifiez le type de sa cible. Utilisez try_cast pour tolérer une entrée incorrecte et retourner la valeur NULL à la place.

Pour plus d’informations, voir CAST_INVALID_INPUT

CAST_OVERFLOW

SQLSTATE : 22003

La valeur <value> de type <sourceType> ne peut pas être lancée vers <targetType> en raison d’un dépassement de capacité. Utilisez try_cast pour tolérer un dépassement de capacité et retourner la valeur NULL à la place.

CAST_OVERFLOW_IN_TABLE_INSERT

SQLSTATE : 22003

Échec de l'affectation d'une valeur de type <sourceType> à la colonne <targetType> ou à la variable de type <columnName> en raison d'un dépassement de capacité. Utilisez try_cast dans la valeur d’entrée pour tolérer le dépassement de capacité et retourner la valeur NULL à la place.

CATALOG_NOT_FOUND

SQLSTATE : 42P08

Le catalogue <catalogName> est introuvable. Envisagez de définir la configuration SQL <config> sur un plug-in de catalogue.

CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND

SQLSTATE : 56000

Bloc de point de contrôle <rddBlockId> introuvable !

Soit l’exécuteur qui a initialement réglé le point de contrôle de cette partition n’est plus actif, ou le RDD d’origine n’est pas persistent.

Si ce problème persiste, vous pouvez envisager d’utiliser rdd.checkpoint() à la place, ce qui est plus lent que le point de contrôle local, mais plus tolérant aux pannes.

CLASS_NOT_OVERRIDE_EXPECTED_METHOD

SQLSTATE : 38000

<className> doit remplacer soit <method1>, soit <method2>.

CLASS_UNSUPPORTED_BY_MAP_OBJECTS

SQLSTATE: 0A000

MapObjects ne prend pas en charge la classe <cls> comme collection résultante.

CLEANROOM_COMMANDS_NOT_SUPPORTED

SQLSTATE: 0A000

Les commandes Clean Room ne sont pas prises en charge

CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE : 42K05

Nom non valide pour référencer une <type> à l’intérieur d’une Cleam Room. Utilisez un <type>nom à l’intérieur de la salle propre en suivant le format [catalogue].[ schéma]. [<type>].

Si vous ne savez pas quel nom utiliser, vous pouvez exécuter « SHOW ALL IN CLEANROOM [clean_room] » et utiliser la valeur dans la colonne « name ».

CLOUD_FILE_SOURCE_FILE_NOT_FOUND

SQLSTATE : 42K03

Une notification a été reçue pour le fichier : <filePath> mais elle n’existe plus. Assurez-vous que les fichiers ne soient pas supprimés avant d’être traités. Pour continuer votre diffusion, vous pouvez définir la configuration <config> Spark SQL sur « vrai ».

CLOUD_PROVIDER_ERROR

SQLSTATE : 58000

Erreur du fournisseur de services cloud : <message>

CLUSTERING_COLUMNS_MISMATCH

SQLSTATE : 42P10

Le clustering spécifié ne correspond pas à celui de la table <tableName>existante.

Colonnes de clustering spécifiées : [<specifiedClusteringString>].

Colonnes de clustering existantes : [<existingClusteringString>].

CLUSTERING_NOT_SUPPORTED

SQLSTATE : 42000

« <operation> » ne prend pas en charge le clustering.

CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED

SQLSTATE: 0A000

Contactez votre représentant Databricks pour activer la fonctionnalité cluster-by-auto.

CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED

SQLSTATE : 56038

Activez clusteringTable.enableClusteringTableFeature pour utiliser CLUSTER BY AUTO.

CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION

SQLSTATE : 56038

CLUSTER BY AUTO nécessite l’activation de l’optimisation prédictive.

CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR

SQLSTATE : 56038

CLUSTER BY AUTO est uniquement pris en charge sur les tables managées UC.

CODEC_NOT_AVAILABLE

SQLSTATE : 56038

Le codec <codecName> n’est pas disponible.

Pour plus d’informations, consultez CODEC_NOT_AVAILABLE

CODEC_SHORT_NAME_NOT_FOUND

SQLSTATE : 42704

Impossible de trouver un nom court pour le codec <codecName>.

COLLATION_INVALID_NAME

SQLSTATE : 42704

La valeur <collationName> ne représente pas un nom de classement correct. Noms de classement valides suggérés : [<proposals>].

COLLATION_INVALID_PROVIDER

SQLSTATE : 42704

La valeur <provider> ne représente pas un nom de classement correct. Les fournisseurs pris en charge sont : [<supportedProviders>].

COLLATION_MISMATCH

SQLSTATE : 42P21

Impossible de déterminer le classement à utiliser pour les fonctions de chaîne et les opérateurs.

Pour plus d’informations, consultez COLLATION_MISMATCH

COLLECTION_SIZE_LIMIT_EXCEEDED

SQLSTATE : 54000

Impossible de créer un tableau avec des éléments <numberOfElements> qui dépassent la limite de taille de tableau <maxRoundedArrayLength>.

Pour plus d’informations, consultez COLLECTION_SIZE_LIMIT_EXCEEDED.

COLUMN_ALIASES_NOT_ALLOWED

SQLSTATE : 42601

Les alias de colonnes ne sont pas autorisés dans <op>.

COLUMN_ALREADY_EXISTS

SQLSTATE : 42711

La colonne <columnName> existe déjà. Choisissez un autre nom ou de renommer la colonne existante.

COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

La création d’une contrainte CHECK sur une table <tableName> avec des stratégies de masque de colonne n’est pas prise en charge.

COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME

SQLSTATE : 42734

Une instruction <statementType> a tenté d’affecter une stratégie de masque de colonne à une colonne qui incluait au moins deux autres colonnes référencées dans la liste USING COLUMNS portant le même nom <columnName>, ce qui n’est pas valide.

COLUMN_MASKS_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Les stratégies de masque de colonne pour <tableName> ne sont pas prises en charge :

Pour plus d’informations, voir COLUMN_MASKS_FEATURE_NOT_SUPPORTED

COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

Impossible de <statementType> <columnName> à partir de la table <tableName>, car elle est référencée dans une stratégie de masque de colonne pour la colonne <maskedColumn>. Le propriétaire de la table doit supprimer ou modifier cette stratégie avant de continuer.

COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

Les opérations MERGE INTO ne prennent pas en charge les stratégies de masque de colonne dans le tableau de source de données <tableName>.

COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

Les opérations MERGE INTO ne prennent pas en charge l’écriture dans un tableau <tableName> avec des stratégies de masque de colonne.

COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME

SQLSTATE : 42K05

Cette instruction a tenté d’affecter une stratégie de masque de colonne à une colonne <columnName> avec plusieurs parties de nom, ce qui n’est pas valide.

COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME

SQLSTATE : 42K05

Cette instruction a tenté d’affecter une stratégie de masque de colonne à une colonne, alors que la liste USING COLUMNS incluait le nom <columnName> avec plusieurs parties de nom, ce qui n’est pas valide.

COLUMN_MASKS_NOT_ENABLED

SQLSTATE : 56038

La prise en charge de la définition de masques de colonne n’est pas activée

COLUMN_MASKS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Les stratégies de masque de colonne sont uniquement prises en charge dans Unity Catalog.

COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> Le clonage à partir d’une table <tableName> avec des stratégies de masque de colonne n’est pas pris en charge.

COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

<mode> Cloner dans une table <tableName> avec des stratégies de masque de colonne n’est pas pris en charge.

COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE : 0AKD1

L’utilisation d’une constante en tant que paramètre dans une stratégie de masque de colonne n’est pas prise en charge. Mettez à jour votre commande SQL pour supprimer la constante de la définition du masque de colonne, puis réessayez la commande.

COLUMN_MASKS_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Échec de l’exécution de la commande <statementType>, car l’affectation de stratégies de masques de colonne n’est pas prise en charge pour la source de données cible avec le fournisseur de table : « <provider> ».

COLUMN_MASKS_UNSUPPORTED_SUBQUERY

SQLSTATE: 0A000

Impossible d’effectuer des opérations <operation> pour le tableau <tableName>, car il contient une ou plusieurs stratégies de masque de colonne avec un ou des expression(s) de sous-requête imbriquée qui ne sont pas encore prises en charge. Pour continuer, contactez le propriétaire du tableau pour mettre à jour les stratégies de masque de colonne.

COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN

SQLSTATE : 42734

La colonne <columnName> portait le même nom que la colonne cible, ce qui n’est pas valide. Supprimez la colonne de la liste USING COLUMNS, puis réexécutez la commande.

COLUMN_NOT_DEFINED_IN_TABLE

SQLSTATE : 42703

<colType> La colonne <colName> n’est pas définie dans le tableau <tableName>, les colonnes de tableau définies sont les suivantes : <tableCols>.

COLUMN_NOT_FOUND

SQLSTATE : 42703

La colonne <colName> est introuvable. Vérifiez l’orthographe et l’exactitude du nom de colonne en fonction de la configuration SQL <caseSensitiveConfig>.

COMMA_PRECEDING_CONSTRAINT_ERROR

SQLSTATE : 42601

',' inattendu avant la définition de ou des contraintes. Vérifiez que la clause de contrainte ne commence pas par une virgule lorsque les colonnes (et les attentes) ne sont pas définies.

COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET

SQLSTATE : 42000

La commande COMMENT ON CONNECTION n’est pas encore implémentée

COMPARATOR_RETURNS_NULL

SQLSTATE : 22004

Le comparateur a retourné une valeur NULL pour une comparaison entre <firstValue> et <secondValue>.

Il doit retourner un entier positif pour « supérieur à », 0 pour « égal » et un entier négatif pour « inférieur à ».

Pour revenir au fonctionnement ancien où NULL est traité comme 0 (égal), vous devez définir « spark.sql.legacy.allowNullComparisonResultInArraySort » sur « vrai ».

COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

SQLSTATE : 42K09

Impossible de traiter les types de données d’entrée pour l’expression : <expression>.

Pour plus d’informations, consultez COMPLEX_EXPRESSION_UNSUPPORTED_INPUT

CONCURRENT_QUERY

SQLSTATE: 0A000

Une autre instance de cette requête [id : <queryId>] vient d’être démarrée par une session simultanée [runId existant : <existingQueryRunId> nouvel runId : <newQueryRunId>].

CONCURRENT_STREAM_LOG_UPDATE

SQLSTATE : 40000

Mise à jour simultanée du journal. Plusieurs travaux de diffusion en continu détectés pour <batchId>.

Assurez-vous qu’un seul travail de diffusion en continu s’exécute sur un emplacement de point de contrôle spécifique à la fois.

CONFIG_NOT_AVAILABLE

SQLSTATE : 42K0I

La configuration <config> n’est pas disponible.

CONFLICTING_PARTITION_COLUMN_NAMES

SQLSTATE : KD009

Détection des noms de colonnes de partition en conflit :

<distinctPartColLists>

Pour les répertoires de tables partitionnés, les fichiers de données doivent uniquement se trouver dans des répertoires feuilles.

Et les répertoires au même niveau doivent avoir le même nom de colonne de partition.

Vérifiez les répertoires suivants pour rechercher des fichiers inattendus ou des noms de colonnes de partition incohérents :

<suspiciousPaths>

CONFLICTING_PROVIDER

SQLSTATE : 22023

Le fournisseur <provider> spécifié est incohérent avec le fournisseur <expectedProvider> de catalogue existant. Utilisez « USING <expectedProvider>» et réessayez la commande.

CONNECT

SQLSTATE: 56K00

Erreur Spark Connect générique.

Pour plus d’informations, voir CONNECTER

CONNECTION_ALREADY_EXISTS

SQLSTATE : 42000

Impossible de créer la connexion <connectionName> parce qu'elle existe déjà.

Choisissez un autre nom, supprimez ou remplacez la connexion existante, ou ajoutez la clause IF NOT EXISTS pour tolérer les connexions préexistantes.

CONNECTION_NAME_CANNOT_BE_EMPTY

SQLSTATE : 42000

Impossible d’exécuter cette commande, car le champ « nom de connexion » ne doit pas être vide.

CONNECTION_NOT_FOUND

SQLSTATE : 42000

Impossible d’exécuter cette commande, car le nom de connexion <connectionName> n’a pas été trouvé.

CONNECTION_OPTION_NOT_SUPPORTED

SQLSTATE : 42000

Les connexions de type '<connectionType>' ne prennent pas en charge la ou les options suivantes : <optionsNotSupported>. Options prises en charge : <allowedOptions>.

CONNECTION_TYPE_NOT_SUPPORTED

SQLSTATE : 42000

Impossible de créer une connexion de type '<connectionType>. Types de connexion pris en charge : <allowedTypes>.

CONSTRAINTS_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Les contraintes de table ne sont prises en charge que dans Unity Catalog.

CONVERSION_INVALID_INPUT

SQLSTATE : 22018

La valeur <str> (<fmt>) ne peut pas être convertie en <targetType> car elle est incorrecte. Corrigez la valeur en fonction de la syntaxe, ou modifiez le format. Utilisez <suggestion> pour tolérer une entrée incorrecte et retourner la valeur NULL à la place.

COPY_INTO_COLUMN_ARITY_MISMATCH

SQLSTATE : 21S01

Impossible d’écrire dans <tableName>, la raison est

Pour plus d’informations, consultez COPY_INTO_COLUMN_ARITY_MISMATCH

COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON

SQLSTATE: 0A000

Schéma non valide <scheme>. Les informations de connexion de la source de COPY INTO ne prennent actuellement en charge que s3/s3n/s3a/wasbs/abfss.

COPY_INTO_CREDENTIALS_REQUIRED

SQLSTATE : 42601

Les informations d’identification de la source de l’opération COPY INTO doivent spécifier <keyList>.

COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED

SQLSTATE : 25000

Des fichiers en double ont été commités dans une opération COPY INTO concurrente. Veuillez réessayer plus tard.

COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON

SQLSTATE: 0A000

Schéma non valide <scheme>. Le chiffrement de la source de COPY INTO ne prend actuellement en charge que s3/s3n/s3a/abfss.

COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE

SQLSTATE: 0A000

Le chiffrement de COPY INTO prend uniquement en charge le schéma de fichiers ADLS Gen2 ou abfss://

COPY_INTO_ENCRYPTION_REQUIRED

SQLSTATE : 42601

Le chiffrement de la source de COPY INTO doit spécifier « <key> ».

COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED

SQLSTATE : 42601

Option de chiffrement <requiredKey> non valide. Le chiffrement de la source de COPY INTO doit spécifier « <requiredKey> » = « <keyValue> ».

COPY_INTO_FEATURE_INCOMPATIBLE_SETTING

SQLSTATE : 42613

La fonctionnalité COPY INTO « <feature> » n’est pas compatible avec « <incompatibleSetting> ».

COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED

SQLSTATE : 25000

Une opération COPY INTO qui vise autre chose que l’ajout de données n’est pas autorisée à s’exécuter simultanément avec d’autres transactions. Veuillez réessayer plus tard.

COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED

SQLSTATE : 25000

COPY INTO n’a pas pu charger son état, nombre maximal de nouvelles tentatives dépassé.

COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE

SQLSTATE: 42KDG

Une incompatibilité de schéma a été détectée lors de la copie dans la table Delta (Table : <table>).

Cela peut indiquer un problème avec les données entrantes, ou le schéma de table Delta peut être évolué automatiquement en fonction des données entrantes en définissant :

COPY_OPTIONS (‘mergeSchema’ = ‘true’)

Différence de schéma :

<schemaDiff>

COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED

SQLSTATE: 0A000

Le format des fichiers sources doit être de l’un des types CSV, JSON, AVRO, ORC, PARQUET, TEXT ou BINARYFILE. L’utilisation de COPY INTO sur des tables Delta comme source n’est pas prise en charge, car des données en double peuvent être ingérées après des opérations OPTIMIZE. Cette vérification peut être désactivée en exécutant la commande SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false.

COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED

SQLSTATE : 42KD9

Le répertoire source ne contenait aucun fichier analysable de type <format>. Veuillez vérifier le contenu de « <source> ».

L’erreur peut être rendue silencieuse en définissant « <config> » sur « false ».

COPY_INTO_STATE_INTERNAL_ERROR

SQLSTATE : 55019

Une erreur interne s’est produite lors du traitement de l’état COPY INTO.

Pour plus d’informations, consultez COPY_INTO_STATE_INTERNAL_ERROR

COPY_INTO_SYNTAX_ERROR

SQLSTATE : 42601

Échec d’analyse de la commande COPY INTO.

Pour plus d’informations, consultez COPY_INTO_SYNTAX_ERROR.

COPY_INTO_UNSUPPORTED_FEATURE

SQLSTATE: 0A000

La fonctionnalité COPY INTO « <feature> » n’est pas prise en charge.

COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED

SQLSTATE : 42000

Impossible de décharger les données au format «<formatType> ». Les formats pris en charge sont <connectionType> les suivants : <allowedFormats>.

CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET

SQLSTATE : 42000

La commande CREATE FOREIGN SCHEMA n’est pas encore implémentée

CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET

SQLSTATE : 42000

La commande CREATE FOREIGN TABLE n’est pas encore implémentée

CREATE_OR_REFRESH_MV_ST_ASYNC

SQLSTATE: 0A000

Impossible de CRÉER OU ACTUALISER des vues matérialisées ou des tables de diffusion en continu avec ASYNC spécifié. Supprimez ASYNC de l’instruction CREATE OR REFRESH ou utilisez REFRESH ASYNC pour actualiser les vues matérialisées existantes ou les tables de streaming de manière asynchrone.

CREATE_PERMANENT_VIEW_WITHOUT_ALIAS

SQLSTATE: 0A000

Impossible de créer l’affichage <name> permanent sans affecter explicitement d’alias pour l’expression <attr>.

CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE

SQLSTATE : 42710

La colonne <columnName> CREATE TABLE spécifie le descripteur « <optionName> » plus d'une fois, ce qui n'est pas valide.

CREATE_VIEW_COLUMN_ARITY_MISMATCH

SQLSTATE : 21S01

Impossible de créer la vue <viewName>, la raison est

Pour plus de détails, consultez CREATE_VIEW_COLUMN_ARITY_MISMATCH

CREDENTIAL_MISSING

SQLSTATE : 42601

Fournissez des informations d’identification lors de la création ou de la mise à jour d’emplacements externes.

CSV_ENFORCE_SCHEMA_NOT_SUPPORTED

SQLSTATE: 0A000

L’option CSV enforceSchema ne peut pas être définie lors de l’utilisation de rescuedDataColumn ou de failOnUnknownFields, car les colonnes sont lues par nom plutôt que par ordinal.

CYCLIC_FUNCTION_REFERENCE

SQLSTATE : 42887

Référence de fonction cyclique détectée : <path>.

DATABRICKS_DELTA_NOT_ENABLED

SQLSTATE : 56038

Databricks Delta n’est pas activé dans votre compte. <hints>

DATATYPE_MISMATCH

SQLSTATE : 42K09

Impossible de résoudre <sqlExpr> en raison d’une incompatibilité du type de données :

Pour plus d’informations, voirDATATYPE_MISMATCH

DATATYPE_MISSING_SIZE

SQLSTATE: 42K01

DataType <type> nécessite un paramètre de longueur, comme par exemple <type> (10). Spécifiez la longueur.

DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION

SQLSTATE : 25000

Échec de la traçabilité d’écriture : relation correspondante manquante avec les stratégies pour CLM/RLS.

DATA_SOURCE_ALREADY_EXISTS

SQLSTATE : 42710

La source de données « <provider> » existe déjà. Choisissez un autre nom pour la nouvelle source de données.

DATA_SOURCE_EXTERNAL_ERROR

SQLSTATE : KD010

Erreur rencontrée lors de l’enregistrement dans une source de données externe.

DATA_SOURCE_NOT_EXIST

SQLSTATE : 42704

La source de données « <provider> » est introuvable. Vérifiez que la source de données est inscrite.

DATA_SOURCE_NOT_FOUND

SQLSTATE : 42K02

Échec de la recherche de la source de données : <provider>. Vérifiez que le nom du fournisseur est correct et que le package est correctement inscrit et compatible avec votre version Spark.

DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS

SQLSTATE : 42602

L’option <option> ne doit pas être vide et ne doit pas contenir de caractères, de chaînes de requête ou de paramètres invalides.

DATA_SOURCE_OPTION_IS_REQUIRED

SQLSTATE : 42601

L’option <option> est obligatoire.

DATA_SOURCE_TABLE_SCHEMA_MISMATCH

SQLSTATE : 42K03

Le schéma de la table de source de données ne correspond pas au schéma attendu. Si vous utilisez l’API DataFrameReader.schema ou que vous créez une table, évitez de spécifier le schéma.

Schéma de source de données : <dsSchema>

Schéma attendu : <expectedSchema>

DATA_SOURCE_URL_NOT_ALLOWED

SQLSTATE : 42KDB

L’URL JDBC n’est pas autorisée dans les options de source de données. Spécifiez plutôt les options « hôte », « port » et « base de données ».

DATETIME_OVERFLOW

SQLSTATE : 22008

Dépassement de capacité de l’opération Datetime : <operation>.

DC_API_QUOTA_EXCEEDED

SQLSTATE : KD000

Vous avez dépassé le quota d’API pour la source de données <sourceName>.

Pour plus d’informations, consultez DC_API_QUOTA_EXCEEDED

DC_CONNECTION_ERROR

SQLSTATE : KD000

Échec de connexion à la source <sourceName>. Code d’erreur : <errorCode>.

Pour plus d’informations, consultez DC_CONNECTION_ERROR

DC_DYNAMICS_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels d’API Dynamics, errorCode : <errorCode>.

Pour plus d’informations, consultez DC_DYNAMICS_API_ERROR

DC_NETSUITE_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels JDBC Netsuite, errorCode : <errorCode>.

Pour plus d’informations, consultez DC_NETSUITE_ERROR

DC_SCHEMA_CHANGE_ERROR

SQLSTATE : aucune attribution

Une modification de schéma s’est produite dans la table <tableName> de la source <sourceName>.

Pour plus d’informations, consultez DC_SCHEMA_CHANGE_ERROR

DC_SERVICENOW_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels d’API ServiceNow, errorCode : <errorCode>.

Pour plus d’informations, consultez DC_SERVICENOW_API_ERROR

DC_SFDC_BULK_QUERY_JOB_INCOMPLETE

SQLSTATE : KD000

L’ingestion de l’objet <objName> est incomplète, car le travail de requête de l’API Salesforce a pris trop de temps, a échoué ou a été annulé manuellement.

Pour réessayer, vous pouvez réexécuter l’intégralité du pipeline ou actualiser cette table de destination spécifique. Si l’erreur persiste, ouvrez un ticket. ID de travail : <jobId>. État du travail : <jobStatus>.

DC_SHAREPOINT_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels d’API Sharepoint, errorCode : <errorCode>.

Pour plus d’informations, consultez DC_SHAREPOINT_API_ERROR

DC_SOURCE_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans l’appel d’API <sourceName>. Type d’API source : <apiType>. Code d’erreur : <errorCode>.

Cela peut parfois se produire lorsque vous avez atteint une limite d’API <sourceName>. Si vous n’avez pas dépassé votre limite d’API, essayez de réexécuter le connecteur. Si le problème persiste, veuillez ouvrir un ticket.

DC_UNSUPPORTED_ERROR

SQLSTATE: 0A000

Une erreur non prise en charge s’est produite dans la source de données <sourceName>.

Pour plus d’informations, consultez DC_UNSUPPORTED_ERROR.

DC_WORKDAY_RAAS_API_ERROR

SQLSTATE : KD000

Une erreur s’est produite dans les appels d’API RAAS Workday, errorCode : <errorCode>.

Pour plus d’informations, consultez DC_WORKDAY_RAAS_API_ERROR

DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION

SQLSTATE : 22003

La précision décimale <precision> dépasse la précision maximale <maxPrecision>.

DEFAULT_DATABASE_NOT_EXISTS

SQLSTATE : 42704

La base de données <defaultDatabase> par défaut n’existe pas. Créez-la en premier ou remplacez la base de données par défaut par <defaultDatabase>.

DEFAULT_FILE_NOT_FOUND

SQLSTATE : 42K03

Il est possible que les fichiers sous-jacents aient été mis à jour . Vous pouvez invalider explicitement le cache dans Spark en exécutant la commande « REFRESH TABLE tableName » dans SQL ou en recréant les DataSet/DataFrame impliqués. Si le cache du disque est obsolète ou si les fichiers sous-jacents ont été supprimés, vous pouvez invalider le cache du disque manuellement en redémarrant le cluster.

DEFAULT_PLACEMENT_INVALID

SQLSTATE : 42608

Une mot clé DEFAULT dans une commande MERGE, INSERT, UPDATE ou SET VARIABLE n’a pas pu être affectée directement à une colonne cible, car elle faisait partie d’une expression.

Par exemple : UPDATE SET c1 = DEFAULT est autorisé, mais UPDATE T SET c1 = DEFAULT + 1 n’est pas autorisé.

DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE

SQLSTATE : 55019

La requête de streaming était lisant à partir d’une table Delta inattendue (id = '<newTableId>').

Il était utilisé pour lire à partir d’une autre table Delta (id = '<oldTableId>') en fonction du point de contrôle.

Cela peut se produire lorsque vous avez modifié le code pour lire à partir d’une nouvelle table ou que vous avez supprimé et

recréé une table. Annulez votre modification ou supprimez votre point de contrôle de requête de streaming

pour recommencer à partir de zéro.

DISTINCT_WINDOW_FUNCTION_UNSUPPORTED

SQLSTATE: 0A000

Les fonctions de fenêtre distinctes ne sont pas prises en charge : <windowExpr>.

DIVIDE_BY_ZERO

SQLSTATE : 22012

Division par zéro Utilisez try_divide pour tolérer le diviseur 0 et retourner la valeur NULL à la place. Si nécessaire, définissez <config> sur « false » pour contourner cette erreur.

Pour plus d’informations, voirDIVIDE_BY_ZERO

DLT_EXPECTATIONS_NOT_SUPPORTED

SQLSTATE : 56038

Les attentes sont uniquement prises en charge dans un pipeline Delta Live Tables.

DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED

SQLSTATE : 56038

Les vues MATERIALIZED VIEWs avec un CLUSTER PAR clause sont uniquement prises en charge dans un pipeline Delta Live Tables.

DLT_VIEW_LOCATION_NOT_SUPPORTED

SQLSTATE : 56038

Les emplacements MATERIALIZED VIEW sont uniquement pris en charge dans un pipeline Delta Live Tables.

DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED

SQLSTATE : 56038

Les schémas MATERIALIZED VIEW avec un type spécifié sont uniquement pris en charge dans un pipeline Delta Live Tables.

DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED

SQLSTATE : 56038

Les clauses CONSTRAINT d’une vue ne sont prises en charge que dans un pipeline Delta Live Tables.

DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT

SQLSTATE: 42713

Les noms de champs dupliqués dans Arrow Struct ne sont pas autorisés, obtenu <fieldNames>.

DUPLICATED_MAP_KEY

SQLSTATE : 23505

Un doublon de la clé de carte <key> a été trouvé. Veuillez vérifier les données d'entrée.

Si vous souhaitez supprimer les clés dupliquées, vous pouvez définir <mapKeyDedupPolicy> sur « LAST_WIN » afin que la dernière clé insérée soit prioritaire.

DUPLICATED_METRICS_NAME

SQLSTATE : 42710

Le nom de la métrique n’est pas unique : <metricName>. Le même nom ne peut pas être utilisé pour les métriques avec des résultats différents.

Toutefois, plusieurs instances de métriques avec le même résultat et le même nom sont autorisées (par exemple, les jointures autonomes).

DUPLICATE_ASSIGNMENTS

SQLSTATE : 42701

Les colonnes ou variables <nameList> apparaissent plusieurs fois en tant que cibles d’affectation.

DUPLICATE_CLAUSES

SQLSTATE : 42614

Clauses en double trouvées : <clauseName>. Veuillez en supprimer l’une d’entre elles.

DUPLICATE_KEY

SQLSTATE : 23505

Doublons de clés <keyColumn> trouvés.

DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

SQLSTATE : 4274K

L’appel à la routine <functionName> n’est pas valide, car il inclut plusieurs affectations d’arguments au même nom de paramètre <parameterName>.

Pour plus de détails, voir DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT

DUPLICATE_ROUTINE_PARAMETER_NAMES

SQLSTATE : 42734

Le ou les noms en double ont été trouvés dans la liste des paramètres de la routine <routineName>définie par l’utilisateur : <names>.

DUPLICATE_ROUTINE_RETURNS_COLUMNS

SQLSTATE : 42711

La ou les colonnes en double ont été trouvées dans la liste des colonnes de clause RETURNS de la routine <routineName>définie par l’utilisateur : <columns>.

EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED

SQLSTATE: 42815

Le nœud précédent a émis une ligne avec eventTime=<emittedRowEventTime> antérieure à current_watermark_value=<currentWatermark>

Cela peut entraîner des problèmes d’exactitude dans les opérateurs avec état en aval dans le pipeline d’exécution.

Corrigez la logique des opérateurs pour émettre des lignes après la valeur globale actuelle du filigrane.

EMPTY_JSON_FIELD_VALUE

SQLSTATE : 42604

Échec de l’analyse d’une chaîne vide pour le type de données <dataType>.

EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY

SQLSTATE : 22023

Fichier local vide dans la requête <operation> intermédiaire

ENCODER_NOT_FOUND

SQLSTATE : 42704

Aucun encodeur de type <typeName> n’a été trouvé dans la représentation interne Spark SQL.

Pensez à remplacer le type d’entrée par un pris en charge sous <docroot>/sql-ref-datatypes.html.

END_LABEL_WITHOUT_BEGIN_LABEL

SQLSTATE : 42K0L

L’étiquette <endLabel> de fin ne peut pas exister sans étiquette de début.

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW

SQLSTATE : KD000

Certaines partitions dans le ou les rubriques Kafka indiquent un décalage disponible qui est inférieur au décalage de fin pendant l’exécution de la requête avec Trigger.AvailableNow. L’erreur peut être temporaire : redémarrez votre requête et effectuez un signalement si vous voyez toujours le même problème.

dernier décalage : <latestOffset>, décalage de fin : <endOffset>

END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED

SQLSTATE : KD000

Pour la source de données Kafka avec Trigger.AvailableNow, le décalage de fin doit avoir un décalage inférieur ou égal à chaque partition de rubrique par rapport au décalage pré-extrait. L’erreur peut être temporaire : redémarrez votre requête et effectuez un signalement si vous voyez toujours le même problème.

décalage pré-extrait : <prefetchedOffset>, décalage de fin : <endOffset>.

ERROR_READING_AVRO_UNKNOWN_FINGERPRINT

SQLSTATE : KD00B

Erreur lors de la lecture des données avro : une empreinte digitale inconnue a été rencontrée : <fingerprint>, vous ne savez pas quel schéma utiliser.

Cela peut se produire si vous avez inscrit des schémas supplémentaires après le démarrage de votre contexte Spark.

EVENT_LOG_REQUIRES_SHARED_COMPUTE

SQLSTATE : 42601

Impossible d’interroger les journaux d’événements à partir d’un cluster affecté ou sans isolation partagé. Utilisez plutôt un cluster partagé ou un entrepôt Databricks SQL.

EVENT_LOG_UNAVAILABLE

SQLSTATE : 55019

Aucun journal d’événements n’est disponible pour <tableOrPipeline>. Réessayez ultérieurement après la génération d’événements

EVENT_LOG_UNSUPPORTED_TABLE_TYPE

SQLSTATE : 42832

Le type de table de <tableIdentifier> est <tableType>.

L’interrogation des journaux d’événements prend uniquement en charge les vues matérialisées, les tables de diffusion en continu ou les pipelines Delta Live Tables

EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE

SQLSTATE : 42K09

Le temps d’évènement <eventName> possède un type invalide <eventType>, mais attendu “TIMESTAMP”.

EXCEED_LIMIT_LENGTH

SQLSTATE : 54006

Dépasse la limite de longueur du type char/varchar : <limit>.

EXCEPT_NESTED_COLUMN_INVALID_TYPE

SQLSTATE: 428H2

La colonne EXCEPT <columnName> a été résolue et aurait dû être StructType, mais le type trouvé est <dataType>.

EXCEPT_OVERLAPPING_COLUMNS

SQLSTATE : 42702

Les colonnes d’une liste EXCEPT doivent être distinctes et ne pas se chevaucher, mais (<columns>) a été reçu.

EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH

SQLSTATE : 42703

Les colonnes EXCEPT [<exceptColumns>] ont été résolues, mais ne correspondent à aucune des colonnes [<expandedColumns>] de l’extension en étoile.

EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION

SQLSTATE : 42703

Le nom de colonne/champ <objectName> dans la clause EXCEPT ne peut pas être résolu. Vouliez-vous utiliser ceci : [<objectList>] ?

Remarque : Les colonnes imbriquées dans la clause EXCEPT peuvent ne pas inclure de qualificateurs (nom de table, nom de colonne de struct parent, etc.) pendant une expansion de struct. Essayez de supprimer des qualificateurs s’ils sont utilisés avec des colonnes imbriquées.

EXECUTOR_BROADCAST_JOIN_OOM

SQLSTATE : 53200

La mémoire est insuffisante pour créer la relation diffusée <relationClassName>. Taille de relation = <relationSize>. Mémoire totale utilisée par cette tâche = <taskMemoryUsage>. Métriques du gestionnaire de mémoire exécuteur : onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>. [sparkPlanId : <sparkPlanId>]

EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES

SQLSTATE : 42701

La clause USING de cette commande EXECUTE IMMEDIATE contenait plusieurs arguments avec le même alias (<aliases>), ce qui n’est pas valide ; mettez à jour la commande de façon à spécifier des alias uniques, puis réessayez.

EXPECT_PERMANENT_VIEW_NOT_TEMP

SQLSTATE : 42809

« <operation> » attend une vue permanente, mais <viewName> est une vue temporaire.

EXPECT_TABLE_NOT_VIEW

SQLSTATE : 42809

« <operation> » attend une table, mais <viewName> est une vue.

Pour plus d’informations, consultez EXPECT_TABLE_NOT_VIEW

EXPECT_VIEW_NOT_TABLE

SQLSTATE : 42809

La table <tableName> ne prend pas en charge <operation>.

Pour plus d’informations, consultez EXPECT_TABLE_NOT_VIEW

EXPRESSION_DECODING_FAILED

SQLSTATE : 42846

Échec du décodage d’une ligne en valeur des expressions : <expressions>.

EXPRESSION_ENCODING_FAILED

SQLSTATE : 42846

Échec de l’encodage d’une valeur des expressions : <expressions> à une ligne.

EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE : 42822

Impossible de trier l’expression <expr> de colonne, car son type <exprType> n’est pas triable.

EXTERNAL_TABLE_INVALID_SCHEME

SQLSTATE: 0A000

Les tables externes ne prennent pas en charge les schémas <scheme>.

FABRIC_REFRESH_INVALID_SCOPE

SQLSTATE: 0A000

Erreur lors de l’exécution de « REFRESH FOREIGN <scope> <name> ». Impossible d’actualiser directement une structure <scope>, utilisez « REFRESH » FOREIGN CATALOG <catalogName> pour « actualiser » le catalogue Fabric à la place.

FAILED_EXECUTE_UDF

SQLSTATE : 39000

Échec de la fonction définie par l’utilisateur (<functionName>: (<signature>) =><result>) en raison de :<reason>.

FAILED_FUNCTION_CALL

SQLSTATE : 38000

Échec de la préparation de la fonction <funcName> pour l’appel. Vérifiez les arguments de la fonction.

FAILED_JDBC

SQLSTATE: HV000

Échec de JDBC <url> sur l’opération :

Pour plus d’informations, consultez FAILED_JDBC.

FAILED_PARSE_STRUCT_TYPE

SQLSTATE : 22018

Échec de l’analyse struct : <raw>.

FAILED_READ_FILE

SQLSTATE : KD001

Erreur pendant la lecture du fichier <path>.

Pour plus d’informations, consultez FAILED_READ_FILE

FAILED_REGISTER_CLASS_WITH_KRYO

SQLSTATE : KD000

Échec de l’inscription des classes auprès de Kryo.

FAILED_RENAME_PATH

SQLSTATE : 42K04

Échec du changement de nom de <sourcePath> en <targetPath>, car la destination existe déjà.

FAILED_RENAME_TEMP_FILE

SQLSTATE : 58030

Impossible de renommer le fichier <srcPath> temporaire en <dstPath> FileSystem.rename a retourné false.

FAILED_ROW_TO_JSON

SQLSTATE : 2203G

Échec de la conversion de la valeur <value> de ligne de la classe <class> en type SQL cible <sqlType> au format JSON.

FAILED_TO_PARSE_TOO_COMPLEX

SQLSTATE : 54001

L’instruction, y compris les fonctions SQL potentielles et les vues référencées, était trop complexe pour l’analyse.

Pour atténuer cette erreur, divisez l’instruction en plusieurs blocs moins complexes.

FEATURE_NOT_ENABLED

SQLSTATE : 56038

La fonctionnalité <featureName> n’est pas activée. Envisagez de définir la configuration <configKey> sur <configValue> pour activer cette fonctionnalité.

FEATURE_NOT_ON_CLASSIC_WAREHOUSE

SQLSTATE : 56038

<feature> n’est pas pris en charge sur les entrepôts SQL classiques. Pour utiliser cette fonctionnalité, utilisez un entrepôt SQL Pro ou Serverless. Pour en savoir plus sur les types d'entrepôt, voir <docLink>

FEATURE_REQUIRES_UC

SQLSTATE : 0AKUD

<feature> n’est pas pris en charge sans Unity Catalog. Pour utiliser cette fonctionnalité, activez Unity Catalog. Pour en savoir plus sur Unity Catalog, voir <docLink>

FEATURE_UNAVAILABLE

SQLSTATE : 56038

<feature> n’est pas pris en charge dans votre environnement. Pour utiliser cette fonctionnalité, contactez le support Databricks.

FIELD_ALREADY_EXISTS

SQLSTATE : 42710

Impossible de colonne <op>, car <fieldNames> existe déjà dans <struct>.

FIELD_NOT_FOUND

SQLSTATE : 42704

Aucun champ struct de type <fieldName> dans <fields>.

FILE_IN_STAGING_PATH_ALREADY_EXISTS

SQLSTATE : 42K04

Le fichier dans le chemin intermédiaire <path> existe déjà, mais OVERWRITE n’est pas défini

FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR

SQLSTATE : 39000

Une erreur s’est produite dans la fonction fournie par l’utilisateur dans flatMapGroupsWithState. Raison : <reason>

FORBIDDEN_OPERATION

SQLSTATE : 42809

L’opération <statement> n’est pas autorisée sur <objectType>: <objectName>.

FOREACH_BATCH_USER_FUNCTION_ERROR

SQLSTATE : 39000

Une erreur s’est produite dans la fonction fournie par l’utilisateur dans le récepteur de lots foreach. Raison : <reason>

FOREACH_USER_FUNCTION_ERROR

SQLSTATE : 39000

Une erreur s’est produite dans la fonction fournie par l’utilisateur dans le récepteur foreach. Raison : <reason>

FOREIGN_KEY_MISMATCH

SQLSTATE : 42830

Les colonnes <parentColumns> parentes de la clé étrangère ne correspondent pas aux colonnes <childColumns> enfants de la clé primaire.

FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY

SQLSTATE : 42000

Impossible d’exécuter cette commande, car le champ <objectType> « nom » ne doit pas être vide.

FOUND_MULTIPLE_DATA_SOURCES

SQLSTATE : 42710

Plusieurs sources de données avec le nom « <provider> » ont été détectées. Vérifiez que la source de données n’est pas simultanément inscrite et située dans le classpath.

FROM_JSON_CONFLICTING_SCHEMA_UPDATES

SQLSTATE : 42601

from_json’inférence a rencontré des mises à jour de schéma en conflit à l’adresse suivante : <location>

FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA

SQLSTATE : 42601

from_json a détecté la présence d’un columnNameOfCorruptRecord (<columnNameOfCorruptRecord>)

dans un objet JSON, et ne peut plus continuer. Configurez une valeur différente pour

l’option « columnNameOfCorruptRecord ».

FROM_JSON_CORRUPT_SCHEMA

SQLSTATE : 42601

from_json’inférence n’a pas pu lire le schéma stocké dans : <location>

FROM_JSON_INFERENCE_FAILED

SQLSTATE : 42601

from_json n’a pas pu inférer le schéma. Veuillez en fourni un à la place.

FROM_JSON_INFERENCE_NOT_SUPPORTED

SQLSTATE: 0A000

from_json inférence est uniquement prise en charge lors de la définition de tables de streaming

FROM_JSON_INVALID_CONFIGURATION

SQLSTATE : 42601

La configuration from_json n’est pas valide :

Pour plus de détails, consultez FROM_JSON_INVALID_CONFIGURATION

FROM_JSON_SCHEMA_EVOLUTION_FAILED

SQLSTATE : 22KD3

from_json n’a pas pu évoluer de <old> à <new>

FUNCTION_PARAMETERS_MUST_BE_NAMED

SQLSTATE : 07001

La fonction <function> nécessite des paramètres nommés. Paramètres dont les noms sont manquants : <exprs>. Mettez à jour l’appel de fonction pour ajouter des noms à tous les paramètres, par exemple <function>(param_name => ...).

GENERATED_COLUMN_WITH_DEFAULT_VALUE

SQLSTATE : 42623

Une colonne ne peut pas avoir à la fois une valeur par défaut et une expression de génération, mais la colonne <colName> a la valeur par défaut : (<defaultValue>) et l’expression de génération : (<genExpr>).

GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION

SQLSTATE : 56038

Hive 2.2. et versions inférieures ne prennent pas en charge getTablesByType. Veuillez utiliser Hive 2.3 ou une version ultérieure.

GET_WARMUP_TRACING_FAILED

SQLSTATE : 42601

Échec de l’obtention du suivi de warmup. Cause :<cause>.

GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED

SQLSTATE : 42601

Fonction get_warmup_tracing() non autorisée.

GRAPHITE_SINK_INVALID_PROTOCOL

SQLSTATE : KD000

Protocole Graphite non valide : <protocol>.

GRAPHITE_SINK_PROPERTY_MISSING

SQLSTATE : KD000

Le récepteur Graphite nécessite la propriété « <property> ».

GROUPING_COLUMN_MISMATCH

SQLSTATE : 42803

La colonne de regroupement (<grouping>) est introuvable dans les colonnes de regroupement<groupingColumns>.

GROUPING_ID_COLUMN_MISMATCH

SQLSTATE : 42803

Les colonnes de grouping_id (<groupingIdColumn>) ne correspondent pas aux colonnes de regroupement (<groupByColumns>).

GROUPING_SIZE_LIMIT_EXCEEDED

SQLSTATE : 54000

La taille des ensembles de regroupement ne peut pas être supérieure à <maxSize>.

GROUP_BY_AGGREGATE

SQLSTATE : 42903

Les fonctions d’agrégation ne sont pas autorisées dans GROUP BY, mais <sqlExpr>ont été trouvées.

Pour plus d’informations, voirGROUP_BY_AGGREGATE

GROUP_BY_POS_AGGREGATE

SQLSTATE : 42903

GROUP BY <index> fait référence à une expression <aggExpr> qui contient une fonction d’agrégation. Les fonctions d’agrégation ne sont pas autorisées dans GROUP BY.

GROUP_BY_POS_OUT_OF_RANGE

SQLSTATE : 42805

La position <index> GROUP BY n’est pas dans la liste de sélection (la plage valide est [1, <size>]).

GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE

SQLSTATE : 42822

L’expression <sqlExpr> ne peut pas être utilisée comme expression de regroupement, car son type de données <dataType> n’est pas un type de données triable.

HDFS_HTTP_ERROR

SQLSTATE : KD00F

Lors de la tentative de lecture à partir de HDFS, la requête HTTP a échoué.

Pour plus d’informations, consultez HDFS_HTTP_ERROR

HLL_INVALID_INPUT_SKETCH_BUFFER

SQLSTATE : 22546

Appel non valide à <function>; seules les mémoires tampons de croquis HLL valides sont prises en charge en tant qu’entrées (telles que celles produites par la fonction hll_sketch_agg).

HLL_INVALID_LG_K

SQLSTATE : 22546

Appel non valide à <function>; la valeur lgConfigK doit être comprise entre <min> et <max>, incluant : <value>.

HLL_UNION_DIFFERENT_LG_K

SQLSTATE : 22000

Les croquis ont des valeurs différentes lgConfigK : <left> et <right>. Définissez le paramètre sur allowDifferentLgConfigK true pour l’appeler <function> avec des valeurs différentes lgConfigK.

IDENTIFIER_TOO_MANY_NAME_PARTS

SQLSTATE : 42601

<identifier> n’est pas un identificateur valide, car ce nom comporte plus de 2 parties.

ILLEGAL_STATE_STORE_VALUE

SQLSTATE : 42601

Valeur illégale fournie au magasin d’état

Pour plus d’informations, consultez ILLEGAL_STATE_STORE_VALUE

INCOMPARABLE_PIVOT_COLUMN

SQLSTATE : 42818

Colonne pivot <columnName> invalide. Les colonnes d’un tableau croisé dynamique doivent être comparables.

INCOMPATIBLE_COLUMN_TYPE

SQLSTATE : 42825

<operator> ne peut être effectué que sur des tableaux avec des types de colonnes compatibles. La colonne <columnOrdinalNumber> du tableau <tableOrdinalNumber> correspond à un type <dataType1> qui n’est pas compatible avec <dataType2> dans la même colonne du premier tableau. <hint>.

INCOMPATIBLE_DATASOURCE_REGISTER

SQLSTATE : 56038

DataSourceRegister incompatible détecté. Supprimez la bibliothèque incompatible de classpath ou mettez-la à niveau. Erreur : <message>

INCOMPATIBLE_DATA_FOR_TABLE

SQLSTATE: KD000

Impossible d’écrire des données incompatibles pour la table <tableName>:

Pour plus de détails, voir INCOMPATIBLE_DATA_FOR_TABLE

INCOMPATIBLE_JOIN_TYPES

SQLSTATE : 42613

Les types joints <joinType1> et <joinType2> sont incompatibles.

INCOMPATIBLE_VIEW_SCHEMA_CHANGE

SQLSTATE: 51024

La requête SQL de vue <viewName> a un changement de schéma incompatible et la colonne <colName> ne peut pas être résolue. Colonnes nommées <expectedNum> attendues <colName> mais obtenues <actualCols>.

Essayez de recréer la vue en exécutant : <suggestion>.

INCOMPLETE_TYPE_DEFINITION

SQLSTATE: 42K01

Type complexe incomplet :

Pour plus d’informations, voir INCOMPLETE_TYPE_DEFINITION

INCONSISTENT_BEHAVIOR_CROSS_VERSION

SQLSTATE: 42K0B

Il se peut que vous obteniez un résultat différent en raison de la mise à niveau vers

Pour plus d’informations, consultez INCONSISTENT_BEHAVIOR_CROSS_VERSION

INCORRECT_NUMBER_OF_ARGUMENTS

SQLSTATE : 42605

<failure>, <functionName> nécessite au minimum <minArgs> arguments et au maximum <maxArgs> arguments.

INCORRECT_RAMP_UP_RATE

SQLSTATE : 22003

Décalage maximal avec <rowsPerSecond> rowsPerSecond est <maxSeconds>, mais « rampUpTimeSeconds » est <rampUpTimeSeconds>.

INDETERMINATE_COLLATION

SQLSTATE : 42P22

La fonction appelée nécessite la connaissance du classement qu’elle doit appliquer, mais un classement indéterminé a été trouvé. Utilisez la fonction COLLATE pour définir le classement explicitement.

INDEX_ALREADY_EXISTS

SQLSTATE : 42710

Impossible de créer l’index <indexName> sur le tableau <tableName> parce qu'il existe déjà.

INDEX_NOT_FOUND

SQLSTATE : 42704

Fichier d'index <indexName> introuvable sur le tableau <tableName>.

INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED

SQLSTATE: 0A000

Le type de déclencheur <trigger> n’est pas pris en charge pour ce type de cluster.

Utilisez un autre type de déclencheur, par exemple AvailableNow, Une fois.

INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE : 21S01

Impossible d’écrire dans <tableName>, la raison est

Pour plus de détails, consultez INSERT_COLUMN_ARITY_MISMATCH

INSERT_PARTITION_COLUMN_ARITY_MISMATCH

SQLSTATE : 21S01

Impossible d'écrire dans ‘<tableName>’, <reason> :

Colonnes de table : <tableColumns>.

Partitionnez des colonnes avec des valeurs statiques : <staticPartCols>.

Colonnes de données : <dataColumns>.

INSUFFICIENT_PERMISSIONS

SQLSTATE : 42501

Privilèges insuffisants :

<report>

INSUFFICIENT_PERMISSIONS_EXT_LOC

SQLSTATE : 42501

L’utilisateur <user> dispose de privilèges insuffisants pour l’emplacement externe <location>.

INSUFFICIENT_PERMISSIONS_NO_OWNER

SQLSTATE : 42501

Il n’existe aucun propriétaire pour <securableName>. Demandez à votre administrateur de définir un propriétaire.

INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE

SQLSTATE : 42501

L’utilisateur ne possède pas <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE

SQLSTATE : 42501

L’utilisateur n’a pas d’autorisation <action> sur <securableName>.

INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER

SQLSTATE : 42501

Le propriétaire de <securableName> est différent du propriétaire de <parentSecurableName>.

INSUFFICIENT_PERMISSIONS_STORAGE_CRED

SQLSTATE : 42501

Les identifiants de stockage <credentialName> ne disposent pas de privilèges suffisants.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES

SQLSTATE : 42501

L’utilisateur ne peut pas activer <action> sur <securableName> en raison des autorisations sur les éléments sous-jacents.

INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE

SQLSTATE : 42501

L’utilisateur ne peut pas activer <action> sur <securableName>en raison des autorisations sur les éléments sous-jacents :

<underlyingReport>

INTERVAL_ARITHMETIC_OVERFLOW

SQLSTATE : 22015

<message>.<alternative>

INTERVAL_DIVIDED_BY_ZERO

SQLSTATE : 22012

Division par zéro Utilisez try_divide pour tolérer le diviseur 0 et retourner la valeur NULL à la place.

INVALID_AGGREGATE_FILTER

SQLSTATE : 42903

L’expression FILTER <filterExpr> dans une fonction d’agrégation est incorrecte.

Pour plus d’informations, consultez INVALID_AGGREGATE_FILTER

INVALID_ARRAY_INDEX

SQLSTATE : 22003

L'index <indexValue> est hors limites. Le tableau comporte des éléments <arraySize>. Utilisez la fonction SQLget() pour tolérer l’accès à l’élément à un index non valide et retourner la valeur NULL à la place. Si nécessaire, définissez <ansiConfig> sur « false » pour contourner cette erreur.

Pour plus d’informations, voir INVALID_SCHEMA

INVALID_ARRAY_INDEX_IN_ELEMENT_AT

SQLSTATE : 22003

L'index <indexValue> est hors limites. Le tableau comporte des éléments <arraySize>. Utilisez try_element_at pour tolérer l’accès à l’élément à un index non valide et retourner la valeur NULL à la place. Si nécessaire, définissez <ansiConfig> sur « false » pour contourner cette erreur.

Pour plus d’informations, voir INVALID_ARRAY_INDEX_IN_ELEMENT_AT

INVALID_BITMAP_POSITION

SQLSTATE : 22003

La position <bitPosition> bitmap indexée à 0 est hors limites. La bitmap a <bitmapNumBits> des bits (<bitmapNumBytes> octets).

INVALID_BOOLEAN_STATEMENT

SQLSTATE : 22546

L’instruction booléenne est attendue dans la condition, mais <invalidStatement> elle a été trouvée.

INVALID_BOUNDARY

SQLSTATE : 22003

La limite <boundary> n’est pas valide : <invalidValue>.

Pour plus d’informations, voir INVALID_BOUNDARY

INVALID_BUCKET_COLUMN_DATA_TYPE

SQLSTATE : 42601

Impossible d’utiliser <type> pour la colonne de compartiment. Les types de données collationnés ne sont pas pris en charge pour le compartimentage.

INVALID_BUCKET_FILE

SQLSTATE : 58030

Fichier d'échange invalide : <path>.

INVALID_BYTE_STRING

SQLSTATE: 22P03

Le format attendu est ByteString, mais il était <unsupported> (<class>).

INVALID_COLUMN_NAME_AS_PATH

SQLSTATE : 46121

La source de données <datasource> ne peut pas enregistrer la colonne <columnName>, car son nom contient des caractères qui ne sont pas autorisés dans les chemins d’accès aux fichiers. Utilisez un alias pour le renommer.

INVALID_COLUMN_OR_FIELD_DATA_TYPE

SQLSTATE : 42000

La colonne ou le champ <name> est de type <type> et devrait être de type <expectedType>.

INVALID_CONF_VALUE

SQLSTATE : 22022

La valeur « <confValue> » dans la configuration « <confName> » est incorrecte.

Pour plus d’informations, voir INVALID_CONF_VALUE

INVALID_CURRENT_RECIPIENT_USAGE

SQLSTATE : 42887

La fonction current_recipient ne peut être utilisée dans l’instruction CREATE VIEW ou ALTER VIEW que pour définir une vue « partage uniquement » dans Unity Catalog.

INVALID_CURSOR

SQLSTATE: HY109

Le curseur n’est pas valide.

Pour plus d’informations, voir INVALID_CURSOR

INVALID_DATETIME_PATTERN

SQLSTATE : 22007

Modèle datetime non reconnu : <pattern>.

Pour plus d’informations, consultez INVALID_DATETIME_PATTERN

INVALID_DEFAULT_VALUE

SQLSTATE : 42623

Échec de l’exécution de la commande <statement>, car la colonne de destination <colName> a une valeur PAR DEFAUT <defaultValue>,

Pour plus d’informations, voir INVALID_DEFAULT_VALUE

INVALID_DELIMITER_VALUE

SQLSTATE : 42602

Valeur non valide pour le délimiteur.

Pour plus d’informations, consultez INVALID_DELIMITER_VALUE

INVALID_DEST_CATALOG

SQLSTATE : 42809

Le catalogue de destination de la commande SYNC doit se trouver dans Unity Catalog. Trouvé <catalog>.

INVALID_DRIVER_MEMORY

SQLSTATE : F0000

La mémoire du système <systemMemory> doit être d’au minimum <minSystemMemory>.

Augmentez la taille du segment de mémoire à l’aide de l’option –driver-memory ou «<config> » dans la configuration Spark.

INVALID_DYNAMIC_OPTIONS

SQLSTATE : 42K10

Les options passées <option_list> sont interdites pour les table_name> de table <étrangère.

INVALID_EMPTY_LOCATION

SQLSTATE : 42K05

Le nom d’emplacement ne peut pas être une chaîne vide, mais <location> a été donné.

INVALID_ESC

SQLSTATE : 42604

Une chaîne d’échappement non valide a été trouvée : <invalidEscape>. La chaîne d’échappement ne doit contenir qu’un seul caractère.

INVALID_ESCAPE_CHAR

SQLSTATE : 42604

EscapeChar doit être un littéral de chaîne de longueur 1, mais a obtenu <sqlExpr>.

INVALID_EXECUTOR_MEMORY

SQLSTATE : F0000

La mémoire de l’exécuteur <executorMemory> doit être d’au minimum <minSystemMemory>.

Veuillez augmenter la mémoire de l’exécuteur à l’aide de l’option –executor-memory ou «<config> » dans la configuration Spark.

INVALID_EXPRESSION_ENCODER

SQLSTATE : 42001

Un encodeur d’expression non valide a été trouvé. Attend une instance d’ExpressionEncoder mais a obtenu <encoderType>. Pour plus d’informations, consultez « <docroot>/api/java/index.html?org/apache/spark/sql/Encoder.html ».

INVALID_EXTRACT_BASE_FIELD_TYPE

SQLSTATE : 42000

Impossible d’extraire une valeur de <base>. A besoin d’un type de complexe [STRUCT, ARRAY, MAP] mais obtient <other>.

INVALID_EXTRACT_FIELD

SQLSTATE : 42601

Impossible d’extraire <field> de <expr>.

INVALID_EXTRACT_FIELD_TYPE

SQLSTATE : 42000

Le nom du champ doit être un littéral de chaîne non nul, mais il s’agit de <extraction>.

INVALID_FIELD_NAME

SQLSTATE : 42000

Le nom du champ <fieldName> n’est pas valide : <path> n’est pas un struct.

INVALID_FORMAT

SQLSTATE : 42601

Le format n’est pas valide : <format>.

Pour plus d’informations, voir INVALID_FORMAT

INVALID_FRACTION_OF_SECOND

SQLSTATE : 22023

La fraction de seconde doit être égale à zéro. La plage valide est [0, 60]. Si nécessaire, définissez <ansiConfig> sur « false » pour contourner cette erreur.

INVALID_HANDLE

SQLSTATE: HY000

Le descripteur <handle> est non valide.

Pour plus d’informations, voir INVALID_HANDLE

INVALID_IDENTIFIER

SQLSTATE : 42602

L’identificateur non cité <ident> n’est pas valide et doit être retourné cité comme suit : <ident>.

Les identificateurs non cités ne peuvent contenir que des lettres ASCII ('a' - 'z', 'A' - 'Z'), des chiffres ('0' - '9') et la barre inférieure ('_').

Les identificateurs non cités doivent également ne pas commencer par un chiffre.

Différentes sources de données et métastores peuvent imposer des restrictions supplémentaires sur les identificateurs valides.

INVALID_INDEX_OF_ZERO

SQLSTATE : 22003

L’index 0 n’est pas valide. Un index doit être soit < 0, soit > 0 (le premier élément a l’index 1).

INVALID_INLINE_TABLE

SQLSTATE : 42000

Table inline non valide.

Pour plus d’informations, consultez INVALID_SQL_TABLE

INVALID_INTERVAL_FORMAT

SQLSTATE : 22006

Erreur d’analyse de « <input> » sur l’intervalle. Vérifiez que la valeur fournie est dans un format valide pour définir un intervalle. Vous pouvez référencer la documentation pour connaître le format approprié.

Pour plus d’informations, consultez INVALID_INTERVAL_FORMAT

INVALID_INVERSE_DISTRIBUTION_FUNCTION

SQLSTATE : 42K0K

Fonction de distribution inverse non valide <funcName>.

Pour plus d’informations, consultez INVALID_INVERSE_DISTRIBUTION_FUNCTION.

INVALID_JOIN_TYPE_FOR_JOINWITH

SQLSTATE : 42613

Type de jointure non valide dans joinWith : <joinType>.

INVALID_JSON_DATA_TYPE

SQLSTATE : 2203G

Échec de la conversion de la chaîne JSON « <invalidType> » en type de données. Veuillez entrer une date valide.

INVALID_JSON_DATA_TYPE_FOR_COLLATIONS

SQLSTATE : 2203G

Les classements ne peuvent être appliqués qu’aux types de chaînes, mais le type de données JSON est <jsonType>.

INVALID_JSON_ROOT_FIELD

SQLSTATE : 22032

Impossible de convertir le champ racine JSON en type Spark cible.

INVALID_JSON_SCHEMA_MAP_TYPE

SQLSTATE : 22032

Le schéma d’entrée <jsonSchema> ne peut contenir que STRING en tant que type de clé pour un MAP.

INVALID_KRYO_SERIALIZER_BUFFER_SIZE

SQLSTATE : F0000

La valeur de la configuration «<bufferSizeConfKey> » doit être inférieure à 2 048 Mio, mais a obtenu <bufferSizeConfValue> le Mio.

INVALID_LABEL_USAGE

SQLSTATE : 42K0L

L’utilisation de l’étiquette <labelName> n’est pas valide.

Pour plus d’informations, consultez INVALID_LABEL_USAGE

INVALID_LAMBDA_FUNCTION_CALL

SQLSTATE: 42K0D

Appel de fonction lambda non valide.

Pour plus d’informations, consultez INVALID_LAMBDA_FUNCTION_CALL

INVALID_LATERAL_JOIN_TYPE

SQLSTATE : 42613

La corrélation <joinType> JOIN avec LATERAL n’est pas autorisée, car une sous-requête OUTER ne peut pas être corrélée à son partenaire de jointure. Supprimez la corrélation LATERAL ou utilisez une INNER JOIN ou LEFT OUTER JOIN à la place.

INVALID_LIMIT_LIKE_EXPRESSION

SQLSTATE: 42K0E

La limite d’expression <expr> n’est pas valide.

Pour plus d’informations, voir INVALID_LIMIT_LIKE_EXPRESSION

INVALID_LOCATION

SQLSTATE : 42K05

Le nom de l’emplacement ne peut pas être un URI non valide, mais <location> il a été donné.

INVALID_NON_ABSOLUTE_PATH

SQLSTATE : 22KD1

Le chemin d’accès <path> non absolu fourni ne peut pas être qualifié. Mettez à jour le chemin d’accès pour qu’il s’agit d’un emplacement de montage dbfs valide.

INVALID_NON_DETERMINISTIC_EXPRESSIONS

SQLSTATE: 42K0E

L’opérateur attend une expression déterministe, mais l’expression réelle est <sqlExprs>.

INVALID_NUMERIC_LITERAL_RANGE

SQLSTATE : 22003

Le littéral <rawStrippedQualifier> numérique est en dehors de la plage valide pour <typeName> avec la valeur minimale <minValue> et la valeur maximale de <maxValue>. Ajustez la valeur en conséquence.

INVALID_OBSERVED_METRICS

SQLSTATE: 42K0E

Métriques observées non valides.

Pour plus d’informations, voir INVALID_OBSERVED_METRICS

INVALID_OPTIONS

SQLSTATE : 42K06

Options non valides :

Pour plus d’informations, voir INVALID_OPTIONS

INVALID_PANDAS_UDF_PLACEMENT

SQLSTATE: 0A000

L'UDF pandas d'agrégation de groupe <functionList> ne peut pas être invoquée en même temps que d'autres fonctions d'agrégation non pandas.

INVALID_PARAMETER_MARKER_VALUE

SQLSTATE : 22023

Un mappage de paramètres non valide a été fourni :

Pour plus d’informations, voir INVALID_PARAMETER_MARKER_VALUE

INVALID_PARAMETER_VALUE

SQLSTATE : 22023

La valeur du ou des paramètres <parameter> dans <functionName> n'est pas valide :

Pour plus d’informations, voir INVALID_PARAMETER_VALUE

INVALID_PARTITION_COLUMN_DATA_TYPE

SQLSTATE: 0A000

Impossible d’utiliser <type> pour la colonne de partition.

INVALID_PARTITION_OPERATION

SQLSTATE : 42601

La commande de partition n’est pas valide.

Pour plus d’informations, voir INVALID_PARTITION_OPERATION

INVALID_PIPELINE_ID

SQLSTATE : 42604

L’ID de pipeline <pipelineId> n’est pas valide.

L'identifiant d'un pipeline doit être un UUID au format « xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx »

INVALID_PRIVILEGE

SQLSTATE : 42852

Le privilège <privilege>n’est pas valide pour <securable>.

INVALID_PROPERTY_KEY

SQLSTATE : 42602

<key> est une clé de propriété non valide, utilisez des guillemets, par exemple SET <key>=<value>.

INVALID_PROPERTY_VALUE

SQLSTATE : 42602

<value> est une valeur de propriété non valide, utilisez des guillemets, par exemple SET<key>=<value>

INVALID_QUERY_MIXED_QUERY_PARAMETERS

SQLSTATE : 42613

La requête paramétrisée doit utiliser des paramètres positionnels ou nommés, mais pas les deux.

INVALID_S3_COPY_CREDENTIALS

SQLSTATE : 42501

Les informations d’identification de COPY INTO doivent inclure AWS_ACCESS_KEY, AWS_SECRET_KEY et AWS_SESSION_TOKEN.

INVALID_SAVE_MODE

SQLSTATE : 42000

Le mode d’enregistrement spécifié <mode> n’est pas valide. Les modes d’enregistrement valides incluent « append », « overwrite », « ignore », « error », « errorifexists » et « default ».

INVALID_SCHEMA

SQLSTATE : 42K07

Le schéma d’entrée <inputSchema> n’est pas une chaîne de schéma valide.

Pour plus d’informations, voir INVALID_SCHEMA

INVALID_SCHEMA_OR_RELATION_NAME

SQLSTATE : 42602

<name> n’est pas un nom valide pour les tables/schémas. Les noms valides ne contiennent que des caractères alphabétiques, des nombres et _.

INVALID_SCHEME

SQLSTATE : 0AKUC

Unity Catalog ne prend pas en charge <name> comme schéma de fichiers par défaut.

INVALID_SECRET_LOOKUP

SQLSTATE : 22531

Recherche de secret non valide :

Pour plus d’informations, voir INVALID_SECRET_LOOKUP

INVALID_SET_SYNTAX

SQLSTATE : 42000

Le format attendu est « SET », « clé SET » ou « SET clé = valeur ». Si vous souhaitez inclure des caractères spéciaux dans la clé ou inclure des points-virgules dans la valeur, utilisez des guillemets, par exemple, SET key=value.

INVALID_SHARED_ALIAS_NAME

SQLSTATE : 42601

Le <sharedObjectType> nom d’alias doit avoir la forme « schema.name ».

INVALID_SINGLE_VARIANT_COLUMN

SQLSTATE : 42613

L’option singleVariantColumn ne peut pas être utilisée s’il existe également un schéma spécifié par l’utilisateur.

INVALID_SOURCE_CATALOG

SQLSTATE : 42809

Le catalogue source ne doit pas se trouver dans Unity Catalog pour la commande SYNC. Trouvé <catalog>.

INVALID_SQL_ARG

SQLSTATE : 42K08

L'argument <name> de sql() n’est pas valide. Envisagez de le remplacer par un littéral SQL ou par des fonctions de constructeur de collection telles que map(), array(), struct().

INVALID_SQL_SYNTAX

SQLSTATE : 42000

Syntaxe SQL non valide :

Pour plus d’informations, voir INVALID_SQL_SYNTAX

INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY

SQLSTATE : 42604

Chemin d'accès invalide dans la requête <operation> de transfert : <path>

INVALID_STATEMENT_FOR_EXECUTE_INTO

SQLSTATE : 07501

La clause INTO d’EXECUTE IMMEDIATE n’est valide que pour les requêtes, mais l’instruction donnée n’est pas une requête : <sqlString>.

INVALID_STATEMENT_OR_CLAUSE

SQLSTATE : 42601

Instruction ou clause : <operation> n’est pas valide.

INVALID_SUBQUERY_EXPRESSION

SQLSTATE : 42823

Sous-requête non valide :

Pour plus d’informations, voir INVALID_SUBQUERY_EXPRESSION

INVALID_TEMP_OBJ_REFERENCE

SQLSTATE: 42K0F

Impossible de créer l’objet persistant <objName> de type <obj> , car il fait référence à l’objet temporaire <tempObjName> de type <tempObj>. Veuillez rendre l’objet temporaire <tempObjName> persistant ou rendre l’objet persistant <objName> temporaire.

INVALID_TIMESTAMP_FORMAT

SQLSTATE : 22000

L’horodatage <timestamp> fourni ne correspond pas à la syntaxe <format> attendue .

INVALID_TIME_TRAVEL_SPEC

SQLSTATE : 42K0E

Impossible de spécifier à la fois la version et l’horodatage lors du voyage dans le temps de la table.

INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

SQLSTATE: 42K0E

L’expression timestamp du voyage dans le temps <expr> n’est pas valide.

Pour plus de détails, consultez INVALID_TIME_TRAVEL_TIMESTAMP_EXPR

INVALID_TYPED_LITERAL

SQLSTATE : 42604

La valeur du littéral typé <valueType> n’est pas valide : <value>.

INVALID_UDF_IMPLEMENTATION

SQLSTATE : 38000

La fonction <funcName> n’implémente pas ScalarFunction ou AggregateFunction.

INVALID_UPGRADE_SYNTAX

SQLSTATE : 42809

<command> <supportedOrNot> la table source se trouve dans le metastore Hive et la table de destination se trouve dans Unity Catalog.

INVALID_URL

SQLSTATE : 22P02

L’URL <url> n’est pas valide. Si nécessaire, définissez <ansiConfig> sur « false » pour contourner cette erreur.

INVALID_USAGE_OF_STAR_OR_REGEX

SQLSTATE : 42000

Utilisation non valide de <elem> dans <prettyName>.

INVALID_UTF8_STRING

SQLSTATE: 22029

Séquence d’octets UTF8 non valide trouvée dans la chaîne : <str>.

INVALID_UUID

SQLSTATE : 42604

L'entrée <uuidInput> n'est pas une URL valide.

L'UUID doit être au format « xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx »

Veuillez vérifier le format de l'UUID.

INVALID_VARIABLE_DECLARATION

SQLSTATE : 42K0M

Déclaration de variable non valide.

Pour plus d’informations, consultez INVALID_VARIABLE_DECLARATION

INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE

SQLSTATE : 42K09

Le type de variable doit être de type chaîne, mais <varType> a été obtenu.

INVALID_VARIANT_CAST

SQLSTATE : 22023

La valeur de variante <value> ne peut pas être forcée en <dataType>. Veuillez plutôt utiliser try_variant_get.

INVALID_VARIANT_FROM_PARQUET

SQLSTATE : 22023

Variante non valide.

Pour plus d’informations, consultez INVALID_VARIANT_FROM_PARQUET

INVALID_VARIANT_GET_PATH

SQLSTATE : 22023

Le chemin d’accès <path> n’est pas un chemin d’extraction de variante valide dans <functionName>.

Un chemin valide doit commencer par $, suivi de zéro ou plusieurs segments tels que [123], .name, ['name'] ou ["name"].

INVALID_WHERE_CONDITION

SQLSTATE : 42903

La condition WHERE <condition> contient des expressions non valides : <expressionList>.

Réécrire la requête pour éviter les fonctions de fenêtre, les fonctions d’agrégation et les fonctions de générateur dans la clause WHERE.

INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC

SQLSTATE : 42601

Impossible de spécifier ORDER BY ou une fenêtre de temps pour <aggFunc>.

INVALID_WRITER_COMMIT_MESSAGE

SQLSTATE: 42KDE

L’enregistreur de source de données a généré un nombre non valide de messages de validation. Exactement un message de validation d’enregistreur était attendu à partir de chaque tâche, mais <detail> a été reçu.

INVALID_WRITE_DISTRIBUTION

SQLSTATE : 42000

La distribution d’écriture demandée n’est pas valide.

Pour plus d’informations, voir INVALID_WRITE_DISTRIBUTION

JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE

SQLSTATE: 42K0E

La condition de jointure <joinCondition> a le type <conditionType>non valide , attendu « BOOLEAN ».

KAFKA_DATA_LOSS

SQLSTATE : 22000

Certaines données ont peut-être été perdues, car elles ne sont plus disponibles dans Kafka ;

soit les données ont été anciennes par Kafka, soit la rubrique a peut-être été supprimée avant que toutes les données de la

la rubrique aient été traitée.

Si vous ne souhaitez pas que votre requête de diffusion en continu échoue dans de tels cas, définissez l’option source failOnDataLoss sur false.

Motif :

Pour plus d’informations, consultez KAFKA_DATA_LOSS

KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET

SQLSTATE : 22000

Impossible de lire jusqu’à ce que le numéro de séquence souhaité <endSeqNum> pour la partition <shardId> dans

le flux kinesis <stream> avec le mode consommateur <consumerMode>. La requête échouera en raison d’une

perte potentielle de données. Le dernier enregistrement de lecture était au numéro de séquence <lastSeqNum>.

Cela peut se produire si les données avec endSeqNum sont déjà obsolètes, ou si le flux Kinesis a été

supprimé et reconstruit avec le même nom. Le comportement d’échec peut être outrepassé

en définissant spark.databricks.clusters.failOnDataLoss sur false dans la configuration Spark.

KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD

SQLSTATE : 42K04

Le ShardId au minimum extrait à partir de Kinésis (<fetchedShardId>)

est inférieur au shardId suivi minimal (<trackedShardId>).

Cela est inattendu et se produit lorsqu’un flux Kinésis est supprimé puis recréé avec le même nom,

et une requête de diffusion en continu utilisant ce flux Kinésis est redémarrée à l’aide d’un emplacement de point de contrôle existant.

Redémarrez la requête de diffusion en continu avec un nouvel emplacement de point de contrôle ou créez un flux de données avec un nouveau nom.

KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION

SQLSTATE : 22000

Pour la partition <shard>, le dernier enregistrement lu depuis Kinesis dans les extractions précédentes a un numéro de séquence <lastSeqNum>,

qui est supérieur à l’enregistrement lu dans la récupération actuelle avec le numéro de séquence <recordSeqNum>.

Cela est inattendu et peut se produire lorsque la position de début de la nouvelle tentative ou de la récupération suivante est incorrectement initialisée, et peut entraîner des enregistrements dupliqués en aval.

KRYO_BUFFER_OVERFLOW

SQLSTATE : 54006

Échec de sérialisation de Kryo :<exceptionMsg>. Pour éviter cela, augmentez la valeur «<bufferSizeConfKey> ».

LABELS_MISMATCH

SQLSTATE : 42K0L

L’étiquette <beginLabel> de début ne correspond pas à l’étiquette de <endLabel>fin .

LOAD_DATA_PATH_NOT_EXISTS

SQLSTATE : 42K03

Le chemin d’entrée LOAD DATA n’existe pas : <path>.

LOCAL_MUST_WITH_SCHEMA_FILE

SQLSTATE : 42601

LOCAL doit être utilisé avec le schéma de file, mais obtient : <actualSchema>.

LOCATION_ALREADY_EXISTS

SQLSTATE : 42710

Impossible de nommer la table gérée comme <identifier>, car son emplacement associé <location> existe déjà. Choisissez un autre nom de table ou supprimez d’abord l’emplacement existant.

LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW

SQLSTATE : KD000

Certaines partitions dans les rubriques Kafka ont été perdues pendant l’exécution de la requête avec Trigger.AvailableNow. L’erreur peut être temporaire : redémarrez votre requête et effectuez un signalement si vous voyez toujours le même problème.

partitions de rubrique pour le dernier décalage : <tpsForLatestOffset>, partitions de rubrique pour le décalage de fin : <tpsForEndOffset>

MALFORMED_AVRO_MESSAGE

SQLSTATE : KD000

Des messages Avro mal formés sont détectés dans la désérialisation des messages. Mode analyse : <mode>. Pour traiter un message Avro malformé en tant que résultat null, essayez de définir l’option « mode » sur « PERMISSIVE ».

MALFORMED_CHARACTER_CODING

SQLSTATE : 22000

Valeur non valide trouvée lors de l’exécution <function> avec <charset>

MALFORMED_CSV_RECORD

SQLSTATE : KD000

Enregistrement CSV erroné : <badRecord>

MALFORMED_RECORD_IN_PARSING

SQLSTATE : 22023

Les enregistrements erronés sont détectés dans l’analyse des enregistrements : <badRecord>.

Mode analyse : <failFastMode>. Pour traiter les enregistrements erronés comme des résultats nuls, essayez de définir l'option 'mode' comme 'PERMISSIVE'.

Pour plus de détails, consultez MALFORMED_RECORD_IN_PARSING

MALFORMED_VARIANT

SQLSTATE : 22023

Le fichier binaire variant est mal formé. Vérifiez que la source de données est valide.

MANAGED_TABLE_WITH_CRED

SQLSTATE : 42613

La création d’une table managée avec des informations d’identification de stockage n’est pas prise en charge.

MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID

SQLSTATE : 55019

Impossible <refreshType> de créer la vue matérialisée car elle est antérieure à l'existence d'un pipelineId. Pour activer <refreshType>, supprimez et recréez la vue matérialisée.

MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

SQLSTATE : 56038

L'opération de vue matérialisée <operation> n'est pas autorisée :

Pour plus d’informations, voir MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED

MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS

SQLSTATE: 0A000

L’expression de sortie <expression> dans une vue matérialisée doit être explicitement aliasée.

MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID

SQLSTATE : 42000

Impossible de créer une vue <name> matérialisée avec la requête de diffusion en continu. Utilisez CREATE [OU REFRESH] STREAMING TABLE ou supprimez le mot clé STREAM dans votre clause FROM pour transformer cette relation en requête par lot à la place.

MATERIALIZED_VIEW_UNSUPPORTED_OPERATION

SQLSTATE: 0A000

L’opération <operation> n’est pas prise en charge sur les vues matérialisées pour cette version.

MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED

SQLSTATE : 54KD1

Impossible de créer la nouvelle variable <variableName> , car le nombre de variables dans la session dépasse le nombre maximal autorisé (<maxNumVariables>).

MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE

SQLSTATE : 22023

maxRecordsPerFetch doit être un entier positif inférieur ou égal à <kinesisRecordLimit>

MERGE_CARDINALITY_VIOLATION

SQLSTATE: 23K01

La condition de recherche ON de l’instruction MERGE a mis en correspondance une seule ligne de la table cible avec plusieurs lignes de la table source.

Cela peut entraîner l’utilisation de la ligne cible plusieurs fois avec une opération de mise à jour ou de suppression et n’est pas autorisée.

METRIC_CONSTRAINT_NOT_SUPPORTED

SQLSTATE: 0A000

METRIC CONSTRAINT n’est pas activé.

METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

SQLSTATE : 22023

La valeur fournie « <argValue> » n’est pas prise en charge par l’argument «<argName>» pour la fonction de table METRIC_STORE.

Pour plus d’informations, consultez METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR

METRIC_STORE_UNSUPPORTED_ERROR

SQLSTATE : 56038

La fonction Metric Store <functionName> est actuellement désactivée dans cet environnement.

MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED

SQLSTATE : KD000

La source de données Kafka dans Trigger.AvailableNow doit fournir les mêmes partitions de rubriques dans le décalage pré-extrait jusqu’au décalage de fin pour chaque microlot. L’erreur peut être temporaire : redémarrez votre requête et effectuez un signalement si vous voyez toujours le même problème.

partitions de rubrique pour le décalage pré-éextrait : <tpsForPrefetched>, partitions de rubrique pour le décalage de fin : <tpsForEndOffset>.

MISSING_AGGREGATION

SQLSTATE : 42803

L’expression non agrégative <expression> est basée sur des colonnes qui ne participent pas à la clause GROUP BY.

Ajoutez les colonnes ou l’expression à GROUP BY, agrégez l’expression ou utilisez <expressionAnyValue> si vous ne vous souciez pas des valeurs d’un groupe retournées.

Pour plus d’informations, voir MISSING_AGGREGATION

MISSING_CONNECTION_OPTION

SQLSTATE : 42000

Les connexions de type '<connectionType>' doivent inclure la ou les options suivantes : <requiredOptions>.

MISSING_GROUP_BY

SQLSTATE : 42803

La requête doit inclure une clause GROUP BY. Ajoutez GROUP BY ou transformez-le en fonctions de fenêtre à l’aide des clauses OVER.

MISSING_NAME_FOR_CHECK_CONSTRAINT

SQLSTATE : 42000

La contrainte CHECK doit avoir un nom.

MISSING_PARAMETER_FOR_KAFKA

SQLSTATE: 42KDF

Le paramètre <parameterName> est requis pour Kafka, mais n’est pas spécifié dans <functionName>.

MISSING_PARAMETER_FOR_ROUTINE

SQLSTATE: 42KDF

Le paramètre <parameterName> est requis, mais n’est pas spécifié dans <functionName>.

MISSING_WINDOW_SPECIFICATION

SQLSTATE: 42P20

La spécification de fenêtre n’est pas définie dans la clause WINDOW pour <windowName>. Pour plus d’informations sur les clauses WINDOW, reportez-vous à «<docroot> /sql-ref-syntax-qry-select-window.html ».

MODIFY_BUILTIN_CATALOG

SQLSTATE : 42832

La modification du catalogue intégré <catalogName> n’est pas prise en charge.

MULTIPLE_LOAD_PATH

SQLSTATE : 42000

Databricks Delta ne prend pas en charge plusieurs chemins d’entrée dans l’API load().

chemins : <pathList>. Pour créer un DataFrame unique en chargeant

plusieurs chemins à partir de la même table Delta, chargez le chemin racine de

la table Delta avec les filtres de partition correspondants. Si les multiples chemins

proviennent de tables Delta différentes, utilisez les API union()/unionByName() de Dataset.

pour combiner les DataFrames générés par les appels d’API load() distincts.

MULTIPLE_MATCHING_CONSTRAINTS

SQLSTATE : 42891

Nous avons trouvé au moins deux contraintes correspondantes avec la condition donnée.

MULTIPLE_TIME_TRAVEL_SPEC

SQLSTATE : 42K0E

Impossible de spécifier le voyage dans le temps à la fois dans la clause et dans les options de voyage dans le temps.

MULTIPLE_XML_DATA_SOURCE

SQLSTATE : 42710

Plusieurs sources de données avec le nom <provider> (<sourceNames>) ont été détectées. Spécifiez le nom de classe complet, ou supprimez <externalSource> du classpath.

MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION

SQLSTATE: 42K0E

L’expression <expr> ne prend pas en charge plusieurs sources.

MULTI_UDF_INTERFACE_ERROR

SQLSTATE: 0A000

Non autorisé à implémenter plusieurs interfaces de fonction définie par l’utilisateur, UDF classe <className>.

MUTUALLY_EXCLUSIVE_CLAUSES

SQLSTATE : 42613

Clauses ou options mutuellement exclusives <clauses>. Veuillez supprimer l’une d’entre elles.

MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE

SQLSTATE : 42601

La requête d’entrée attend un <expectedType>, mais le tableau sous-jacente est un <givenType>.

NAMED_PARAMETERS_NOT_SUPPORTED

SQLSTATE : 4274K

Les paramètres nommés ne sont pas pris en charge pour la fonction <functionName> ; réessayez plutôt la requête avec des arguments positionnels pour l’appel de fonction.

NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS

SQLSTATE: 0A000

Impossible d’appeler la fonction <functionName> , car les références d’arguments nommés ne sont pas prises en charge. Dans ce cas, la référence de l’argument nommé était <argument>.

NAMED_PARAMETER_SUPPORT_DISABLED

SQLSTATE: 0A000

Impossible d’appeler la fonction <functionName>, car les références d’arguments nommés ne sont pas activées ici.

Dans ce cas, la référence de l’argument nommé était <argument>.

Définissez « spark.sql.allowNamedFunctionArguments » sur « true » pour activer la fonctionnalité.

NAMESPACE_ALREADY_EXISTS

SQLSTATE : 42000

Impossible de créer l’espace de nom <nameSpaceName> parce qu'il existe déjà.

Choisissez un autre nom, supprimez l’espace de noms existant ou ajoutez la clause IF NOT EXISTS pour tolérer l’espace de noms préexistant.

NAMESPACE_NOT_EMPTY

SQLSTATE : 42000

Impossible de supprimer un espace de nom <nameSpaceNameName>, car il contient des objets.

Utilisez DROP NAMESPACE ... CASCADE pour supprimer l’espace de noms et tous ses objets.

NAMESPACE_NOT_FOUND

SQLSTATE : 42000

L’espace de nom <nameSpaceName> est introuvable. Vérifiez l’orthographe et l’exactitude de l’espace de noms.

Si vous n’avez pas qualifié le nom avec, vérifiez la sortie current_schema() ou qualifiez le nom avec le correctement.

Pour tolérer l’erreur lors de la suppression, utilisez DROP NAMESPACE IF EXISTS.

NATIVE_IO_ERROR

SQLSTATE : KD00F

Échec de la requête native. requestId : , cloud : <requestId><cloud>, opération :<operation>

request : [https : <https>, method = <method>, path = <path>, params = , host = <host><params>, headers = <headers>, bodyLen = ], <bodyLen>

erreur: <error>

NATIVE_XML_DATA_SOURCE_NOT_ENABLED

SQLSTATE : 56038

Native XML Data Source n’est pas activée dans ce cluster.

NESTED_AGGREGATE_FUNCTION

SQLSTATE : 42607

Il n’est pas autorisé à utiliser une fonction d’agrégation dans l’argument d’une autre fonction d’agrégation. Utilisez la fonction d’agrégation interne dans une sous-requête.

NESTED_EXECUTE_IMMEDIATE

SQLSTATE : 07501

Les commandes EXECUTE IMMEDIATE imbriquées ne sont pas autorisées. Vérifiez que la requête SQL fournie (<sqlString>) ne contient pas une autre commande EXECUTE IMMEDIATE.

NONEXISTENT_FIELD_NAME_IN_LIST

SQLSTATE : HV091

Les champs <nonExistFields> n’existent pas. Champs disponibles : <fieldNames>

NON_FOLDABLE_ARGUMENT

SQLSTATE : 42K08

La fonction <funcName> nécessite le paramètre <paramName> pour être une expression pouvant être assemblée de type <paramType>, mais l’argument réel ne peut pas être assemblé.

NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE : 42613

Quand il existe plusieurs clauses MATCHED dans une instruction MERGE, seule la dernière clause MATCHED peut omettre la condition.

NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE : 42613

Quand il existe plusieurs clauses NOT MATCHED BY SOURCE dans une instruction MERGE, seule la dernière clause NOT MATCHED BY SOURCE peut omettre la condition.

NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION

SQLSTATE : 42613

Quand il existe plusieurs clauses NOT MATCHED [BY TARGET] dans une instruction MERGE, seule la dernière clause NOT MATCHED [BY TARGET] peut omettre la condition.

NON_LITERAL_PIVOT_VALUES

SQLSTATE : 42K08

Expressions littérales nécessaires pour les valeurs de tableau croisé dynamique. <expression> trouvé.

NON_PARTITION_COLUMN

SQLSTATE : 42000

La clause PARTITION ne peut pas contenir la colonne non partitionnée : <columnName>.

NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING

SQLSTATE: 42KDE

La fonction Window n’est pas prise en charge dans <windowFunc> (en tant que colonne <columnName>) sur les DataFrames/Datasets de streaming.

Flux structuré prend uniquement en charge l’agrégation de fenêtres de temps à l’aide de la fonction WINDOW. (spécification de fenêtre : <windowSpec>)

NOT_ALLOWED_IN_FROM

SQLSTATE : 42601

Non autorisé dans la clause FROM :

Pour plus d’informations, voir NOT_ALLOWED_IN_FROM

NOT_A_CONSTANT_STRING

SQLSTATE : 42601

L’expression <expr> utilisée pour la routine ou la clause <name> doit être une constante STRING qui n’est PAS NULLE.

Pour plus d’informations, voir NOT_A_CONSTANT_STRING

NOT_A_PARTITIONED_TABLE

SQLSTATE : 42809

L’opération <operation> n’est pas autorisée pour <tableIdentWithDB> car il ne s’agit pas d’une table partitionnée.

NOT_A_SCALAR_FUNCTION

SQLSTATE : 42887

<functionName> apparaît ici en tant qu’expression scalaire, mais la fonction a été définie comme une fonction de table. Mettez à jour la requête pour déplacer l’appel de fonction dans la clause FROM, ou redéfinissez <functionName> en tant que fonction scalaire à la place.

NOT_A_TABLE_FUNCTION

SQLSTATE : 42887

<functionName> apparaît ici en tant qu’expression de table, mais la fonction a été définie comme une fonction scalaire. Mettez à jour la requête pour déplacer l’appel de fonction dans la clause FROM, ou redéfinissez <functionName> en tant que fonction de table à la place.

NOT_NULL_ASSERT_VIOLATION

SQLSTATE : 42000

Valeur NULL apparue dans un champ non-nullable : <walkedTypePath>si le schéma est déduit d’une classe de tuple/cas Scala ou d’un bean Java, essayez d’utiliser scala.Option[_] ou d’autres types pouvant accepter la valeur Null (comme java.lang.Integer plutôt que int/scala.Int).

NOT_NULL_CONSTRAINT_VIOLATION

SQLSTATE : 42000

L’attribution d’une valeur NULL n’est pas autorisée ici.

Pour plus d’informations, voir NOT_NULL_CONSTRAINT_VIOLATION

NOT_SUPPORTED_CHANGE_COLUMN

SQLSTATE: 0A000

ALTER TABLE ALTER/CHANGE COLUMN n’est pas pris en charge pour la modification <table>de la colonne <originName> de type <originType> en <newName> avec le type <newType>.

NOT_SUPPORTED_COMMAND_FOR_V2_TABLE

SQLSTATE: 0A000

<cmd> n’est pas pris en charge pour les tableaux v2.

NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT

SQLSTATE: 0A000

<cmd> n’est pas pris en charge. Si vous souhaitez l’activer, définissez « spark.sql.catalogImplementation » sur « hive ».

NOT_SUPPORTED_IN_JDBC_CATALOG

SQLSTATE: 0A000

Commande non prise en charge dans le catalogue JDBC :

Pour plus d’informations, consultez NOT_SUPPORTED_IN_JDBC_CATALOG

NOT_SUPPORTED_WITH_DB_SQL

SQLSTATE: 0A000

<operation> n’est pas pris en charge sur un SQL <endpoint>.

NOT_SUPPORTED_WITH_SERVERLESS

SQLSTATE: 0A000

<operation> n’est pas pris en charge sur le calcul serverless.

NOT_UNRESOLVED_ENCODER

SQLSTATE : 42601

Encodeur non résolu attendu, mais <attr> a été trouvé.

NO_DEFAULT_COLUMN_VALUE_AVAILABLE

SQLSTATE : 42608

Impossible de déterminer la valeur par défaut pour <colName>, car elle n’est pas nullable et n’a pas de valeur par défaut.

NO_HANDLER_FOR_UDAF

SQLSTATE : 42000

Aucun gestionnaire pour UDAF « <functionName> ». Utilisez plutôt sparkSession.udf.register(...).

NO_MERGE_ACTION_SPECIFIED

SQLSTATE : 42K0E

df.mergeInto doit être suivi d’au moins un whenMatched/whenNotMatched/whenNotMatchedBySource.

NO_PARENT_EXTERNAL_LOCATION_FOR_PATH

SQLSTATE : aucune attribution

Aucun emplacement externe parent n’a été trouvé pour le chemin « <path> ». Créez un emplacement externe sur l’un des chemins parents, puis réessayez la requête ou la commande.

NO_SQL_TYPE_IN_PROTOBUF_SCHEMA

SQLSTATE: 42S22

Impossible de trouver <catalystFieldPath> dans le schéma Protobuf.

NO_STORAGE_LOCATION_FOR_TABLE

SQLSTATE : aucune attribution

Aucun emplacement de stockage n’a été trouvé pour la table « <tableId> » lors de la génération d’informations d’identification de table. Vérifiez le type de table et l’URL de l’emplacement de la table, puis réessayez la requête ou la commande.

NO_SUCH_CATALOG_EXCEPTION

SQLSTATE : aucune attribution

Le catalogue « <catalog> » est introuvable. Vérifiez le nom du catalogue, puis réessayez la requête ou la commande.

NO_SUCH_CLEANROOM_EXCEPTION

SQLSTATE : aucune attribution

Cleam Room « <cleanroom> » n’existe pas. Vérifiez que Cleam Room est orthographié correctement et correspond au nom d’un Cleam Room existant valide, puis réessayez la requête ou la commande.

NO_SUCH_EXTERNAL_LOCATION_EXCEPTION

SQLSTATE : aucune attribution

L’emplacement externe « <externalLocation> » n’existe pas. Vérifiez que le nom de l’emplacement externe est correct, puis réessayez la requête ou la commande.

NO_SUCH_METASTORE_EXCEPTION

SQLSTATE : aucune attribution

Le metastore est introuvable. Demandez à votre administrateur de compte d’affecter un metastore à l’espace de travail actuel, puis réessayez la requête ou la commande.

NO_SUCH_PROVIDER_EXCEPTION

SQLSTATE : aucune attribution

Le fournisseur de partage « <providerName> » n’existe pas. Vérifiez que le nom du fournisseur de partage est correctement orthographié et correspond au nom d’un fournisseur existant valide, puis réessayez la requête ou la commande.

NO_SUCH_RECIPIENT_EXCEPTION

SQLSTATE : aucune attribution

Le destinataire « <recipient> » n’existe pas. Vérifiez que le nom du destinataire est correctement orthographié et correspond au nom d’un destinataire existant valide, puis réessayez la requête ou la commande.

NO_SUCH_SHARE_EXCEPTION

SQLSTATE : aucune attribution

Le partage « <share> » n’existe pas. Vérifiez que le nom du partage est orthographié correctement et correspond au nom d’un partage existant valide, puis réessayez la requête ou la commande.

NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION

SQLSTATE : aucune attribution

Les informations d’identification de stockage « <storageCredential> » n’existent pas. Vérifiez que le nom des informations d’identification de stockage est correctement orthographié et correspond au nom d’informations d’identification de stockage existantes valides, puis réessayez la requête ou la commande.

NO_SUCH_USER_EXCEPTION

SQLSTATE : aucune attribution

L’utilisateur « <userName> » n’existe pas. Vérifiez que l’utilisateur auquel vous accordez l’autorisation ou pour lequel vous modifiez la propriété est correctement orthographié et correspond au nom d’un utilisateur existant valide, puis réessayez la requête ou la commande.

NO_UDF_INTERFACE

SQLSTATE : 38000

La classe UDF <className> n’implémente pas d’interface UDF.

NULLABLE_COLUMN_OR_FIELD

SQLSTATE : 42000

La colonne ou le champ <name> est annulable alors que sa valeur devrait être non annulable.

NULLABLE_ROW_ID_ATTRIBUTES

SQLSTATE : 42000

Les attributs de l'ID de ligne ne peuvent pas être annulables : <nullableRowIdAttrs>.

NULL_DATA_SOURCE_OPTION

SQLSTATE : 22024

L’option <option> de lecture/écriture de la source de données ne peut pas avoir de valeur Null.

NULL_MAP_KEY

SQLSTATE : 2200E

Impossible d’utiliser null comme clé de carte.

NULL_QUERY_STRING_EXECUTE_IMMEDIATE

SQLSTATE : 22004

L’exécution immédiate nécessite une variable non-null comme chaîne de requête, mais la variable <varName> fournie est null.

NUMERIC_OUT_OF_SUPPORTED_RANGE

SQLSTATE : 22003

La valeur <value> ne peut pas être interprétée comme numérique, car elle comporte plus de 38 chiffres.

NUMERIC_VALUE_OUT_OF_RANGE

SQLSTATE : 22003

Pour plus d’informations, consultez NUMERIC_VALUE_OUT_OF_RANGE

NUM_COLUMNS_MISMATCH

SQLSTATE : 42826

<operator>ne peut être effectué que sur les entrées avec le même nombre de colonnes, mais la première entrée comporte <firstNumColumns> colonnes et l’entrée <invalidOrdinalNum> a <invalidNumColumns> colonnes.

NUM_TABLE_VALUE_ALIASES_MISMATCH

SQLSTATE : 42826

Le nombre d’alias donnés ne correspond pas au nombre de colonnes de sortie.

Nom de la fonction : <funcName>; nombre d’alias : <aliasesNum>; nombre de colonnes de sortie : <outColsNum>.

OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED

SQLSTATE : 22KD2

Aucune revendication d’identité personnalisée n’a été fournie.

ONLY_SECRET_FUNCTION_SUPPORTED_HERE

SQLSTATE: 42K0E

La fonction d’appel <functionName> n’est pas prise en charge dans ce <location>; <supportedFunctions> prise en charge ici.

ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR

SQLSTATE: 0A000

L’opération SQL <operation> n’est prise en charge que sur les connecteurs Databricks SQL avec prise en charge de Unity Catalog.

OPERATION_CANCELED

SQLSTATE: HY008

L'opération a été annulée.

OPERATION_REQUIRES_UNITY_CATALOG

SQLSTATE : 0AKUD

L’opération <operation> nécessite l’activation de Unity Catalog.

OP_NOT_SUPPORTED_READ_ONLY

SQLSTATE : 42KD1

<plan> n’est pas pris en charge en mode Session en lecture seule.

ORDER_BY_POS_OUT_OF_RANGE

SQLSTATE : 42805

La position <index>ORDER BY n’est pas dans la liste de sélection (plage valide est [1, <size>]).

PARQUET_CONVERSION_FAILURE

SQLSTATE : 42846

Impossible de créer un convertisseur Parquet pour le type <dataType> de données dont le type Parquet est <parquetType>.

Pour plus d’informations, consultez PARQUET_CONVERSION_FAILURE

PARSE_EMPTY_STATEMENT

SQLSTATE : 42617

Erreur de syntaxe, instruction vide inattendue.

PARSE_SYNTAX_ERROR

SQLSTATE : 42601

Erreur de syntaxe au niveau ou à proximité de <error> <hint>.

PARTITIONS_ALREADY_EXIST

SQLSTATE : 428FT

Impossible d’AJOUTER ou de RENOMMER des partitions <partitionList> dans la table <tableName>, car elles existent déjà.

Choisissez un autre nom, supprimez la partition existante ou ajoutez la clause IF NOT EXISTS pour tolérer une partition préexistante.

PARTITIONS_NOT_FOUND

SQLSTATE : 428FT

La ou les partitions <partitionList> sont introuvables dans la table <tableName>.

Vérifiez la spécification de la partition et le nom de la table.

Pour tolérer l’erreur lors de la suppression, utilisez ALTER TABLE ... DROP IF EXISTS PARTITION.

PARTITION_LOCATION_ALREADY_EXISTS

SQLSTATE : 42K04

L’emplacement de partition <locationPath> existe déjà dans la table <tableName>.

PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY

SQLSTATE : 42KD5

Échec de l’exécution de l’instruction ALTER TABLE SET PARTITION LOCATION, car

l’emplacement de partition <location> n’est pas sous le répertoire de table <table>.

Pour corriger cette erreur, définissez l’emplacement de la partition sur un sous-répertoire de <table>.

PARTITION_METADATA

SQLSTATE : 0AKUC

<action> n’est pas autorisé sur la table <tableName>, car le stockage des métadonnées de partition n’est pas pris en charge dans Unity Catalog.

PATH_ALREADY_EXISTS

SQLSTATE : 42K04

Le chemin <outputPath> existe déjà. Définissez le mode sur « écraser » pour remplacer le chemin d’accès existant.

PATH_NOT_FOUND

SQLSTATE : 42K03

Le chemin d’accès n’existe pas : <path>.

PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION

SQLSTATE: 0A000

La fonction <expr> d’agrégation n’est pas autorisée lors de l’utilisation de l’opérateur de canal |> CLAUSE SELECT ; utilisez l’opérateur de canal |> Clause AGGREGATE à la place

PIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE : 42K09

Valeur pivot « <value> » invalide : le type de données de la valeur <valueType> ne correspond pas au type de données de la colonne pivot <pivotType>.

PROCEDURE_ARGUMENT_NUMBER_MISMATCH

SQLSTATE : 42605

La procédure <procedureName> attend des arguments <expected> , mais <actual> ont été fournis.

PROCEDURE_CREATION_EMPTY_ROUTINE

SQLSTATE: 0A000

CREATE PROCEDURE avec une définition de routine vide n’est pas autorisé.

PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT

SQLSTATE : 42601

Le paramètre <parameterName> est défini avec le mode de paramètre <parameterMode>. Le paramètre OUT et INOUT ne peut pas être omis lors de l’appel d’une routine et, de ce fait, ne prend pas en charge une expression DEFAULT. Pour continuer, supprimez la clause DEFAULT ou remplacez le mode de paramètre par IN.

PROCEDURE_NOT_SUPPORTED

SQLSTATE: 0A000

Le procédure stockée n’est pas prise en charge

PROCEDURE_NOT_SUPPORTED_WITH_HMS

SQLSTATE: 0A000

La procédure stockée n’est pas prise en charge avec le metastore Hive. Utilisez plutôt Unity Catalog.

PROTOBUF_DEPENDENCY_NOT_FOUND

SQLSTATE: 42K0G

Impossible de trouver la dépendance : <dependencyName>.

PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND

SQLSTATE: 42K0G

Erreur lors de la lecture du fichier de descripteur Protobuf au niveau du chemin d’accès : <filePath>.

PROTOBUF_FIELD_MISSING

SQLSTATE: 42K0G

La recherche de <field> dans le schéma Protobuf à <protobufSchema> a donné <matchSize> correspondances. Candidats : <matches>.

PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA

SQLSTATE: 42K0G

Trouvé <field> dans le schéma Protobuf, mais il n’y a aucune correspondance dans le schéma SQL.

PROTOBUF_FIELD_TYPE_MISMATCH

SQLSTATE: 42K0G

Incompatibilité de type rencontrée pour le champ : <field>.

PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED

SQLSTATE: 0A000

Les classes Java ne sont pas prises en charge pour <protobufFunction>. Contactez le support Databricks pour connaître les autres options.

PROTOBUF_MESSAGE_NOT_FOUND

SQLSTATE: 42K0G

Impossible de localiser le message <messageName> dans le descripteur.

PROTOBUF_TYPE_NOT_SUPPORT

SQLSTATE: 42K0G

Type Protobuf non encore pris en charge : <protobufType>.

PS_FETCH_RETRY_EXCEPTION

SQLSTATE : 22000

Impossible de réessayer la tâche de l’étape d’extraction pubsub. Partition <partitionInfo> dans l’étape <stageInfo>, TID <taskId>.

PS_INVALID_EMPTY_OPTION

SQLSTATE : 42000

<key> ne peut pas être une chaîne vide.

PS_INVALID_KEY_TYPE

SQLSTATE : 22000

Type de clé non valide pour PubSub dedup : <key>.

PS_INVALID_OPTION

SQLSTATE : 42000

L’option <key> n’est pas prise en charge par PubSub. Il ne peut être utilisé qu’en test.

PS_INVALID_OPTION_TYPE

SQLSTATE : 42000

Type non valide pour <key>. Type attendu de <key> à type <type>.

PS_INVALID_READ_LIMIT

SQLSTATE : 42000

Limite de lecture non valide sur le flux PubSub : <limit>.

PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO

SQLSTATE : 22000

Non valide UnsafeRow à décoder en PubSubMessageMetadata, le schéma proto souhaité est : <protoSchema>. L’entrée UnsafeRow peut être endommagée : <unsafeRow>.

PS_MISSING_AUTH_INFO

SQLSTATE : 42000

Impossible de trouver les informations d’authentification PubSub complètes.

PS_MISSING_REQUIRED_OPTION

SQLSTATE : 42000

Impossible de trouver l'option requise : <key>.

PS_MOVING_CHECKPOINT_FAILURE

SQLSTATE : 22000

Impossible de déplacer les fichiers de point de contrôle de données brutes à partir de <src> vers le répertoire de destination : <dest>.

PS_MULTIPLE_FAILED_EPOCHS

SQLSTATE : 22000

Impossible de démarrer le flux PubSub, car il y a plusieurs échecs d’extraction : <failedEpochs>.

PS_OPTION_NOT_IN_BOUNDS

SQLSTATE : 22000

<key> doit être dans les limites suivantes (<min>, <max>) exclusives des deux limites.

PS_PROVIDE_CREDENTIALS_WITH_OPTION

SQLSTATE : 42000

Les clusters partagés ne prennent pas en charge l’authentification avec des profils instance. Fournissez des informations d’identification au flux directement à l’aide de .option().

PS_SPARK_SPECULATION_NOT_SUPPORTED

SQLSTATE: 0A000

Le connecteur source PubSub est uniquement disponible dans le cluster avec spark.speculation désactivé.

PS_UNABLE_TO_CREATE_SUBSCRIPTION

SQLSTATE : 42000

Une erreur s’est produite lors de la tentative de création de l’abonnement <subId> sur la rubrique <topicId>. Veuillez vérifier qu’il existe suffisamment d’autorisations pour créer un abonnement et réessayez.

PS_UNABLE_TO_PARSE_PROTO

SQLSTATE : 22000

Impossible d’analyser les octets sérialisés pour générer le proto.

PS_UNSUPPORTED_GET_OFFSET_CALL

SQLSTATE: 0A000

getOffset n’est pas pris en charge sans fournir une limite.

PYTHON_DATA_SOURCE_ERROR

SQLSTATE : 38000

Échec de l’<action> sur le <type> de source de données Python : <msg>

PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR

SQLSTATE : 38000

Échec lors de l’exécution de la source de données de streaming Python <action> : <msg>

QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

SQLSTATE : 428HD

Impossible d’accéder au tableau référencé, car un masque de colonne précédemment attribué est actuellement incompatible avec le schéma du tableau ; pour continuer, veuillez contacte le propriétaire du tableau pour mettre à jour la stratégie :

Pour plus de détails, voir QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY

QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

SQLSTATE : 428HD

Impossible d’accéder au tableau référencé, car une stratégie de sécurité au niveau des lignes précédemment attribué est actuellement incompatible avec le schéma du tableau. Pour continuer, contactez le propriétaire du tableau pour mettre à jour la stratégie :

Pour plus de détails, voir QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY

READ_CURRENT_FILE_NOT_FOUND

SQLSTATE : 42K03

<message>

Il est possible que les fichiers sous-jacents aient été mis à jour . Vous pouvez invalider explicitement le cache dans Spark en exécutant la commande « REFRESH TABLE tableName » dans SQL ou en recréant les DataSet/DataFrame impliqués.

READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS

SQLSTATE : 4274K

L’appel de la fonction <functionName> a donné<parameterName> et défini<alternativeName>, qui sont des alias. Définissez un seul de ceux-ci.

READ_TVF_UNEXPECTED_REQUIRED_PARAMETER

SQLSTATE : 4274K

Le paramètre <parameterName> de fonction <functionName> requis doit être affecté à la position <expectedPos> sans le nom.

RECIPIENT_EXPIRATION_NOT_SUPPORTED

SQLSTATE: 0A000

Seuls les types TIMESTAMP/TIMESTAMP_LTZ/TIMESTAMP_NTZ sont pris en charge pour l’horodatage d’expiration du destinataire.

RECURSIVE_PROTOBUF_SCHEMA

SQLSTATE: 42K0G

Référence récursive trouvée dans le schéma Protobuf, qui ne peut pas être traitée par Spark par défaut : <fieldDescriptor>. Essayez de définir l’option recursive.fields.max.depth 1 à 10. Il n’est pas autorisé d’aller au-delà de 10 niveaux de récursivité.

RECURSIVE_VIEW

SQLSTATE: 42K0H

Affichage <viewIdent> récursif détecté (cycle : <newPath>).

REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION

SQLSTATE : 42601

Les références aux valeurs de colonne DEFAULT ne sont pas autorisées dans la clause PARTITION.

RELATION_LARGER_THAN_8G

SQLSTATE : 54000

Impossible de générer un <relationName> supérieur à 8G.

REMOTE_FUNCTION_HTTP_FAILED_ERROR

SQLSTATE : 57012

Échec de la requête HTTP distante avec le code <errorCode>et le message d’erreur <errorMessage>

REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR

SQLSTATE : 22032

Échec de l’évaluation de la fonction SQL <functionName> en raison de l’incapacité à analyser le résultat JSON de la réponse HTTP distante ; le message d’erreur est <errorMessage>. Consultez la documentation de l’API : <docUrl>. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.

REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR

SQLSTATE : 57012

Échec de l’évaluation de la fonction SQL <functionName> en raison de l’incapacité à traiter la réponse HTTP distante inattendue ; le message d’erreur est <errorMessage>. Consultez la documentation de l’API : <docUrl>. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.

REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT

SQLSTATE : 57012

La requête distante a échoué après <N> nouvelles tentatives ; le dernier code d’erreur HTTP ayant échoué était <errorCode> et le message était <errorMessage>

REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR

SQLSTATE : 57012

Échec de l’évaluation de la fonction SQL <functionName>, car <errorMessage>. Vérifiez les conditions requises dans <docUrl>. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.

RENAME_SRC_PATH_NOT_FOUND

SQLSTATE : 42K03

Échec du changement de nom, car <sourcePath> n’a pas été trouvé.

REPEATED_CLAUSE

SQLSTATE : 42614

La clause <clause> peut être utilisée au maximum une fois toutes les <operation> opérations.

REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY

SQLSTATE : 4274K

Le paramètre requis <parameterName> de la fonction <functionName> a été affecté à la position <positionalIndex> sans le nom.

Mettez à jour l’appel de fonction pour supprimer l’argument nommé avec <parameterName> pour ce paramètre ou supprimer l’argument

positionnel à <positionalIndex>, puis réessayez la requête.

REQUIRED_PARAMETER_NOT_FOUND

SQLSTATE : 4274K

Impossible d’appeler la fonction <functionName>, car le paramètre nommé <parameterName> est obligatoire, mais l’appel de fonction n’a pas fourni de valeur. Mettez à jour l’appel de fonction pour fournir une valeur d’argument (position à l’index <index> ou par nom) et réessayez la requête.

REQUIRES_SINGLE_PART_NAMESPACE

SQLSTATE : 42K05

<sessionCatalog> nécessite un espace de nom à partie unique, mais a obtenu <namespace>.

RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT

SQLSTATE : 4274K

L’option lecteur de l’API DataFrame « rescuedDataColumn » s’exclue mutuellement avec l’option API DataFrame « singleVariantColumn ».

Supprimez l’une d’entre elles, puis réessayez l’opération DataFrame.

RESERVED_CDC_COLUMNS_ON_WRITE

SQLSTATE : 42939

L’écriture contient des colonnes <columnList> réservées qui sont utilisées

en interne en tant que métadonnées pour le flux des changements de données. Pour écrire dans la table, renommez/supprimez

ces colonnes ou désactivez le flux des changements de données sur la table en attribuant à

<config> est faux.

RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED

SQLSTATE: 0A000

L’option <option> a des valeurs restreintes sur les clusters partagés pour la source <source>.

Pour plus d’informations, consultez RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.

ROUTINE_ALREADY_EXISTS

SQLSTATE : 42723

Impossible de créer le <newRoutineType> <routineName> nom, car il existe déjà un <existingRoutineType> nom.

Choisissez un autre nom, déposez ou remplacez l’existant <existingRoutineType>, ou ajoutez la clause IF NOT EXISTS pour tolérer une clause préexistante <newRoutineType>.

ROUTINE_NOT_FOUND

SQLSTATE : 42883

La routine <routineName> est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un schéma et un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.

Pour tolérer l’erreur lors de la suppression, utilisez DROP … IF EXISTS.

ROUTINE_PARAMETER_NOT_FOUND

SQLSTATE : 42000

La fonction <functionName> ne prend pas en charge le paramètre <parameterName> spécifié à la position <pos>.<suggestion>

ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME

SQLSTATE : 42939

Impossible de créer la fonction <routineName>, car le nom de classe «<className> » spécifié est réservé à l’utilisation du système. Renommez la classe et réessayez.

ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED

SQLSTATE: 0A000

La création d’une contrainte CHECK sur une table <tableName> avec des stratégies de masque de colonne n’est pas prise en charge.

ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME

SQLSTATE : 42734

Une instruction <statementType> a tenté d’affecter une stratégie de sécurité au niveau des lignes à un tableau, mais au moins deux colonnes référencées portaient le même nom <columnName>, ce qui n’est pas valide.

ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

SQLSTATE: 0A000

Les stratégies de sécurité au niveau des lignes pour <tableName> ne sont pas prises en charge :

Pour plus d’informations, voir ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED

ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE: 0A000

Impossible de <statementType> <columnName> à partir de la table <tableName>, car elle est référencée dans une politique de sécurité au niveau des lignes. Le propriétaire de la table doit supprimer ou modifier cette stratégie avant de continuer.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE

SQLSTATE: 0A000

Les opérations MERGE INTO ne prennent pas en charge les stratégies de sécurité au niveau des lignes dans le tableau source <tableName>.

ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET

SQLSTATE: 0A000

Les opérations MERGE INTO ne prennent pas en charge l’écriture dans un tableau <tableName> avec des stratégies de sécurité au niveau des lignes.

ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME

SQLSTATE : 42K05

Cette instruction a tenté d’affecter une stratégie de sécurité au niveau des lignes à un tableau, mais la colonne référencée <columnName> avait plusieurs parties de nom, ce qui n’est pas valide.

ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG

SQLSTATE: 0A000

Les stratégies de sécurité au niveau des lignes sont uniquement prises en charge dans Unity Catalog.

ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED

SQLSTATE: 0A000

Le clonage <mode> à partir d’une table <tableName> avec une stratégie de sécurité au niveau des lignes n’est pas pris en charge.

ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED

SQLSTATE: 0A000

Le clonage <mode> vers une table <tableName> avec une stratégie de sécurité au niveau des lignes n’est pas pris en charge.

ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER

SQLSTATE : 0AKD1

L’utilisation d’une constante en tant que paramètre dans une stratégie de sécurité au niveau des lignes n’est pas prise en charge. Mettez à jour votre commande SQL pour supprimer la constante de la définition du filtre de ligne, puis réessayez la commande.

ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER

SQLSTATE: 0A000

Échec de l’exécution de la commande <statementType>, car l’affectation des stratégies de sécurité au niveau des lignes.n’est pas prise en charge pour la source de données cible avec le fournisseur de tableau : « <provider> ».

ROW_SUBQUERY_TOO_MANY_ROWS

SQLSTATE : 21000

Plus d'une ligne renvoyée par une sous-requête utilisée comme une ligne.

ROW_VALUE_IS_NULL

SQLSTATE : 22023

Trouvé NULL dans une ligne à l’index <index>, attendait une valeur non NULL.

RULE_ID_NOT_FOUND

SQLSTATE : 22023

Id introuvable pour le nom de la règle «<ruleName> ». Modifiez RuleIdCollection.scala si vous ajoutez une nouvelle règle.

SAMPLE_TABLE_PERMISSIONS

SQLSTATE : 42832

Autorisations non prises en charge sur les exemples de bases de données ou de tables.

SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION

SQLSTATE: 0A000

La sous-requête scalaire corrélée '<sqlExpr>' n’est présente ni dans GROUP BY, ni dans une fonction d’agrégation.

Ajoutez-le à GROUP BY à l’aide de la position ordinale ou encapsulez-le dans first() (ou first_value) si vous ne vous souciez pas de la valeur que vous obtenez.

SCALAR_SUBQUERY_TOO_MANY_ROWS

SQLSTATE : 21000

Plusieurs lignes retournées par une sous-requête utilisée comme expression.

SCHEDULE_PERIOD_INVALID

SQLSTATE : 22003

La période de <timeUnit> planification doit être une valeur entière comprise entre 1 et <upperBound> (inclus). Reçu : <actual>.

SCHEMA_ALREADY_EXISTS

SQLSTATE : 42P06

Impossible de créer le schéma <schemaName> parce qu'il existe déjà.

Choisissez un autre nom, supprimez le schéma existant ou ajoutez la clause IF NOT EXISTS pour tolérer un schéma préexistant.

SCHEMA_NOT_EMPTY

SQLSTATE : 2BP01

Impossible de supprimer un schéma <schemaName>, car il contient des objets.

Utiliser DROP SCHEMA ... CASCADE pour supprimer le schéma et tous ses objets.

SCHEMA_NOT_FOUND

SQLSTATE : 42704

Le schéma <schemaName> est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le catalogue approprié.

Pour tolérer l’erreur lors de la suppression, utilisez DROP SCHEMA IF EXISTS.

SCHEMA_REGISTRY_CONFIGURATION_ERROR

SQLSTATE: 42K0G

Impossible d’initialiser le schéma du Registre de schémas. <reason>.

SECOND_FUNCTION_ARGUMENT_NOT_INTEGER

SQLSTATE : 22023

Le deuxième élément de la fonction <functionName> doit être un entier.

SECRET_FUNCTION_INVALID_LOCATION

SQLSTATE: 42K0E

Impossible d’exécuter la commande <commandType> avec une ou plusieurs références non chiffrées à la fonction SECRET ; chiffrez le résultat de chaque appel de fonction avec AES_ENCRYPT et réessayez la commande

SEED_EXPRESSION_IS_UNFOLDABLE

SQLSTATE : 42K08

L’expression seed <seedExpr> de l’expression <exprWithSeed> doit être pliable.

SERVER_IS_BUSY

SQLSTATE: 08KD1

Le serveur est occupé et n’a pas pu gérer la requête. Patientez quelques minutes, puis réessayez.

SORT_BY_WITHOUT_BUCKETING

SQLSTATE : 42601

sortBy doit être utilisé avec bucketBy.

SPARK_JOB_CANCELLED

SQLSTATE: HY008

Travail <jobId> annulé <reason>

SPECIFY_BUCKETING_IS_NOT_ALLOWED

SQLSTATE : 42601

Un CREATE TABLE sans liste de colonnes explicite ne peut pas spécifier d’informations de compartimentage.

Utilisez le formulaire avec une liste de colonnes explicite et spécifiez les informations de compartimentage.

Vous pouvez également déduire les informations de compartimentage en omettant la clause.

SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED

SQLSTATE : 42908

Impossible de spécifier à la fois CLUSTER BY et CLUSTERED BY INTO BUCKETS.

SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED

SQLSTATE : 42908

Impossible de spécifier à la fois CLUSTER BY et PARTITIONED BY.

SPECIFY_PARTITION_IS_NOT_ALLOWED

SQLSTATE : 42601

Un CREATE TABLE sans liste de colonnes explicite ne peut pas spécifier de PARTITIONED BY.

Utilisez le formulaire avec une liste de colonnes explicite et spécifiez le PARTITIONED BY.

Vous pouvez également autoriser la déduction de partitionnement en omettant la clause PARTITION BY.

SQL_CONF_NOT_FOUND

SQLSTATE : 42K0I

La configuration <sqlConf> SQL est introuvable. Vérifiez que la configuration existe.

STAGING_PATH_CURRENTLY_INACCESSIBLE

SQLSTATE : 22000

Erreur temporaire lors de l’accès au chemin d’accès intermédiaire cible <path>, réessayez dans quelques minutes

STAR_GROUP_BY_POS

SQLSTATE: 0A000

L’étoile (*) n’est pas autorisée dans une liste de sélection lorsque GROUP BY une position ordinale est utilisée.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE

SQLSTATE : 42802

Échec de l’exécution d’une opération de processeur avec état=<operationType> avec état descripteur=<handleState> incorrect.

STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE

SQLSTATE : 42802

Échec de l’exécution d’une opération de processeur avec état=<operationType> avec timeMode=<timeMode> non valide

STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY

SQLSTATE : 42710

Impossible de réinitialiser l’état sur la même clé de regroupement pendant la gestion de l’état initial pour le processeur avec état. Clé de regroupement incorrecte=<groupingKey>. Vérifiez votre état initial, supprimez les lignes dupliquées et redémarrez la requête.

STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED

SQLSTATE : 42802

La variable d’état portant le nom <stateVarName> a déjà été définie dans StatefulProcessor.

STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL

SQLSTATE : 42802

Impossible d’utiliser la durée de vie pour état=<stateName> dans timeMode=<timeMode>, utilisez TimeMode.ProcessingTime() à la place.

STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE

SQLSTATE : 42802

La durée de vie doit être supérieure à zéro pour l’opération de magasin d’état=<operationType> sur état=<stateName>.

STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE

SQLSTATE : 42802

Mode <timeMode>de temps inconnu . Les modes timeMode acceptés sont « none », « processingTime », « eventTime »

STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS

SQLSTATE : 42802

Impossible de créer une famille de colonnes avec un caractère de départ et un nom=<colFamilyName> non pris en charge.

STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME

SQLSTATE : 42802

Échec de l’exécution de l’opération de famille de colonnes=<operationName> avec nom=<colFamilyName> incorrect. Le nom de la famille de colonnes ne peut pas être vide ou inclure des espaces de début/fin, ou utiliser le mot clé réservé=default

STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE

SQLSTATE : 42802

Transformation de schéma incompatible avec column family=<colFamilyName>, oldSchema=<oldSchema>, newSchema=<newSchema>.

STATE_STORE_HANDLE_NOT_INITIALIZED

SQLSTATE : 42802

Le descripteur n’a pas été initialisé pour ce StatefulProcessor.

Utilisez uniquement le StatefulProcessor dans l’opérateur transformWithState.

STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN

SQLSTATE : 42802

Nombre incorrect d’ordinaux de classement=<numOrderingCols> pour l’encodeur d’analyse de plage. Le nombre d’ordinaux de classement ne peut pas être égal à zéro ou supérieur au nombre de colonnes de schéma.

STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN

SQLSTATE : 42802

Nombre incorrect de colonnes de préfixe=<numPrefixCols> pour l’encodeur d’analyse de préfixe. Les colonnes de préfixe ne peuvent pas être zéro ou supérieures ou égales au nombre de colonnes du schéma.

STATE_STORE_INVALID_CONFIG_AFTER_RESTART

SQLSTATE : 42K06

Impossible de passer <configName> d’un <oldConfig> redémarrage à l’autre <newConfig> . <configName> Définissez la <oldConfig>valeur , ou redémarrez avec un nouveau répertoire de point de contrôle.

STATE_STORE_INVALID_PROVIDER

SQLSTATE : 42K06

Le fournisseur de magasin d’état <inputClass> donné ne permet pas d’étendre org.apache.spark.sql.execution.streaming.state.StateStoreProvider.

STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE

SQLSTATE : 42K06

Impossible de passer <stateVarName> d’un redémarrage de la requête à l’autre <newType> . <stateVarName> Définissez la <oldType>valeur , ou redémarrez avec un nouveau répertoire de point de contrôle.

STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE : 42802

La colonne de classement de type Null avec nom=<fieldName> à l’index=<index> n’est pas prise en charge pour l’encodeur d’analyse de plage.

STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY

SQLSTATE : 42K06

Le fournisseur de magasin d’état <inputClass> donné ne permet pas d’étendre org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.

Par conséquent, elle ne prend pas en charge l’option snapshotStartBatchId ou readChangeFeed dans la source de données d’état.

STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY

SQLSTATE : 42802

Opération de magasin d’état =<operationType> non prise en charge sur la famille de colonnes manquante=<colFamilyName>.

STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED

SQLSTATE : 42802

La colonne de classement de taille variable avec nom=<fieldName> à l’index=<index> n’est pas prise en charge pour l’encodeur d’analyse de plage.

STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST

SQLSTATE: 42713

La colonne de partition statique <staticName> est également spécifiée dans la liste des colonnes.

STDS_COMMITTED_BATCH_UNAVAILABLE

SQLSTATE : KD006

Aucun lot validé trouvé, emplacement de point de contrôle : <checkpointLocation>. Vérifiez que la requête a été exécutée et a validé un micro-lot avant de s’arrêter.

STDS_CONFLICT_OPTIONS

SQLSTATE : 42613

Les options <options> ne peuvent pas être spécifiées ensemble. Spécifiez-en une seule.

STDS_FAILED_TO_READ_OPERATOR_METADATA

SQLSTATE : 42K03

Échec de lecture des métadonnées de l’opérateur pour checkpointLocation=<checkpointLocation> et batchId=<batchId>.

Le fichier n’existe pas ou il est endommagé.

Réexécutez la requête de diffusion en continu pour construire les métadonnées de l’opérateur et signalez aux communautés ou fournisseurs correspondants si l’erreur persiste.

STDS_FAILED_TO_READ_STATE_SCHEMA

SQLSTATE : 42K03

Échec de la lecture du schéma d’état. Le fichier n’existe pas ou il est endommagé. Options : <sourceOptions>.

Réexécutez la requête de diffusion en continu pour construire le schéma d’état, et informez les communautés ou fournisseurs concernés si l’erreur persiste.

STDS_INVALID_OPTION_VALUE

SQLSTATE : 42616

Valeur non valide pour l’option source « <optionName> » :

Pour plus d’informations, consultez STDS_INVALID_OPTION_VALUE.

STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE

SQLSTATE : KD006

L’état n’a aucune partition. Vérifiez que la requête pointe vers l’état valide. Options : <sourceOptions>.

STDS_OFFSET_LOG_UNAVAILABLE

SQLSTATE : KD006

Le journal de décalage pour <batchId> n’existe pas, emplacement de point de contrôle : <checkpointLocation>.

Spécifiez l’ID de lot disponible pour l’interrogation. Vous pouvez interroger les ID de lot disponibles à l’aide de la source de données de métadonnées d’état.

STDS_OFFSET_METADATA_LOG_UNAVAILABLE

SQLSTATE : KD006

Les métadonnées ne sont pas disponibles pour le journal de décalage pour <batchId>, emplacement de point de contrôle : <checkpointLocation>.

Le point de contrôle semble être exécuté uniquement avec d’anciennes versions de Spark. Exécutez la requête de diffusion en continu avec la version Spark la plus récente, afin que Spark construise les métadonnées d’état.

STDS_REQUIRED_OPTION_UNSPECIFIED

SQLSTATE : 42601

« <optionName> » doit être spécifié.

STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS

SQLSTATE: 0A000

L’exécution de requête adaptative n’est pas prise en charge pour les opérateurs avec état dans Structured Streaming.

STREAMING_FROM_MATERIALIZED_VIEW

SQLSTATE: 0A000

Impossible de diffuser en continu à partir d’une vue <viewName>matérialisée . La diffusion en continu à partir de vues matérialisées n’est pas prise en charge.

STREAMING_OUTPUT_MODE

SQLSTATE: 42KDE

Mode de sortie de streaming non valide : <outputMode>.

Pour plus d’informations, consultez STREAMING_OUTPUT_MODE

STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA

SQLSTATE : 42K03

Le nom de l’opérateur avec état de streaming ne correspond pas à l’opérateur dans les métadonnées d’état. Cela se produit probablement lorsque l’utilisateur ajoute/supprime/modifie l’opérateur avec état de la requête de diffusion en continu existante.

Opérateurs avec état dans les métadonnées : [<OpsInMetadataSeq>] ; Opérateurs avec état dans le lot actuel : [<OpsInCurBatchSeq>].

STREAMING_TABLE_NEEDS_REFRESH

SQLSTATE : 55019

La table <tableName> de diffusion en continu doit être actualisée pour s’exécuter <operation>. Exécutez CREATE OR REFRESH STREAMING TABLE <tableName>pour actualiser le tableau.

STREAMING_TABLE_NOT_SUPPORTED

SQLSTATE : 56038

Les tables de diffusion en continu ne peuvent être créées et actualisées que dans les tables Delta Live Tables et Databricks SQL Warehouses.

STREAMING_TABLE_OPERATION_NOT_ALLOWED

SQLSTATE : 42601

L’opération <operation> n’est pas autorisée :

Pour plus de détails, voir STREAMING_TABLE_OPERATION_NOT_ALLOWED

STREAMING_TABLE_QUERY_INVALID

SQLSTATE : 42000

La table <tableName> de streaming ne peut être créée qu’à partir d’une requête de streaming. Ajoutez le mot clé STREAM à votre clause FROM pour transformer cette relation en requête de streaming.

STREAM_NOT_FOUND_FOR_KINESIS_SOURCE

SQLSTATE : 42K02

Flux Kinesis <streamName> dans <region> introuvable.

Veuillez démarrer une nouvelle requête pointant vers le nom de flux de diffusion correct.

STRUCT_ARRAY_LENGTH_MISMATCH

SQLSTATE : 2201E

La ligne d’entrée n’a pas le nombre attendu de valeurs requises par le schéma. Les champs <expected> sont obligatoires alors que les valeurs <actual> sont fournies.

SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT

SQLSTATE : 22003

La somme de la clause LIMIT et de la clause OFFSET ne doit pas être supérieure à la valeur entière maximale de 32 bits (2 147 483 647), mais la limite trouvée = <limit>, offset = <offset>.

SYNC_METADATA_DELTA_ONLY

SQLSTATE : 0AKDD

La commande de métadonnées de synchronisation de table est prise en charge uniquement pour les tables delta.

SYNC_METADATA_NOT_SUPPORTED

SQLSTATE : 0AKUD

La commande de métadonnées de synchronisation de table est prise en charge uniquement pour les tables Unity Catalog.

SYNC_SRC_TARGET_TBL_NOT_SAME

SQLSTATE : 42KD2

Le nom de la table source <srcTable> doit être identique à celui de la table de destination <destTable>.

SYNTAX_DISCONTINUED

SQLSTATE : 42601

Prise en charge de la clause ou du mot clé : <clause> a été abandonné dans ce contexte.

Pour plus d’informations, consultez SYNTAX_DISCONTINUED

TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE : 42P07

Impossible de créer une table ou une vue <relationName>, car elle existe déjà.

Choisissez un autre nom, supprimez l’objet existant, ajoutez la clause IF NOT EXISTS pour tolérer les objets préexistants, ajoutez la clause OR REPLACE pour remplacer la vue matérialisée existante ou ajoutez la clause OR REFRESH pour actualiser la table de streaming existante.

TABLE_OR_VIEW_NOT_FOUND

SQLSTATE : 42P01

La table ou la vue <relationName> est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un schéma, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.

Pour tolérer l’erreur lors de la suppression, utilisez DROP VIEW IF EXISTS ou DROP TABLE IF EXISTS.

Pour plus d’informations, voir TABLE_OR_VIEW_NOT_FOUND

TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS

SQLSTATE: 0A000

Impossible de <action> SQL fonction définie par l’utilisateur<functionName> avec des arguments TABLE, car cette fonctionnalité n’est pas encore implémentée.

TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON

SQLSTATE : 38000

Échec de l’analyse de la fonction de table définie par l’utilisateur Python : <msg>

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL

SQLSTATE : 22023

Nous n’avons pas pu évaluer la fonction de table <functionName> en raison de sa métadonnée de table <requestedMetadata>, mais nous avons évalué l’appel de fonction <invalidFunctionCallProperty>.

TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID

SQLSTATE : 22023

Nous n’avons pas pu évaluer la fonction de table <functionName>, car sa métadonnée de table n’était pas valide; <reason>.

TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS

SQLSTATE: 54023

Il existe trop d’arguments de table pour une fonction table.

Il autorise un argument de table, mais obtient : <num>.

Si vous souhaitez l’autoriser, définissez « spark.sql.allowMultipleTableArguments.enabled » sur « true »

TABLE_WITH_ID_NOT_FOUND

SQLSTATE : 42P01

La table avec l’ID <tableId> est introuvable. Vérifiez l’exactitude de l’UUID.

TASK_WRITE_FAILED

SQLSTATE : 58030

La tâche a échoué lors de l’écriture de lignes dans <path>.

TEMP_TABLE_OR_VIEW_ALREADY_EXISTS

SQLSTATE : 42P07

Impossible de créer l’affichage temporaire <relationName>, car il existe déjà.

Choisissez un autre nom, supprimez ou remplacez la vue existante, ou ajoutez la clause IF NOT EXISTS pour tolérer les vues préexistantes.

TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS

SQLSTATE : 428EK

CREATE TEMPORARY VIEW ou les API de jeu de données correspondantes n’acceptent que les noms d’affichage en une seule partie, mais ont obtenu : <actualName>.

UC_BUCKETED_TABLES

SQLSTATE : 0AKUC

Les tables compartimentées ne sont pas prises en charge dans Unity Catalog.

UC_CATALOG_NAME_NOT_PROVIDED

SQLSTATE : 3D000

Pour Unity Catalog, spécifiez explicitement le nom du catalogue. Par exemple, SHOW GRANT your.address@email.com ON CATALOG main.

UC_COMMAND_NOT_SUPPORTED

SQLSTATE : 0AKUC

Le ou les commandes : <commandName> n’est (ne sont) pas prise(s) en charge dans Unity Catalog.

Pour plus d’informations, consultez UC_COMMAND_NOT_SUPPORTED

UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE

SQLSTATE : 0AKUC

La ou les commandes : <commandName> n’est (ne sont) pas prise(s) en charge pour les clusters Unity Catalog dans le mode d’accès partagé. Utilisez plutôt le mode d’accès utilisateur unique.

UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED

SQLSTATE : 0AKUC

Le type d’informations d’identification spécifié n’est pas pris en charge.

UC_DATASOURCE_NOT_SUPPORTED

SQLSTATE : 0AKUC

Le format de source de données <dataSourceFormatName> n’est pas pris en charge dans Unity Catalog.

UC_DATASOURCE_OPTIONS_NOT_SUPPORTED

SQLSTATE : 0AKUC

Les options de source de données ne sont pas prises en charge dans Unity Catalog.

UC_EXTERNAL_VOLUME_MISSING_LOCATION

SQLSTATE : 42601

La clause LOCATION doit être présente pour le volume externe. Veuillez vérifier la syntaxe « CREATE EXTERNAL VOLUME … LOCATION…» pour créer un volume externe.

UC_FAILED_PROVISIONING_STATE

SQLSTATE : 0AKUC

La requête a échoué car elle a tenté de faire référence à la table <tableName> , mais elle n’a pas pu le faire : <failureReason>. Mettez à jour la table <tableName> pour vous assurer qu’elle est dans un état d’approvisionnement Actif, puis réessayez la requête.

UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED

SQLSTATE : 0AKUC

La création d’une table dans Unity Catalog avec un schéma de fichiers <schemeName> n’est pas prise en charge.

Au lieu de cela, créez une connexion de source de données fédérée à l’aide de la commande CREATE CONNECTION pour le même fournisseur de table, puis créez un catalogue basé sur la connexion avec une commande CREATE FOREIGN CATALOG pour référencer les tables qui s’y trouvent.

UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED

SQLSTATE : 56038

La vue Fédération du metastore Hive ne prend pas en charge les dépendances entre plusieurs catalogues. L’affichage <view> dans le catalogue de fédération de metastore Hive doit utiliser une dépendance à partir de hive_metastore ou spark_catalog catalogue, mais sa dépendance <dependency> se trouve dans un autre catalogue <referencedCatalog>. Mettez à jour les dépendances pour satisfaire cette contrainte, puis réessayez votre requête ou commande.

UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED

SQLSTATE: 0A000

La fédération de metastore Hive n’est pas activée sur ce cluster.

L’accès au catalogue <catalogName> n’est pas pris en charge sur ce cluster.

UC_INVALID_DEPENDENCIES

SQLSTATE : 56098

Les dépendances de <viewName> sont enregistrées comme <storedDeps> alors qu’elles sont analysées en tant que <parsedDeps>. Cela s’est probablement produit en cas d’utilisation incorrecte d’une API non SQL. Vous pouvez réparer les dépendances dans Databricks Runtime en exécutant ALTER VIEW <viewName> comme <viewText>.

UC_INVALID_NAMESPACE

SQLSTATE : 0AKUC

Les espaces de noms imbriqués ou vides ne sont pas pris en charge dans Unity Catalog.

UC_INVALID_REFERENCE

SQLSTATE : 0AKUC

L’objet Non-Unity-Catalog <name> ne peut pas être référencé dans les objets Unity Catalog.

UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED

SQLSTATE : 56038

La prise en charge de l’écriture de la fédération Unity Catalog Lakehouse n’est pas activée pour le fournisseur <provider> sur ce cluster.

UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED

SQLSTATE : 42601

Le volume géré n’accepte pas la clause LOCATION. Veuillez vérifier la syntaxe « CREATE VOLUME ... » pour créer un volume géré.

UC_NOT_ENABLED

SQLSTATE : 56038

Unity Catalog n’est pas activé sur ce cluster.

UC_QUERY_FEDERATION_NOT_ENABLED

SQLSTATE : 56038

Unity Catalog Query Federation n’est pas activée sur ce cluster.

UC_SERVICE_CREDENTIALS_NOT_ENABLED

SQLSTATE : 56038

Les informations d’identification du service ne sont pas activées sur ce cluster.

UC_VOLUMES_NOT_ENABLED

SQLSTATE : 56038

La prise en charge de Unity Catalog Volumes n’est pas activée sur cette instance.

UC_VOLUMES_SHARING_NOT_ENABLED

SQLSTATE : 56038

La prise en charge de Volume Sharing n’est pas activée sur cette instance.

UC_VOLUME_NOT_FOUND

SQLSTATE : 42704

Le fichier <name> n'existe pas. Utilisez « SHOW VOLUMES » pour répertorier les volumes disponibles.

UDF_ERROR

SQLSTATE : aucune attribution

Échec d’exécution de la fonction <fn>.

Pour plus d’informations, consultez UDF_ERROR.

UDF_LIMITS

SQLSTATE : 54KD0

Une ou plusieurs limites de fonction définie par l’utilisateur ont été enfreintes.

Pour plus d’informations, consultez UDF_LIMITS.

UDF_MAX_COUNT_EXCEEDED

SQLSTATE : 54KD0

Dépassement de la limite de fonctions définies par UDF de <maxNumUdfs> UDFs (limitée pendant la préversion publique). Trouvé <numUdfs>. Les fonctions définies par l’utilisateur étaient : <udfNames>.

UDF_PYSPARK_ERROR

SQLSTATE : 39000

Le worker Python s’est arrêté de façon inattendue

Pour plus d’informations, consultez UDF_PYSPARK_ERROR

UDF_PYSPARK_UNSUPPORTED_TYPE

SQLSTATE: 0A000

La fonction UDF PySpark <udf> (<eval-type>) n’est pas prise en charge sur les clusters en mode d’accès partagé.

UDF_PYSPARK_USER_CODE_ERROR

SQLSTATE : 39000

L'exécution a échoué.

Pour plus d’informations, consultez UDF_PYSPARK_USER_CODE_ERROR

UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE

SQLSTATE: 0A000

La valeur par défaut du paramètre n’est pas prise en charge pour la fonction <functionType> définie par l’utilisateur.

UDF_USER_CODE_ERROR

SQLSTATE : 39000

Échec de l’exécution de la fonction <fn>.

Pour plus d’informations, voir UDF_USER_CODE_ERROR

UDTF_ALIAS_NUMBER_MISMATCH

SQLSTATE : 42802

Le nombre d’alias fournis dans la clause AS ne correspond pas au nombre de colonnes sorties par l’UDTF.

Alias <aliasesSize> attendus, mais obtenu <aliasesNames>.

Assurez-vous que le nombre d’alias fournis correspond au nombre de colonnes sorties par l’UDTF.

UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD

SQLSTATE : 42802

Échec d’évaluation de la fonction table définie par l’utilisateur, car sa méthode « analyze » a retourné un OrderingColumn demandé dont l’expression de nom de colonne contenait un alias inutile <aliasName> ; supprimez cet alias, puis réessayez la requête.

UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS

SQLSTATE : 42802

Échec de l’évaluation de la fonction de table définie par l’utilisateur, car sa méthode « analyser » a retourné une expression « select » demandée (<expression>) qui n’inclut pas d’alias correspondant ; mettez à jour l’UDTF pour spécifier un alias là-bas, puis réessayez la requête.

UNABLE_TO_ACQUIRE_MEMORY

SQLSTATE : 53200

Impossible d’acquérir <requestedBytes> octets de mémoire, <receivedBytes> obtenus.

UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Impossible de convertir le SQL de type <toType> en Protobuf de type <protobufType>.

UNABLE_TO_FETCH_HIVE_TABLES

SQLSTATE : 58030

Impossible d’extraire des tables de la base de données Hive : <dbName>. Nom de la classe d’erreur : <className>.

UNABLE_TO_INFER_SCHEMA

SQLSTATE : 42KD9

Impossible de déduire le schéma pour <format>. Il doit être spécifié manuellement.

UNAUTHORIZED_ACCESS

SQLSTATE : 42501

Accès non autorisé :

<report>

UNBOUND_SQL_PARAMETER

SQLSTATE : 42P02

A trouvé le paramètre non lié : <name>. Corrigez args et fournissez un mappage du paramètre à des fonctions de constructeur de littéral ou de collection SQL telles que map(), array(), struct().

UNCLOSED_BRACKETED_COMMENT

SQLSTATE : 42601

Un commentaire entre crochets non fermé a été trouvé. Ajoutez */ à la fin du commentaire.

UNEXPECTED_INPUT_TYPE

SQLSTATE : 42K09

Le paramètre <paramIndex> de la fonction <functionName> nécessite le type <requiredType>, mais <inputSql> a le type <inputType>.

UNEXPECTED_OPERATOR_IN_STREAMING_VIEW

SQLSTATE: 42KDD

<op> Opérateur inattendu dans l’instruction CREATE VIEW en tant que source de streaming.

Une requête d’affichage de streaming doit se composer uniquement d’opérations SELECT, WHERE et UNION ALL.

UNEXPECTED_POSITIONAL_ARGUMENT

SQLSTATE : 4274K

Impossible d’appeler la fonction <functionName> , car elle contient des arguments positionnels à la suite de l’argument nommé affecté à ; réorganisez-les afin <parameterName>que les arguments positionnels arrivent en premier, puis réessayez la requête.

UNEXPECTED_SERIALIZER_FOR_CLASS

SQLSTATE : 42846

La classe <className> a un sérialiseur d’expression inattendu. « STRUCT » ou « IF » qui retourne « STRUCT » était attendu, mais <expr> a été trouvé.

UNKNOWN_FIELD_EXCEPTION

SQLSTATE : KD003

Champs inconnus rencontrés lors de l’analyse : <unknownFieldBlob>. Ceci peut être résolu par une nouvelle tentative automatique : <isRetryable>

Pour plus d’informations, voir UNKNOWN_FIELD_EXCEPTION

UNKNOWN_POSITIONAL_ARGUMENT

SQLSTATE : 4274K

L’appel de la fonction <functionName> contient un argument positionnel inconnu <sqlExpr> à la position <pos>. Ceci n’est pas valide.

UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT

SQLSTATE : 22023

Un type primitif inconnu avec l’ID <id> a été trouvé dans une valeur variant.

UNKNOWN_PROTOBUF_MESSAGE_TYPE

SQLSTATE: 42K0G

Tentative de traitement de <descriptorName> comme un message, mais il était <containingType>.

UNPIVOT_REQUIRES_ATTRIBUTES

SQLSTATE: 42K0A

UNPIVOT exige que toutes les expressions <given> données soient des colonnes quand aucune expression <empty> n’est donnée. Il ne s’agit pas de colonnes : [<expressions>].

UNPIVOT_REQUIRES_VALUE_COLUMNS

SQLSTATE: 42K0A

Au moins une colonne de valeur doit être spécifiée pour UNPIVOT, et toutes les colonnes doivent être spécifiées en tant que ID.

UNPIVOT_VALUE_DATA_TYPE_MISMATCH

SQLSTATE : 42K09

Les colonnes de valeur UNPIVOT doivent partager un type moins commun, ce qui n’est pas le cas de certains types : [<types>].

UNPIVOT_VALUE_SIZE_MISMATCH

SQLSTATE : 428C4

Toutes les colonnes sans valeur pivot doivent avoir la même taille qu’il existe des noms de colonnes de valeur (<names>).

UNRECOGNIZED_PARAMETER_NAME

SQLSTATE : 4274K

Impossible d’appeler la fonction <functionName>, car l’appel de fonction incluait une référence d’argument nommé pour l’argument nommé <argumentName>, mais cette fonction n’inclut aucune signature contenant un argument portant ce nom. Faisiez-vous allusion à l’une des suivantes ? [<proposal>].

UNRECOGNIZED_SQL_TYPE

SQLSTATE : 42704

Type SQL non reconnu - nom : <typeName>, ID : <jdbcType>.

UNRESOLVABLE_TABLE_VALUED_FUNCTION

SQLSTATE : 42883

Impossible de résoudre <name> en une fonction table.

Assurez-vous que est défini en tant que fonction table <name> et que tous les paramètres requis sont fournis correctement.

Si <name> n’est pas défini, créez la fonction table avant de l’utiliser.

Pour plus d’informations sur la définition des fonctions table, reportez-vous à la documentation Apache Spark.

UNRESOLVED_ALL_IN_GROUP_BY

SQLSTATE : 42803

Impossible de déduire le regroupement de colonnes pour GROUP BY ALL en fonction de la clause select. Spécifiez explicitement les colonnes de regroupement.

UNRESOLVED_COLUMN

SQLSTATE : 42703

Le nom <objectName> d'une colonne, d'une variable ou d'un paramètre de fonction ne peut être résolu.

Pour plus de détails, voir UNRESOLVED_COLUMN

UNRESOLVED_FIELD

SQLSTATE : 42703

Un champ portant le nom <fieldName> ne peut pas être résolu avec la colonne de type struct <columnPath>.

Pour plus de détails, voir UNRESOLVED_FIELD

UNRESOLVED_MAP_KEY

SQLSTATE : 42703

Impossible de résoudre la colonne <objectName> en tant que clé de mappage. Si la clé est un littéral de chaîne, entourez-la de guillemets simples.

Pour plus de détails, voir UNRESOLVED_MAP_KEY

UNRESOLVED_ROUTINE

SQLSTATE : 42883

Impossible de résoudre la routine <routineName> sur le chemin de recherche <searchPath>.

Pour plus de détails, voir UNRESOLVED_ROUTINE

UNRESOLVED_USING_COLUMN_FOR_JOIN

SQLSTATE : 42703

La colonne <colName> USING ne peut pas être résolue du <side> côté de la jointure. Le côté <side> des colonnes : [<suggestion>].

UNRESOLVED_VARIABLE

SQLSTATE : 42883

Impossible de résoudre la variable <variableName> sur le chemin de recherche <searchPath>.

UNSUPPORTED_ADD_FILE

SQLSTATE: 0A000

Ne prenez pas en charge l’ajout d’un fichier.

Pour plus d’informations, consultez UNSUPPORTED_ADD_FILE

UNSUPPORTED_ARROWTYPE

SQLSTATE: 0A000

Type de flèche <typeName>non pris en charge .

UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION

SQLSTATE : 42000

La fonction <funcName> ne prend pas en charge le traitement de requêtes.

UNSUPPORTED_CALL

SQLSTATE: 0A000

Impossible d’appeler la méthode « <methodName> » de la classe « <className> ».

Pour plus d’informations, consultez UNSUPPORTED_CALL

UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING

SQLSTATE: 0A000

Le type char/varchar ne peut pas être utilisé dans le schéma de table.

Si vous souhaitez que Spark les traite comme un type de chaîne identique à Spark 3.0 et versions antérieures, définissez « spark.sql.legacy.charVarcharAsString » sur « true ».

UNSUPPORTED_CLAUSE_FOR_OPERATION

SQLSTATE: 0A000

<clause> n’est pas pris en charge pour <operation>.

UNSUPPORTED_COLLATION

SQLSTATE: 0A000

Le classement <collationName> n'est pas pris en charge pour :

Pour plus d’informations, consultez UNSUPPORTED_COLLATION

UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE

SQLSTATE : 42616

L’ancêtre commun du chemin source et de sourceArchiveDir doit être inscrit auprès de UC.

Si vous voyez ce message d’erreur, il est probable que vous inscriviez le chemin d’accès source et sourceArchiveDir à différents emplacements externes.

Placez-les dans un emplacement externe unique.

UNSUPPORTED_CONSTRAINT_CLAUSES

SQLSTATE: 0A000

Les clauses de contrainte <clauses> ne sont pas prises en charge.

UNSUPPORTED_CONSTRAINT_TYPE

SQLSTATE : 42000

Type de contrainte non pris en charge. Seuls <supportedConstraintTypes> sont pris en charge

UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY

SQLSTATE: 0A000

Type de source de données non pris en charge pour une requête directe sur les fichiers : <dataSourceType>

UNSUPPORTED_DATATYPE

SQLSTATE: 0A000

Type de données non pris en charge<typeName>.

UNSUPPORTED_DATA_SOURCE_SAVE_MODE

SQLSTATE: 0A000

La source de données « <source> » ne peut pas être écrite en mode <createMode>. Utilisez plutôt le mode « Append » ou « Overwrite ».

UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE

SQLSTATE: 0A000

La <format> source de données ne prend pas en charge la colonne <columnName> du type <columnType>.

UNSUPPORTED_DATA_TYPE_FOR_ENCODER

SQLSTATE: 0A000

Impossible de créer l’encodeur pour <dataType>. Utilisez un autre type de données de sortie pour votre UDF ou DataFrame.

UNSUPPORTED_DEFAULT_VALUE

SQLSTATE: 0A000

Les valeurs de colonne DEFAULT ne sont pas prises en charge.

Pour plus d’informations, consultez UNSUPPORTED_DEFAULT_VALUE

UNSUPPORTED_DESERIALIZER

SQLSTATE: 0A000

Le désérialiseur n’est pas pris en charge :

Pour plus d’informations, consultez UNSUPPORTED_DESERIALIZER

UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE : 42621

Impossible de créer une colonne <fieldName> générée avec l’expression <expressionStr> de génération, à cause de <reason>.

UNSUPPORTED_EXPR_FOR_OPERATOR

SQLSTATE: 42K0E

Un opérateur de requête contient une ou plusieurs expressions non prises en charge.

Envisagez de le réécrire pour éviter les fonctions de fenêtre, les fonctions d’agrégation et les fonctions de générateur dans la clause WHERE.

Expressions non valides : [<invalidExprSqls>]

UNSUPPORTED_EXPR_FOR_PARAMETER

SQLSTATE : 42K0E

Un paramètre de requête contient une expression non prise en charge.

Les paramètres peuvent être des variables ou des littéraux.

Expression non valide : [<invalidExprSql>]

UNSUPPORTED_EXPR_FOR_WINDOW

SQLSTATE: 42P20

Expression <sqlExpr> non prise en charge dans une fonction de fenêtre.

UNSUPPORTED_FEATURE

SQLSTATE: 0A000

La fonctionnalité n’est pas prise en charge :

Pour plus d’informations, consultez UNSUPPORTED_FEATURE

UNSUPPORTED_FN_TYPE

SQLSTATE: 0A000

Type de fonction défini par l’utilisateur non pris en charge : <language>

UNSUPPORTED_GENERATOR

SQLSTATE: 42K0E

Le générateur n’est pas pris en charge :

Pour plus d’informations, consultez UNSUPPORTED_GENERATOR

UNSUPPORTED_GROUPING_EXPRESSION

SQLSTATE: 42K0E

grouping()/grouping_id() ne peut être utilisé qu’avec GroupingSets/Cube/Rollup.

UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE

SQLSTATE : 42616

<trigger> avec la position initiale <initialPosition> n’est pas pris en charge avec la source Kinesis

UNSUPPORTED_INSERT

SQLSTATE : 42809

Impossible d’insérer dans la cible.

Pour plus d’informations, consultez UNSUPPORTED_INSERT

UNSUPPORTED_JOIN_TYPE

SQLSTATE: 0A000

Type de jointure non pris en charge '<typ>'. Les types de jointure pris en charge sont les suivants : <supported>.

UNSUPPORTED_MANAGED_TABLE_CREATION

SQLSTATE : 0AKDD

La création d’un tableau <tableName> managé à l’aide d’une source de données <dataSource> n’est pas prise en charge. Vous devez utiliser la source de données DELTA ou créer une table externe à l’aide de CREATE EXTERNAL TABLE <tableName> ..… Utilisation de <dataSource>...

UNSUPPORTED_MERGE_CONDITION

SQLSTATE: 42K0E

L’opération MERGE contient une condition non prise en charge <condName>.

Pour plus d’informations, consultez UNSUPPORTED_MERGE_CONDITION

UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY

SQLSTATE: 0A000

Le tableau <tableName> dispose d’une stratégie de sécurité au niveau des lignes qui fait indirectement référence à un autre tableau avec une stratégie de sécurité au niveau des lignes ou un masque de colonne ; cette caractéristique n’est pas prise en charge. Séquence d’appels : <callSequence>

UNSUPPORTED_OVERWRITE

SQLSTATE: 42902

Impossible de remplacer la cible qui est également en cours de lecture.

Pour plus d’informations, consultez UNSUPPORTED_OVERWRITE

UNSUPPORTED_SAVE_MODE

SQLSTATE: 0A000

Le mode d’enregistrement <saveMode> n’est pas pris en charge pour :

Pour plus d’informations, consultez UNSUPPORTED_SAVE_MODE

UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK

SQLSTATE: 0A000

<outputMode> mode de sortie non pris en charge pour <statefulOperator> les DataFrames/DataSets de streaming sans filigrane.

UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

SQLSTATE: 0A000

Non pris en charge pour le streaming d’une vue. Motif :

Si vous souhaitez obtenir d’autres informations, consultez UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW

UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED

SQLSTATE: 0A000

Les options de streaming <options> ne sont pas prises en charge pour la source de données <source> sur un cluster partagé. Vérifiez que les options sont spécifiées et orthographiées correctement et vérifiez leshttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode limitations.

UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED

SQLSTATE: 0A000

La source de données <sink> n’est pas prise en charge en tant que récepteur de streaming sur un cluster partagé.

UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED

SQLSTATE: 0A000

La source de données<source> n’est pas prise en charge en tant que source de streaming sur un cluster partagé.

UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION

SQLSTATE : 42000

La fonction <funcName> ne prend pas en charge le streaming. Supprimez le mot clé STREAM

UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<streamReadLimit> n’est pas pris en charge avec la source Kinesis

UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

SQLSTATE: 0A000

Expression de sous-requête non prise en charge :

Pour plus de détails, voir UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY

UNSUPPORTED_TIMESERIES_COLUMNS

SQLSTATE : 56038

La création de clé primaire avec des colonnes de série chronologique n’est pas prise en charge

UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN

SQLSTATE: 0A000

La création d’une clé primaire avec plusieurs colonnes <colSeq> de série chronologique n’est pas prise en charge

UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE

SQLSTATE: 0A000

<trigger> n’est pas pris en charge avec la source Kinesis

UNSUPPORTED_TYPED_LITERAL

SQLSTATE: 0A000

Les caractères littéraux de type <unsupportedType> ne sont pas pris en charge. Les types pris en charge sont <supportedTypes> .

UNTYPED_SCALA_UDF

SQLSTATE: 42K0E

Vous utilisez une API Scala UDF non typée, qui n’indique pas le type d’entrée.

Il se peut que Spark transmette à l’aveuglette la valeur Null à la fermeture Scala avec un argument de type primitif. La fermeture verra alors la valeur par défaut du type Java pour l’argument Null, par exemple udf((x: Int) => x, IntegerType), le résultat est 0 pour l’entrée Null. Pour vous débarrasser de cette erreur, vous pouvez :

  1. utiliser des API Scala UDF typées (sans paramètre de type de retour), ex. udf((x: Int) => x).
  2. utiliser des API UDF Java, ex. udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType), si les types d’entrée sont tous non primitifs.
  3. affecter la valeur « vrai » à « spark.sql.legacy.allowUntypedScalaUDF » et utiliser cette API avec prudence.

UPGRADE_NOT_SUPPORTED

SQLSTATE : 0AKUC

La table n’est pas éligible pour une mise à niveau du metastore Hive vers Unity Catalog. Motif :

Pour plus d’informations, consultez UPGRADE_NOT_SUPPORTED

USER_DEFINED_FUNCTIONS

SQLSTATE : 42601

La fonction définie par l’utilisateur n’est pas valide :

Pour plus de détails, voir USER_DEFINED_FUNCTIONS

USER_RAISED_EXCEPTION

SQLSTATE: P0001

<errorMessage>

USER_RAISED_EXCEPTION_PARAMETER_MISMATCH

SQLSTATE: P0001

La fonction raise_error() a été utilisée pour déclencher la classe d’erreur : <errorClass> qui attend des paramètres : <expectedParms>.

Les paramètres fournis <providedParms> ne correspondent pas aux paramètres attendus.

Veillez à fournir tous les paramètres attendus.

USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS

SQLSTATE: P0001

La fonction raise_error() a été utilisée pour déclencher une classe d’erreur inconnue : <errorClass>

VARIABLE_ALREADY_EXISTS

SQLSTATE : 42723

Impossible de créer la variable <variableName> parce qu'elle existe déjà.

Choisissez un autre nom ou supprimez ou remplacez la variable existante.

VARIABLE_NOT_FOUND

SQLSTATE : 42883

La variable <variableName> est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un schéma et un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.

Pour tolérer l’erreur lors de la suppression, utilisez DROP VARIABLE IF EXISTS.

VARIANT_CONSTRUCTOR_SIZE_LIMIT

SQLSTATE : 22023

Impossible de construire une Variante supérieure à 16 Mio. La taille maximale autorisée d’une valeur Variante est de 16 Mio.

VARIANT_DUPLICATE_KEY

SQLSTATE : 22023

Impossible de générer une variante en raison d’une clé d’objet <key> en double.

VARIANT_SIZE_LIMIT

SQLSTATE : 22023

Impossible de générer une variante plus grande que <sizeLimit> dans <functionName>.

Évitez les chaînes d’entrée volumineuses dans cette expression (par exemple, ajouter des appels de fonction pour vérifier la taille de l’expression et la convertir en valeur NULL en premier si elle est trop grande).

VIEW_ALREADY_EXISTS

SQLSTATE : 42P07

Impossible de créer l’affichage <relationName> parce qu'il existe déjà.

Choisissez un autre nom, supprimez ou remplacez l’objet existant, ou ajoutez la clause IF NOT EXISTS pour tolérer les objets préexistants.

VIEW_EXCEED_MAX_NESTED_DEPTH

SQLSTATE : 54K00

La profondeur de vue <viewName> dépasse la profondeur de résolution de vue maximale (<maxNestedDepth>).

L’analyse est abandonnée afin d’éviter les erreurs. Si vous souhaitez contourner ceci, veuillez essayer d’augmenter la valeur de « spark.sql.view.maxNestedViewDepth ».

VIEW_NOT_FOUND

SQLSTATE : 42P01

L’affichage <relationName> est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.

Si vous n’avez pas qualifié le nom avec un schéma, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.

Pour tolérer l’erreur lors de la suppression, utilisez DROP VIEW IF EXISTS.

VOLUME_ALREADY_EXISTS

SQLSTATE : 42000

Impossible de créer le volume <relationName> parce qu'il existe déjà.

Choisissez un autre nom, supprimez ou remplacez l’objet existant, ou ajoutez la clause IF NOT EXISTS pour tolérer les objets préexistants.

WINDOW_FUNCTION_AND_FRAME_MISMATCH

SQLSTATE: 42K0E

La fonction <funcName> ne peut être évaluée que dans un cadre de fenêtre basé sur des lignes ordonnées avec un seul décalage : <windowExpr>.

WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE

SQLSTATE : 42601

La fonction <funcName> Window nécessite une clause OVER.

WITH_CREDENTIAL

SQLSTATE : 42601

La syntaxe WITH CREDENTIAL n’est pas prise en charge pour « <type> ».

WRITE_STREAM_NOT_ALLOWED

SQLSTATE : 42601

writeStream peut être appelé uniquement sur le jeu de données/dataframe de streaming.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED

SQLSTATE : 0AKDC

Échec d’exécution de la commande, car les valeurs DEFAULT ne sont pas prises en charge lors de l’ajout de nouvelles

colonnes à des tables Delta précédemment existantes ; ajoutez d’abord la colonne sans valeur par défaut,

puis exécutez une deuxième commande ALTER TABLE ALTER COLUMN SET DEFAULT à appliquer

à la place pour les lignes insérées ultérieures.

WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED

SQLSTATE : 0AKDE

Échec d’exécution de la commande <commandType>, car elle a affecté une valeur DEFAULT de colonne,

mais la fonctionnalité de table correspondante n’était pas activée. Réessayez d’exécuter la commande

après avoir exécuté ALTER TABLE tableName SET

TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’).

WRONG_COMMAND_FOR_OBJECT_TYPE

SQLSTATE : 42809

L’opération <operation> requiert un<requiredType>. Mais <objectName> est un <foundType>. Utilisez <alternative> à la place.

WRONG_NUM_ARGS

SQLSTATE : 42605

Le <functionName> nécessite les paramètres <expectedNum>, alors que le nombre est <actualNum>.

Pour plus de détails, voir WRONG_NUM_ARGS

XML_ROW_TAG_MISSING

SQLSTATE: 42KDF

L’option <rowTag> est obligatoire pour la lecture des fichiers au format XML.

XML_UNSUPPORTED_NESTED_TYPES

SQLSTATE : 0N000

XML ne prend pas en charge <innerDataType> en tant que type interne de <dataType>. Veuillez inclure dans un wrapper le <innerDataType> au sein d’un champ StructType lors de son utilisation dans <dataType>.

XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR

SQLSTATE : 22023

Les données sauvées et la colonne générique ne peuvent pas être activées simultanément. Supprimez l’option wildcardColumnName.

ZORDERBY_COLUMN_DOES_NOT_EXIST

SQLSTATE : 42703

La colonne ZOrderBy <columnName> n’existe pas.

Delta Lake

DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND

SQLSTATE : 08003

Impossible de trouver une session SparkSession active

DELTA_ACTIVE_TRANSACTION_ALREADY_SET

SQLSTATE : 0B000

Impossible de définir une nouvelle transaction comme étant active quand il en existe déjà une

DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED

SQLSTATE : 42000

Échec de l’ajout de la colonne <colName>, car le nom est réservé.

DELTA_ADDING_DELETION_VECTORS_DISALLOWED

SQLSTATE: 0A000

L’opération actuelle a tenté d’ajouter un vecteur de suppression à une table qui ne permet pas la création de nouveaux vecteurs de suppression. Veuillez créer un rapport de bug.

DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED

SQLSTATE : 42000

Toutes les opérations qui ajoutent des vecteurs de suppression doivent attribuer la valeur false à la colonne tightBounds dans les statistiques. Veuillez créer un rapport de bug.

DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE : 42KD3

L’index <columnIndex> à ajouter à la colonne <columnName> est inférieur à 0

DELTA_ADD_COLUMN_PARENT_NOT_STRUCT

SQLSTATE : 42KD3

Impossible d’ajouter <columnName>, car son parent n’est pas un StructType. Trouvé <other>

DELTA_ADD_COLUMN_STRUCT_NOT_FOUND

SQLSTATE : 42KD3

Struct introuvable à la position <position>

DELTA_ADD_CONSTRAINTS

SQLSTATE: 0A000

Utilisez ALTER TABLE ADD CONSTRAINT pour ajouter des contraintes CHECK.

DELTA_AGGREGATE_IN_GENERATED_COLUMN

SQLSTATE : 42621

Trouvé <sqlExpr>. Une colonne générée ne peut pas utiliser une expression d’agrégation

DELTA_AGGREGATION_NOT_SUPPORTED

SQLSTATE : 42903

Les fonctions d’agrégation ne sont pas prises en charge dans <operation> <predicate>.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER

SQLSTATE : 428FR

Échec de la modification du classement de la colonne <column>, car un index de filtre Bloom est appliqué. Conservez le classement existant ou supprimez l’index de filtre Bloom, puis réessayez d’exécuter la commande pour modifier le classement.

DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY

SQLSTATE : 428FR

Échec de la modification du classement de la colonne <column>, car il s’agit d’une colonne de clustering. Conservez le classement existant ou remplacez la colonne par une colonne qui n’est pas en cluster avec une commande ALTER TABLE, puis réessayez d’exécuter la commande pour modifier le classement.

DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED

SQLSTATE : 42837

ALTER TABLE CHANGE COLUMN n’est pas pris en charge pour changer la colonne <currentType> en <newType>

DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED

SQLSTATE : 42000

ALTER TABLE CLUSTER BY n’est pas pris en charge uniquement pour la table Delta avec des clustering liquides.

DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED

SQLSTATE : 42000

ALTER TABLE CLUSTER BY ne peut pas être appliqué à une table partitionnée.

DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED

SQLSTATE : 42000

Opération non autorisée : ALTER TABLE RENAME TO n’est pas autorisé pour les tables Delta managées sur S3, car la cohérence éventuelle sur S3 peut endommager le journal des transactions Delta. Si vous insistez pour le faire et êtes certain qu’il n’y a jamais eu de table Delta avec le nouveau nom <newName> auparavant, vous pouvez l’activer en affectant « vrai » à la valeur <key>.

DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE : 42000

Impossible d’activer la fonctionnalité de table <tableFeature> en utilisant ALTER TABLE SET TBLPROPERTIES. Utilisez CREATE OR REPLACE TABLE CLUSTER BY pour créer une table Delta avec clustering.

DELTA_AMBIGUOUS_DATA_TYPE_CHANGE

SQLSTATE: 429BQ

Impossible de modifier le type de données <column> de <from> à <to>. Cette modification contient des suppressions et des ajouts de colonnes. Par conséquent, ils sont ambigus. Effectuez ces modifications individuellement à l’aide d’ALTER TABLE [ADD | DROP | RENOMMER] COLONNE.

DELTA_AMBIGUOUS_PARTITION_COLUMN

SQLSTATE : 42702

La colonne de partition ambiguë <column> peut être <colMatches>.

DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE

SQLSTATE : 42613

CREATE TABLE contient deux emplacements différents : <identifier> et <location>.

Vous pouvez supprimer la clause LOCATION de l’instruction CREATE TABLE ou définir

<config> sur « vrai » pour ignorer cette vérification.

DELTA_ARCHIVED_FILES_IN_LIMIT

SQLSTATE : 42KDC

La table <table> ne contient pas suffisamment d’enregistrements dans les fichiers non archivés pour satisfaire à la limite spécifiée d’enregistrements <limit> .

DELTA_ARCHIVED_FILES_IN_SCAN

SQLSTATE : 42KDC

Fichiers <numArchivedFiles> potentiellement archivés dans la table <table> qui doivent être analysés dans le cadre de cette requête.

Impossible d’accéder aux fichiers archivés. Le temps écoulé jusqu'à l'archivage est configuré sur <archivalTime> .

Ajustez vos filtres de requête pour exclure tous les fichiers archivés.

DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION

SQLSTATE : 42KD4

L’opération « <opName> » n’est pas autorisée lorsque les flux de changements de données (CDF) sont activés sur la table et que celle-ci a subi des modifications de schéma à l’aide de DROP COLUMN ou RENAME COLUMN.

DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS

SQLSTATE : 42703

Impossible de supprimer les index de filtre bloom pour la ou les colonnes inexistantes suivantes : <unknownColumns>

DELTA_BLOOM_FILTER_OOM_ON_WRITE

SQLSTATE : 82100

OutOfMemoryError s’est produit lors de l’écriture d’index de filtre bloom pour la ou les colonnes suivantes : <columnsWithBloomFilterIndices>.

Vous pouvez réduire l’empreinte mémoire des index de filtre bloom en choisissant une valeur plus petite pour l’option « numItems », une plus grande valeur pour l’option « fpp » ou en indexant moins de colonnes.

DELTA_CANNOT_CHANGE_DATA_TYPE

SQLSTATE: 429BQ

Impossible de changer le type de données : <dataType>

DELTA_CANNOT_CHANGE_LOCATION

SQLSTATE : 42601

Impossible de changer l’emplacement (« location ») de la table Delta à l’aide de SET TBLPROPERTIES. Utilisez plutôt ALTER TABLE SET LOCATION.

DELTA_CANNOT_CHANGE_PROVIDER

SQLSTATE : 42939

« provider » est une propriété de table réservée et ne peut pas être modifié.

DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL

SQLSTATE : 42703

Impossible de créer des index de filtre bloom pour la ou les colonnes inexistantes suivantes : <unknownCols>

DELTA_CANNOT_CREATE_LOG_PATH

SQLSTATE : 42KD5

Impossible de créer <path>

DELTA_CANNOT_DESCRIBE_VIEW_HISTORY

SQLSTATE : 42809

Impossible de décrire l’historique d’une vue.

DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN

SQLSTATE : 42703

Impossible de supprimer l’index de filtre de Bloom d’une colonne non indexée : <columnName>

DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE

SQLSTATE : 0AKDE

Impossible de supprimer la fonctionnalité de table de contraintes CHECK.

Les contraintes suivantes doivent être supprimées en premier : <constraints>.

DELTA_CANNOT_EVALUATE_EXPRESSION

SQLSTATE : 0AKDC

Impossible d'évaluer l'expression : <expression>

DELTA_CANNOT_FIND_BUCKET_SPEC

SQLSTATE : 22000

Une table Delta de compartimentage est attendue, mais impossible de trouver la spécification de compartiment dans la table

DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION

SQLSTATE : 0AKDC

Impossible de générer du code pour l’expression : <expression>

DELTA_CANNOT_MODIFY_APPEND_ONLY

SQLSTATE : 42809

Cette table est configurée pour autoriser uniquement les ajouts. Si vous souhaitez autoriser les mises à jour ou les suppressions, utilisez « ALTER TABLE <nom_table> SET TBLPROPERTIES (<config>=false) ».

DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE : 42616

<Command> ne peut pas remplacer ou annuler les propriétés de la table d’horodatage dans la validation, car les validations coordonnées sont activées dans cette table et dépendent de celles-ci. Supprimez-les (« delta.enableInCommitTimestamps », « delta.inCommitTimestampEnablementVersion », « delta.inCommitTimestampEnablementTimestamp ») de la clause TBLPROPERTIES, puis réessayez la commande.

DELTA_CANNOT_MODIFY_TABLE_PROPERTY

SQLSTATE : 42939

La configuration de la table Delta <prop> ne peut pas être spécifiée par l’utilisateur

DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS

SQLSTATE : 42616

<Command> ne peut pas remplacer les configurations de validation coordonnées pour une table cible existante. Supprimez-les (« delta.coordinatedCommits.commitCoordinator-preview », « delta.coordinatedCommits.commitCoordinatorConf-preview », « delta.coordinatedCommits.tableConf-preview ») de la clause TBLPROPERTIES, puis réessayez la commande.

DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI

SQLSTATE : 22KD1

Un uri (<uri>) qui ne peut pas être transformé en chemin relatif a été trouvé dans le journal des transactions.

DELTA_CANNOT_RELATIVIZE_PATH

SQLSTATE : 42000

Chemin (<path>) qui ne peut pas être relativisé avec l’entrée actuelle trouvée dans le

journal des transactions. Réexécutez-le comme suit :

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(« <userPath> », vrai)

puis exécutez aussi :

%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(« <path> »)

DELTA_CANNOT_RENAME_PATH

SQLSTATE : 22KD1

Impossible de renommer <currentPath> en <newPath>

DELTA_CANNOT_REPLACE_MISSING_TABLE

SQLSTATE : 42P01

Impossible de remplacer la table <tableName>, car elle n’existe pas. Utilisez CREATE OR REPLACE TABLE pour créer la table.

DELTA_CANNOT_RESOLVE_COLUMN

SQLSTATE : 42703

Impossible de résoudre la colonne <columnName> dans <schema>

DELTA_CANNOT_RESTORE_TABLE_VERSION

SQLSTATE : 22003

Impossible de restaurer la table dans la version <version>. Versions disponibles : [<startVersion>, <endVersion>].

DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER

SQLSTATE : 22003

Impossible de restaurer la table dans l’horodatage (<requestedTimestamp>) car elle est antérieure à la version la plus ancienne disponible. Utilisez un horodatage postérieur à (<earliestTimestamp>).

DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER

SQLSTATE : 22003

Impossible de restaurer la table en horodatage (<requestedTimestamp>), car il est postérieur à la dernière version disponible. Utilisez un horodatage antérieur à (<latestTimestamp>)

DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES

SQLSTATE : 42616

<Command> ne peut pas définir les propriétés de la table timestamp in-commit avec des validations coordonnées, car celle-ci dépend de l’ancien et définit l’ancien en interne. Supprimez-les (« delta.enableInCommitTimestamps », « delta.inCommitTimestampEnablementVersion », « delta.inCommitTimestampEnablementTimestamp ») de la clause TBLPROPERTIES, puis réessayez la commande.

DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER

SQLSTATE : 42613

Impossible de modifier l’emplacement d’une table basée sur le chemin d’accès.

DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY

SQLSTATE : 42616

Impossible de définir delta.managedDataSkippingStatsColumns sur une table non DLT

DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS

SQLSTATE : 42616

ALTER ne peut pas annuler les configurations de validation coordonnées. Pour rétrograder une table à partir de validations coordonnées, réessayez à l’aide ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'de .

DELTA_CANNOT_UPDATE_ARRAY_FIELD

SQLSTATE: 429BQ

Impossible de mettre à jour le champ %1$s de type %2$s : mettez à jour l’élément en mettant à jour %2$s.element

DELTA_CANNOT_UPDATE_MAP_FIELD

SQLSTATE: 429BQ

Impossible de mettre à jour le champ %1$s de type %2$s : mettez à jour un mappage en mettant à jour %2$s.key ou %2$s.value

DELTA_CANNOT_UPDATE_OTHER_FIELD

SQLSTATE: 429BQ

Impossible de mettre à jour le champ <tableName> de type <typeName>

DELTA_CANNOT_UPDATE_STRUCT_FIELD

SQLSTATE: 429BQ

Impossible de mettre à jour le champ <tableName> de type <fieldName> : mettez à jour le struct en ajoutant, supprimant ou mettant à jour ses champs

DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION

SQLSTATE : 428FT

Impossible d’utiliser toutes les colonnes pour les colonnes de partition

DELTA_CANNOT_WRITE_INTO_VIEW

SQLSTATE: 0A000

<table> est une vue. Les écritures dans une vue ne sont pas prises en charge.

DELTA_CAST_OVERFLOW_IN_TABLE_WRITE

SQLSTATE : 22003

Échec de l’écriture d’une valeur de type <sourceType> dans la <targetType>colonne de type <columnName> en raison d’un dépassement de capacité.

Utilisez try_cast dans la valeur d’entrée pour tolérer le dépassement de capacité et retourner la valeur NULL à la place.

Si nécessaire, définissez <storeAssignmentPolicyFlag> sur « LEGACY » pour contourner cette erreur ou définissez <updateAndMergeCastingFollowsAnsiEnabledFlag> sur true pour revenir à l’ancien comportement et suivre <ansiEnabledFlag> dans UPDATE et MERGE.

DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION

SQLSTATE : 0AKDC

La configuration delta.enableChangeDataFeed ne peut pas être définie. Le flux de données modifiées de Delta n’est pas encore disponible.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA

SQLSTATE : 0AKDC

La récupération des modifications de table entre la version <start> et <end> a échoué en raison d’un schéma de données incompatible.

Votre schéma de lecture est <readSchema> à la version <readVersion>, mais nous avons trouvé un schéma de données incompatible à la version <incompatibleVersion>.

Si possible, récupérez les modifications de table à l’aide du schéma de la version de fin en définissant <config> sur endVersion, ou contactez le support technique.

DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE : 0AKDC

La récupération des modifications de table entre la version <start> et <end> a échoué en raison d’une modification de schéma incompatible.

Votre schéma de lecture est <readSchema> à la version <readVersion>, mais nous avons trouvé une modification de schéma incompatible à la version <incompatibleVersion>.

Si possible, interrogez les modifications de table séparément de la version <start> à <incompatibleVersion> - 1 et de la version <incompatibleVersion> à <end>.

DELTA_CHANGE_DATA_FILE_NOT_FOUND

SQLSTATE : 42K03

Le fichier <filePath> référencé dans le journal des transactions est introuvable. Cela se produit quand des données ont été supprimées du système de fichiers manuellement et non pas à l’aide de l’instruction de tableDELETE. Cette requête semble cibler le flux de données modifiées. Si tel est le cas, cette erreur peut se produire lorsque le fichier de données modifiées est hors de la période de rétention et a été supprimé par l’instruction VACUUM . Pour plus d'informations, consultez <faqPath>

DELTA_CHANGE_TABLE_FEED_DISABLED

SQLSTATE : 42807

Impossible d’écrire dans la table si delta.enableChangeDataFeed est défini. Le flux de changements de données de Delta n’est pas disponible.

DELTA_CHECKPOINT_NON_EXIST_TABLE

SQLSTATE : 42K03

Impossible de contrôler une table <path> non existante. Avez-vous supprimé manuellement des fichiers dans le répertoire _delta_log ?

DELTA_CLONE_AMBIGUOUS_TARGET

SQLSTATE : 42613

Deux chemins ont été fournis en tant que cible de CLONE afin que la préférence entre les deux reste ambiguë. Un emplacement

externe pour CLONE a été fourni à l’emplacement <externalLocation> en même temps que le chemin

<targetIdentifier>.

DELTA_CLONE_INCOMPLETE_FILE_COPY

SQLSTATE : 42000

Fichier (<fileName>) non copié entièrement. Taille de fichier attendue : <expectedSize>. Trouvée : <actualSize>. Pour poursuivre l’opération en ignorant la vérification de taille de fichier, définissez <config> sur false.

DELTA_CLONE_UNSUPPORTED_SOURCE

SQLSTATE : 0AKDC

Source de clone <mode> non prise en charge « <name> », dont le format est <format>.

Les formats pris en charge sont « delta », « iceberg » et « parquet ».

DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED

SQLSTATE: 0A000

CLONE n’est pas pris en charge pour la table Delta avec Liquid clustering pour DBR version < 14.0.

DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED

SQLSTATE: 0A000

CLUSTER BY n’est pas pris en charge, car la ou les colonnes suivantes : <columnsWithDataTypes> ne prennent pas en charge les données ignorées.

DELTA_CLUSTERING_COLUMNS_MISMATCH

SQLSTATE : 42P10

Les colonnes de clustering fournies ne correspondent pas à celles des tables existantes.

  • fourni : <providedClusteringColumns>
  • existant : <existingClusteringColumns>

DELTA_CLUSTERING_COLUMN_MISSING_STATS

SQLSTATE : 22000

Le clustering liquide nécessite que les colonnes de clustering aient des statistiques. Impossible de trouver la ou les colonnes de clustering « <columns> » dans le schéma des statistiques :

<schema>

DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE

SQLSTATE : 22000

La création d’une table externe sans clustering liquide à partir d’un répertoire de table avec clustering liquide n’est pas autorisée ; chemin d’accès : <path>.

DELTA_CLUSTERING_NOT_SUPPORTED

SQLSTATE : 42000

« <operation> » ne prend pas en charge le clustering.

DELTA_CLUSTERING_PHASE_OUT_FAILED

SQLSTATE : 0AKDE

Impossible de terminer le <phaseOutType> de la table avec la fonctionnalité de table <tableFeatureToAdd> (raison : <reason>). Réessayez d’exécuter la commande OPTIMIZE.

== Erreur ==

<error>

DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE

SQLSTATE : 42000

REPLACE une table Delta par Liquid clustering par une table partitionnée n’est pas autorisé.

DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS

SQLSTATE: 0A000

SHOW CREATE TABLE n’est pas pris en charge pour la table Delta avec Liquid clustering sans colonnes clustering.

DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS

SQLSTATE : 42000

La transition d’une table Delta avec clustering liquide vers une table partitionnée n’est pas autorisée pour l’opération : <operation>lorsque la table existante a des colonnes de clustering non vides.

Exécutez ALTER TABLE CLUSTER BY NONE pour supprimer d’abord les colonnes de clustering.

DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE : 42000

Le mode de remplacement de partition dynamique n’est pas autorisé pour la table Delta avec des clustering liquides.

DELTA_CLUSTERING_WITH_PARTITION_PREDICATE

SQLSTATE: 0A000

La commande OPTIMIZE pour la table Delta avec Liquid clustering ne prend pas en charge les prédicats de partition. Supprimez les prédicats : <predicates>.

DELTA_CLUSTERING_WITH_ZORDER_BY

SQLSTATE : 42613

La commande OPTIMIZE pour la table Delta avec Liquid clustering ne peut pas spécifier ZORDER BY. Veuillez supprimer ZORDER BY (<zOrderBy>).

DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS

SQLSTATE : 54000

CLUSTER BY pour Liquid clustering prend en charge jusqu’à <numColumnsLimit> colonnes de clustering, mais le tableau a <actualNumColumns> colonnes de clustering. Veuillez supprimer les colonnes de clustering supplémentaires.

DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED

SQLSTATE : 42908

Il n’est pas autorisé de spécifier CLUSTER BY lorsque le schéma n’est pas défini. Définissez le schéma pour le tableau <tableName>.

DELTA_CLUSTER_BY_WITH_BUCKETING

SQLSTATE : 42613

Vous ne pouvez pas spécifier à la fois le clustering et le compartimentage. Veuillez supprimer CLUSTERED BY INTO BUCKETS / bucketBy si vous souhaitez créer une table Delta avec clustering.

DELTA_CLUSTER_BY_WITH_PARTITIONED_BY

SQLSTATE : 42613

Vous ne pouvez pas spécifier à la fois le clustering et le partitionnement. Veuillez supprimer PARTITIONED BY / partitionBy / partitionedBy si vous souhaitez créer une table Delta avec clustering.

DELTA_COLLATIONS_NOT_SUPPORTED

SQLSTATE : 0AKDC

Les classements ne sont pas pris en charge dans Delta Lake.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN

SQLSTATE : 0AKDC

Le saut de données n’est pas pris en charge pour la colonne de partition '<column>'.

DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE

SQLSTATE : 0AKDC

Le saut de données n’est pas pris en charge pour la colonne '<column>' de type <type>.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET

SQLSTATE : 42703

La propriété id de colonne maximale (<prop>) n’est pas définie sur une table activée pour le mappage de colonnes.

DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY

SQLSTATE : 42703

La propriété d’ID de colonne maximale (<prop>) d’une table activée pour le mappage de colonnes est <tableMax>, qui ne peut pas être plus petite que l’ID de colonne max pour tous les champs (<fieldMax>).

DELTA_COLUMN_MISSING_DATA_TYPE

SQLSTATE : 42601

Le type de données de la colonne <colName> n’a pas été fourni.

DELTA_COLUMN_NOT_FOUND

SQLSTATE : 42703

Impossible de trouver la colonne <columnName> dans la liste [<columnList>] donnée

DELTA_COLUMN_NOT_FOUND_IN_MERGE

SQLSTATE : 42703

Impossible de trouver la colonne « <targetCol> » de la table cible à partir des colonnes INSERT : <colNames>. La clause INSERT doit spécifier la valeur de toutes les colonnes de la table cible.

DELTA_COLUMN_NOT_FOUND_IN_SCHEMA

SQLSTATE : 42703

Impossible de trouver la colonne <columnName> dans :

<tableSchema>

DELTA_COLUMN_PATH_NOT_NESTED

SQLSTATE : 42704

<columnPath> attendu comme un type de données imbriqué, mais <other> trouvé. Était à la recherche de la

Index de <column> dans un champ imbriqué.

Schéma :

<schema>

DELTA_COLUMN_STRUCT_TYPE_MISMATCH

SQLSTATE : 2200G

Impossible d’insérer la colonne <source> dans un <targetType> champ <targetField> dans <targetTable>.

DELTA_COMPACTION_VALIDATION_FAILED

SQLSTATE : 22000

La validation du compactage du chemin d’accès à échoué de <compactedPath> à <newPath> : veuillez déposer un rapport de bug.

DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE

SQLSTATE : 22005

Valeur NullType imbriquée trouvée dans la colonne <columName> qui est de type <dataType>. Delta ne prend pas en charge l’écriture de valeurs NullType dans les types complexes.

DELTA_CONCURRENT_APPEND

SQLSTATE : 2D521

ConcurrentAppendException : les fichiers ont été ajoutés à <partition> par une mise à jour simultanée. <retryMsg> <conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONCURRENT_DELETE_DELETE

SQLSTATE : 2D521

ConcurrentDeleteDeleteException : cette transaction a tenté de supprimer un ou plusieurs fichiers supprimés (par exemple <file>) par une mise à jour simultanée. Recommencez l'opération.<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONCURRENT_DELETE_READ

SQLSTATE : 2D521

ConcurrentDeleteReadException : cette transaction a tenté de lire un ou plusieurs fichiers supprimés (par exemple <file>) par une mise à jour simultanée. Recommencez l'opération.<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONCURRENT_TRANSACTION

SQLSTATE : 2D521

ConcurrentTransactionException : cette erreur se produit lorsque plusieurs requêtes de streaming utilisent le même point de contrôle pour écrire dans cette table. Avez-vous exécuté plusieurs instances de la même requête de streaming en même temps ?<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONCURRENT_WRITE

SQLSTATE : 2D521

ConcurrentWriteException : une transaction simultanée a écrit de nouvelles données depuis que la transaction actuelle a lu la table. Recommencez l'opération.<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_CONFLICT_SET_COLUMN

SQLSTATE : 42701

Il existe un conflit à partir de ces colonnes SET : <columnList>.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND

SQLSTATE : 42616

Pendant <command>, la configuration «<configuration> » ne peut pas être définie à partir de la commande. Supprimez-la de la clause TBLPROPERTIES, puis réessayez la commande.

DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION

SQLSTATE : 42616

Pendant <command>, la configuration «<configuration> » ne peut pas être définie à partir des configurations SparkSession. Annulez-la en exécutant spark.conf.unset("<configuration>") , puis réessayez la commande.

DELTA_CONSTRAINT_ALREADY_EXISTS

SQLSTATE : 42710

La contrainte « <constraintName> » existe déjà. Supprimez d’abord l’ancienne contrainte.

Ancienne contrainte :

<oldConstraint>

DELTA_CONSTRAINT_DATA_TYPE_MISMATCH

SQLSTATE : 42K09

La colonne <columnName> a un type de données <columnType> et ne peut pas être modifiée en type de données <dataType>, car cette colonne est référencée par la ou les contraintes de vérification suivantes :

<constraints>

DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE

SQLSTATE : 42K09

Impossible de modifier la colonne <columnName>, car cette colonne est référencée par la ou les contraintes de vérification suivantes :

<constraints>

DELTA_CONSTRAINT_DOES_NOT_EXIST

SQLSTATE : 42704

Impossible de supprimer une contrainte <constraintName> inexistante de la table <tableName>. Pour éviter de générer une erreur, complétez le paramètre IF EXISTS ou définissez la configuration de session SQL <config> sur <confValue>.

DELTA_CONVERSION_NO_PARTITION_FOUND

SQLSTATE : 42KD6

Aucune information de partition n’a été trouvée dans le catalogue pour la table <tableName>. Avez-vous exécuté « MSCK REPAIR TABLE » sur votre table pour découvrir des partitions ?

DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN

SQLSTATE : 0AKDC

Impossible de convertir une table Parquet avec une colonne <colName> de partition compilée en delta.

DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING

SQLSTATE : 0AKDC

La configuration « <config> » ne peut pas être définie sur <mode> quand CONVERT TO DELTA est utilisé.

DELTA_CONVERT_NON_PARQUET_TABLE

SQLSTATE : 0AKDC

CONVERT TO DELTA prend uniquement en charge les tables Parquet, mais vous essayez de convertir une <sourceName>source : <tableId>

DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS

SQLSTATE : 22000

Impossible d’activer le suivi des lignes sans collecter des statistiques.

Si vous souhaitez activer le suivi des lignes, procédez comme suit :

  1. Activer la collecte de statistiques en exécutant la commande

    SET <statisticsCollectionPropertyKey> = true

    1. Exécutez CONVERT TO DELTA sans l’option NO STATISTICS.

Si vous ne souhaitez pas collecter de statistiques, désactivez le suivi des lignes :

  1. Désactivez l’activation de la fonctionnalité de tableau par défaut en exécutant la commande :

    RESET <rowTrackingTableFeatureDefaultKey>

    1. Désactivez la propriété du tableau par défaut en exécutant :

      SET <rowTrackingDefaultPropertyKey> = false

DELTA_COPY_INTO_TARGET_FORMAT

SQLSTATE : 0AKDD

La cible COPY INTO doit être une table Delta.

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA

SQLSTATE : 42601

Vous essayez de créer une table externe <tableName>

à partir de <path> en utilisant Delta, mais le schéma n’est pas spécifié quand le

chemin d'entrée est vide.

Pour plus d’informations sur Delta, voir <docLink>

DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG

SQLSTATE : 42K03

Vous essayez de créer une table externe <tableName>

à partir de %2$s en utilisant Delta, mais aucun journal des transactions n’est présent à l’emplacement

%2$s/_delta_log. Vérifiez le travail en amont pour vous assurer qu’il écrit en utilisant

format(“delta”) et que le chemin est la racine de la table.

Pour plus d’informations sur Delta, voir <docLink>

DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH

SQLSTATE : 0AKDC

La création d’une table Delta basée sur le chemin avec un autre emplacement n’est pas prise en charge. Identificateur : <identifier>, Emplacement : <location>

DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION

SQLSTATE : 42601

Le nom ou l’emplacement de la table doit être spécifié.

DELTA_CREATE_TABLE_SCHEME_MISMATCH

SQLSTATE : 42KD7

Le schéma spécifié ne correspond pas au schéma existant au niveau de <path>.

== Spécifié ==

<specifiedSchema>

== Existant ==

<existingSchema>

== Différences ==

<schemaDifferences>

Si votre intention est de conserver le schéma existant, vous pouvez omettre le

schéma de la commande create table. Sinon, vérifiez que

le schéma correspond.

DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED

SQLSTATE : 42000

Impossible d’activer la fonctionnalité de table <tableFeature> en utilisant TBLPROPERTIES. Utilisez CREATE OR REPLACE TABLE CLUSTER BY pour créer une table Delta avec clustering.

DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING

SQLSTATE : 42KD7

Les colonnes de clustering spécifiées ne correspondent pas aux colonnes de clustering existantes à <path>.

== Spécifié ==

<specifiedColumns>

== Existant ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING

SQLSTATE : 42KD7

Le partitionnement spécifié ne correspond pas au partitionnement existant sur <path>.

== Spécifié ==

<specifiedColumns>

== Existant ==

<existingColumns>

DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY

SQLSTATE : 42KD7

Les propriétés spécifiées ne correspondent pas aux propriétés existantes sur <path>.

== Spécifié ==

<specifiedProperties>

== Existant ==

<existingProperties>

DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION

SQLSTATE : 42601

Impossible de créer la table (« <tableId> »). L’emplacement associé (« <tableLocation> ») n’est pas vide, et il ne s’agit pas d’une table Delta.

DELTA_DATA_CHANGE_FALSE

SQLSTATE : 0AKDE

Impossible de modifier les métadonnées de table, car l’option « dataChange » est définie sur false. Opération tentée : «  <op> ».

DELTA_DELETED_PARQUET_FILE_NOT_FOUND

SQLSTATE : 42K03

Le fichier <filePath> référencé dans le journal des transactions est introuvable. Ce fichier Parquet peut être supprimé sous la stratégie de conservation des données Delta.

Durée de conservation des données Delta par défaut : <logRetentionPeriod>. Heure de modification du fichier Parquet : <modificationTime>. Heure de suppression du fichier Parquet : <deletionTime>. Supprimé sur la version Delta : <deletionVersion>.

DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS

SQLSTATE : 2D521

Il n'est pas valable de livrer des fichiers dont les vecteurs de suppression ne contiennent pas la statistique numRecords.

DELTA_DOMAIN_METADATA_NOT_SUPPORTED

SQLSTATE: 0A000

Action(s) DomainMetadata détectée(s) pour les domaines <domainNames>, mais DomainMetadataTableFeature n’est pas activée.

DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO

SQLSTATE : 42KD8

L’index <columnIndex> auquel déposer la colonne est inférieur à 0

DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA

SQLSTATE : 0AKDC

Impossible de supprimer une colonne d’un schéma avec une seule colonne. Schéma :

<schema>

DELTA_DUPLICATE_ACTIONS_FOUND

SQLSTATE : 2D521

L’opération de fichier «<actionType>» pour le chemin d’accès <path> a été spécifiée plusieurs fois.

Il est en conflit avec <conflictingPath>.

Il n’est pas valide pour plusieurs opérations de fichiers avec le même chemin d’accès dans un seul commit.

DELTA_DUPLICATE_COLUMNS_FOUND

SQLSTATE : 42711

Colonne(s) en double trouvée(s) <coltype>: <duplicateCols>

DELTA_DUPLICATE_COLUMNS_ON_INSERT

SQLSTATE : 42701

Noms de colonnes dupliquées dans la clause INSERT

DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE

SQLSTATE : 42701

<message>

Supprimez les colonnes en double avant de mettre à jour votre table.

DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS

SQLSTATE : 42701

Données dupliquées qui ignorent les colonnes trouvées : <columns>.

DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR

SQLSTATE : 42601

Erreur interne : deux actions DomainMetadata au sein de la même transaction ont le même domaine <domainName>

DELTA_DV_HISTOGRAM_DESERIALIZATON

SQLSTATE : 22000

Impossible de désérialiser l’histogramme des nombres d’enregistrements supprimés lors de la vérification de l’intégrité de la table.

DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED

SQLSTATE: 0A000

Le mode de remplacement de partition dynamique est spécifié par la configuration de session ou les options d’écriture, mais il est désactivé par spark.databricks.delta.dynamicPartitionOverwrite.enabled=false.

DELTA_EMPTY_DATA

SQLSTATE : 428GU

Les données utilisées dans la création de la table Delta n’ont pas de colonnes.

DELTA_EMPTY_DIRECTORY

SQLSTATE : 42K03

Aucun fichier trouvé dans le répertoire : <directory>.

DELTA_EXCEED_CHAR_VARCHAR_LIMIT

SQLSTATE : 22001

La valeur « <value> » dépasse la limitation de longueur de type char/varchar. Échec case activée : <expr>.

DELTA_FAILED_CAST_PARTITION_VALUE

SQLSTATE : 22018

Échec de la conversion de la valeur <value> de partition en <dataType>

DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS

SQLSTATE : 42703

Impossible de trouver <newAttributeName> parmi la sortie cible existante <targetOutputColumns>

DELTA_FAILED_INFER_SCHEMA

SQLSTATE : 42KD9

Échec de l’inférence du schéma à partir de la liste donnée de fichiers.

DELTA_FAILED_MERGE_SCHEMA_FILE

SQLSTATE : 42KDA

Échec de la fusion du schéma du fichier <file>:

<schema>

SQLSTATE : KD001

Impossible de lire le pied de page du fichier : <currentFile>

DELTA_FAILED_RECOGNIZE_PREDICATE

SQLSTATE : 42601

Impossible de reconnaître le prédicat «<predicate> »

DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION

SQLSTATE : KD002

Attendez-vous à une analyse complète de la dernière version de la source Delta, mais vous avez trouvé une analyse historique de la version <historicalVersion>

DELTA_FAILED_TO_MERGE_FIELDS

SQLSTATE : 22005

Échec de la fusion des champs « <currentField> » et « <updateField> »

DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH

SQLSTATE : 0AKDE

Impossible de fonctionner sur cette table, car les fonctionnalités de table suivantes sont activées dans les métadonnées, mais pas répertoriées dans le protocole : <features>.

DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT

SQLSTATE : 0AKDE

Votre schéma de table nécessite l’activation manuelle des fonctionnalités de table suivantes : <unsupportedFeatures>.

Pour ce faire, exécutez la commande suivante pour chacune des fonctionnalités répertoriées ci-dessus :

ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')

Remplacez « table_name » et « feature_name » par des valeurs réelles.

Fonctionnalité(s) prise en charge actuelle(s) : <supportedFeatures>.

DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL

SQLSTATE : 0AKDE

Impossible de supprimer la fonctionnalité, car une transaction simultanée a modifié la table.

Recommencez l'opération.

<concurrentCommit>

DELTA_FEATURE_DROP_DEPENDENT_FEATURE

SQLSTATE : 0AKDE

Impossible de supprimer la fonctionnalité de table <feature>, car certaines autres fonctionnalités (<dependentFeatures>) de ce tableau dépendent de <feature>.

Envisagez de les supprimer d’abord avant de supprimer cette fonctionnalité.

DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT

SQLSTATE : 0AKDE

Impossible de supprimer <feature> de cette table, car elle n’est actuellement pas présente dans le protocole de la table.

DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST

SQLSTATE : 0AKDE

Impossible de supprimer <feature> , car le journal Delta contient des versions historiques qui utilisent la fonctionnalité.

Attendez la période de rétention de l’historique (<logRetentionPeriodKey>=<logRetentionPeriod>)

est passé depuis la dernière fois que la fonctionnalité a été active.

Veuillez également attendre l’expiration de la période de rétention TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>)

, puis exécutez :

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED

SQLSTATE : 0AKDE

La fonctionnalité particulière ne nécessite pas de troncation d’historique.

DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE

SQLSTATE : 0AKDE

Impossible de supprimer <feature>, car la suppression de cette fonctionnalité n’est pas prise en charge.

Contactez le support Databricks.

DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE

SQLSTATE : 0AKDE

Impossible de supprimer <feature>, car elle n’est pas prise en charge par cette version de Databricks.

Envisagez d’utiliser Databricks avec une version supérieure.

DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD

SQLSTATE : 0AKDE

La suppression <feature> a été partiellement réussie.

La fonctionnalité n’est plus utilisée dans la version actuelle de la table. Toutefois, la fonctionnalité

est toujours présent dans les versions historiques de la table. La fonctionnalité de table ne peut pas être supprimée

à partir du protocole de table jusqu’à ce que ces versions historiques aient expiré.

Pour supprimer la fonctionnalité de table du protocole, attendez que les versions historiques soient

expirer, puis répétez cette commande. La période de rétention pour les versions historiques est

actuellement configuré en tant que <logRetentionPeriodKey>=<logRetentionPeriod>.

Veuillez également attendre l’expiration de la période de rétention TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>)

, puis exécutez :

ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY

DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION

SQLSTATE : 0AKDE

Impossible d’activer la fonctionnalité <feature> de table, car elle nécessite une version de protocole de lecteur supérieure (actuelle <current>). Envisagez de mettre à niveau la version du protocole lecteur de la table vers <required>ou vers une version qui prend en charge les fonctionnalités de la table de lecture. Reportez-vous à <docLink> pour plus d’informations sur les versions du protocole de table.

DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION

SQLSTATE : 0AKDE

Impossible d’activer la fonctionnalité <feature> de table, car elle nécessite une version de protocole de lecteur supérieure (actuelle <current>). Envisagez de mettre à niveau la version du protocole lecteur de la table vers <required>ou vers une version qui prend en charge les fonctionnalités de la table de lecture. Reportez-vous à <docLink> pour plus d’informations sur les versions du protocole de table.

DELTA_FILE_ALREADY_EXISTS

SQLSTATE : 42K04

Chemin d’accès au fichier existant <path>

DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT

SQLSTATE : 42613

Impossible de spécifier à la fois la liste de fichiers et la chaîne de modèle.

DELTA_FILE_NOT_FOUND

SQLSTATE : 42K03

Chemin d'accès au fichier <path>

DELTA_FILE_NOT_FOUND_DETAILED

SQLSTATE : 42K03

Le fichier <filePath> référencé dans le journal des transactions est introuvable. Cela se produit quand des données ont été supprimées du système de fichiers manuellement et non pas à l’aide de l’instruction de tableDELETE. Pour plus d'informations, consultez <faqPath>

DELTA_FILE_OR_DIR_NOT_FOUND

SQLSTATE : 42K03

Pas de fichier ou de répertoire correspondant : <path>

DELTA_FILE_TO_OVERWRITE_NOT_FOUND

SQLSTATE : 42K03

Fichier (<path>) à réécrire introuvable parmi les fichiers candidats :

<pathList>

DELTA_FOUND_MAP_TYPE_COLUMN

SQLSTATE : KD003

Un MapType a été trouvé. Pour accéder à la clé ou à la valeur d’un MapType, spécifiez un

de :

<key> ou

<value>

suivi du nom de la colonne (uniquement si cette colonne est un type de struct).

Par exemple mymap.key.mykey

Si la colonne est un type de base, mymap.key ou mymap.value suffit.

Schéma :

<schema>

DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH

SQLSTATE : 42K09

La colonne <columnName> a un type de données <columnType> et ne peut pas être modifiée en type de données <dataType>, car cette colonne est référencée par la ou les colonnes générées suivantes :

<generatedColumns>

DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE

SQLSTATE : 42K09

Impossible de modifier la colonne <columnName>, car cette colonne est référencée par la ou les colonnes générées suivantes :

<generatedColumns>

DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH

SQLSTATE : 42K09

Le type d’expression de la colonne <columnName> générée est <expressionType>, mais le type de colonne est <columnType>

DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH

SQLSTATE : 42K09

La colonne <currentName> est une colonne générée ou une colonne utilisée par une colonne générée. Le type de données est <currentDataType> et ne peut pas être converti en type de données <updateDataType>

DELTA_ICEBERG_COMPAT_VIOLATION

SQLSTATE : KD00E

La validation d’IcebergCompatV<version> a échoué.

Pour plus d’infirmations, consultez DELTA_ICEBERG_COMPAT_V1_VIOLATION.

DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN n’est pas pris en charge pour les colonnes IDENTITY.

DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT

SQLSTATE : 0AKDD

ALTER TABLE ALTER COLUMN SYNC IDENTITY est uniquement pris en charge par Delta.

DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN

SQLSTATE: 429BQ

ALTER TABLE ALTER COLUMN SYNC IDENTITY ne peut pas être appelé sur des colonnes non IDENTITY.

DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED

SQLSTATE : 42808

La fourniture de valeurs pour la colonne <colName> GENERATED ALWAYS AS IDENTITY n’est pas prise en charge.

DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP

SQLSTATE : 42611

L’étape de colonne IDENTITY ne peut pas être 0.

DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT

SQLSTATE : 0AKDD

Les colonnes IDENTITY ne sont prises en charge que par Delta.

DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED

SQLSTATE : 42601

La colonne <colName> PARTITIONED BY IDENTITY n’est pas prise en charge.

DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED

SQLSTATE: 429BQ

ALTER TABLE REPLACE COLUMNS n’est pas pris en charge pour la table avec des colonnes IDENTITY.

DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE

SQLSTATE: 428H2

Le DataType <dataType> n’est pas pris en charge pour les colonnes IDENTITY.

DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED

SQLSTATE : 42808

UPDATE sur la colonne <colName> IDENTITY n’est pas pris en charge.

DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION

SQLSTATE : 42613

La colonne IDENTITY ne peut pas être spécifiée avec une expression de colonne générée.

DELTA_ILLEGAL_OPTION

SQLSTATE : 42616

Valeur « <input> » non valide pour l’option « <name> », <explain>

DELTA_ILLEGAL_USAGE

SQLSTATE : 42601

L’utilisation de <option> n’est pas autorisée quand <operation> est une table Delta.

DELTA_INCONSISTENT_BUCKET_SPEC

SQLSTATE : 42000

BucketSpec sur la table compartimentée Delta ne correspond pas à BucketSpec à partir des métadonnées. Attendu : <expected>. Actuel: <actual>.

DELTA_INCONSISTENT_LOGSTORE_CONFS

SQLSTATE : F0000

(<setKeys>) ne peut pas être défini sur des valeurs différentes. Définissez uniquement l’un d’eux ou attribuez la même valeur à tous les deux.

DELTA_INCORRECT_ARRAY_ACCESS

SQLSTATE : KD003

Accès incorrect à un ArrayType. Utilisez la position de arrayname.element.elementname à

ajouter à un tableau.

DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME

SQLSTATE : KD003

Un ArrayType a été trouvé. Pour accéder aux éléments d’un ArrayType, spécifiez

<rightName> plutôt que <wrongName>.

Schéma :

<schema>

DELTA_INCORRECT_GET_CONF

SQLSTATE : 42000

Utiliser getConf() au lieu de `conf.getConf()

DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION

SQLSTATE : 0AKDC

L’erreur se produit généralement quand l’implémentation de LogStore par défaut,

à savoir, HDFSLogStore, est utilisée pour écrire dans une table Delta sur un système de stockage non HDFS.

Pour obtenir les garanties ACID transactionnelles sur les mises à jour de table, vous devez utiliser

l’implémentation de LogStore qui convient à votre système de stockage.

Pour plus d’informations, consultez <docLink>.

DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT

SQLSTATE : 42KD8

L’index <position> à supprimer de la colonne est égal à ou est supérieur à la longueur du struct : <length>

DELTA_INDEX_LARGER_THAN_STRUCT

SQLSTATE : 42KD8

L’index <index> à ajouter à la colonne <columnName> est supérieur à la longueur du struct : <length>

DELTA_INSERT_COLUMN_ARITY_MISMATCH

SQLSTATE : 42802

Impossible d’écrire dans « <tableName> », <columnName>; la table cible a <numColumns> colonne(s), mais les données insérées ont <insertColumns> colonne(s)

DELTA_INSERT_COLUMN_MISMATCH

SQLSTATE : 42802

La colonne <columnName> n’est pas spécifiée dans INSERT

DELTA_INVALID_AUTO_COMPACT_TYPE

SQLSTATE : 22023

Type compact automatique non valide : <value>. Valeurs autorisées : <allowed>.

DELTA_INVALID_BUCKET_COUNT

SQLSTATE : 22023

Nombre de compartiments non valide : <invalidBucketCount>. Le nombre de compartiments doit être un nombre positif qui est une puissance de 2 et est égal au moins à 8. Vous pouvez utiliser <validBucketCount> à la place.

DELTA_INVALID_BUCKET_INDEX

SQLSTATE : 22023

Impossible de trouver la colonne de compartiment dans les colonnes de partition

DELTA_INVALID_CALENDAR_INTERVAL_EMPTY

SQLSTATE: 2200P

L’intervalle ne peut pas être null ou vide.

DELTA_INVALID_CDC_RANGE

SQLSTATE : 22003

La plage CDC débutant à <start> et finissant à <end> n’était pas valide. La fin ne peut pas précéder le début.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME

SQLSTATE : 42K05

Le nom d’attribut «<columnName> » contient le ou les caractères non valides parmi « ,;{} ()\n\t= ». Utilisez un alias pour le renommer.

DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES

SQLSTATE : 42K05

Caractère(s) non valide(s) trouvé(s) parmi « ,;{} ()nt= » dans les noms de colonne de votre schéma.

Noms de colonne non valides : <invalidColumnNames>.

Utilisez d’autres caractères et réessayez.

Vous pouvez également activer le mappage de colonnes pour continuer à utiliser ces caractères.

DELTA_INVALID_CLONE_PATH

SQLSTATE : 22KD1

L’emplacement cible pour CLONE doit être un chemin absolu ou un nom de table. Utilisez un

chemin d’accès absolu au lieu de <path>.

DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING

SQLSTATE : 42K05

Caractère(s) non valide(s) trouvé(s) parmi « ,;{} ()nt= » dans les noms de colonne de votre schéma.

Noms de colonne non valides : <invalidColumnNames>.

Le mappage de colonnes ne peut pas être supprimé lorsqu’il existe des caractères non valides dans les noms de colonnes.

Renommez les colonnes pour supprimer les caractères non valides et réexécutez cette commande.

DELTA_INVALID_FORMAT

SQLSTATE : 22000

Format incompatible détecté.

Un journal des transactions pour Delta a été trouvé dans <deltaRootPath>/_delta_log'',

mais vous essayez de <operation> <path> à l’aide de format(« <format> »). Vous devez utiliser

'format(“delta”)' lorsque vous lisez et écrivez des données dans une table delta.

Pour plus d’informations sur Delta, voir <docLink>

DELTA_INVALID_GENERATED_COLUMN_REFERENCES

SQLSTATE : 42621

Une colonne générée ne peut pas utiliser une colonne non existante ou une autre colonne générée

DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS

SQLSTATE : 42616

Options non valides pour les écritures de dataframe idempotentes : <reason>

DELTA_INVALID_INTERVAL

SQLSTATE : 22006

<interval> n’est pas un INTERVALLE valide.

DELTA_INVALID_INVENTORY_SCHEMA

SQLSTATE : 42000

Le schéma de l’INVENTORY spécifié ne contient pas tous les champs requis. Les champs requis sont : <expectedSchema>

DELTA_INVALID_ISOLATION_LEVEL

SQLSTATE : 25000

Niveau d’isolation « <isolationLevel> » non valide

DELTA_INVALID_LOGSTORE_CONF

SQLSTATE : F0000

(<classConfig>) et (<schemeConfig>) ne peuvent pas être définis en même temps. Définissez un seul groupe de ceux-ci.

DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA

SQLSTATE : 42000

Vous essayez de créer une table managée <tableName>

à l’aide de Delta, mais le schéma n’est pas spécifié.

Pour plus d’informations sur Delta, voir <docLink>

DELTA_INVALID_PARTITION_COLUMN

SQLSTATE : 42996

<columnName> n’est pas une colonne de partition valide dans la table <tableName>.

DELTA_INVALID_PARTITION_COLUMN_NAME

SQLSTATE : 42996

Des colonnes de partition avec des caractères non valides parmi ” ,;{}()nt=” ont été trouvées. Remplacez le nom par vos colonnes de partition. Cette vérification peut être désactivée en définissant spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false). Toutefois, cela n’est pas recommandé, car d’autres fonctionnalités de Delta pourront ne pas fonctionner correctement.

DELTA_INVALID_PARTITION_COLUMN_TYPE

SQLSTATE : 42996

L’utilisation d’une colonne <name> de type <dataType> comme colonne de partition n’est pas prise en charge.

DELTA_INVALID_PARTITION_PATH

SQLSTATE : 22KD1

Un fragment de chemin de partition doit se présenter sous la forme part1=foo/part2=bar. Chemin de partition : <path>

DELTA_INVALID_PROTOCOL_DOWNGRADE

SQLSTATE : KD004

La version du protocole ne peut pas être rétrogradée de <oldProtocol> à <newProtocol>

DELTA_INVALID_PROTOCOL_VERSION

SQLSTATE : KD004

Version du protocole Delta non prise en charge : la table « <tableNameOrPath> » nécessite un lecteur de version <readerRequired> et un enregistreur de version <writerRequired>, mais cette version de Databricks prend en charge les lecteurs de version <supportedReaders> et les enregistreurs de version <supportedWriters>. Effectuez une mise à niveau vers une version plus récente.

DELTA_INVALID_TABLE_VALUE_FUNCTION

SQLSTATE : 22000

La fonction <function> est une fonction table non prise en charge pour les lectures CDC.

DELTA_INVALID_TIMESTAMP_FORMAT

SQLSTATE : 22007

L’horodatage <timestamp> fourni ne correspond pas à la syntaxe <format> attendue .

DELTA_LOG_ALREADY_EXISTS

SQLSTATE : 42K04

Un journal Delta existe déjà à l’adresse <path>

DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE

SQLSTATE : 42K03

Si vous ne l’avez jamais supprimé, il est probable que votre requête soit en retard. Supprimez son point de contrôle pour redémarrer à partir de zéro. Pour éviter que cela ne se reproduise, vous pouvez mettre à jour votre stratégie de rétention de votre table Delta

DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING

SQLSTATE : 22000

Nom de colonne matérialisée <rowTrackingColumn> manquant pour <tableName>.

DELTA_MAX_ARRAY_SIZE_EXCEEDED

SQLSTATE : 42000

Utilisez une limite inférieure à Int.MaxValue - 8.

DELTA_MAX_COMMIT_RETRIES_EXCEEDED

SQLSTATE : 40000

Cette validation a échoué, car elle a été tentée <numAttempts> fois, mais sans succès.

Cela peut être dû au fait que la table Delta est commitée en permanence par de nombreux commits

concurrents.

Validation démarrée à la version : <startVersion>

Échec de la validation à la version : <failVersion>

Nombre d’actions tentées de valider : <numActions>

Temps total passé à tenter cette validation : <timeSpent> ms

DELTA_MAX_LIST_FILE_EXCEEDED

SQLSTATE : 42000

La liste de fichiers doit avoir au maximum <maxFileListSize> entrées, et en avait <numFiles>.

DELTA_MERGE_ADD_VOID_COLUMN

SQLSTATE : 42K09

Impossible d’ajouter une colonne <newColumn> avec le type VOID. Spécifiez explicitement un type non-void.

DELTA_MERGE_INCOMPATIBLE_DATATYPE

SQLSTATE : 42K09

Échec de la fusion des types de données incompatibles <currentDataType> et <updateDataType>

DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE

SQLSTATE : 42806

Échec de la fusion des types décimaux avec incompatibles <decimalRanges>

DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY

SQLSTATE : 25000

La conservation de la source de l’instruction MERGE matérialisée a échoué à plusieurs reprises.

DELTA_MERGE_MISSING_WHEN

SQLSTATE : 42601

Il doit y avoir au moins une clause WHEN dans une instruction MERGE.

DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT

SQLSTATE : 42601

Attribut(s) résolu(s) manquant(<missingAttributes>s) sur <input> dans l’opérateur<merge>

DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY

SQLSTATE : 22005

Clé d’affectation inattendue : <unexpectedKeyClass> - <unexpectedKeyObject>

DELTA_MERGE_UNRESOLVED_EXPRESSION

SQLSTATE : 42601

Impossible de résoudre <sqlExpr> dans <clause> étant donné<cols>.

DELTA_METADATA_CHANGED

SQLSTATE : 2D521

MetadataChangedException : les métadonnées de la table Delta ont été modifiées par une mise à jour simultanée. Recommencez l'opération.<conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_MISSING_CHANGE_DATA

SQLSTATE : KD002

Erreur lors de l’obtention des données modifiées pour la plage [<startVersion> , <endVersion>] car les données modifiées n’étaient pas

enregistré pour la version [<version>]. Si vous avez activé le flux des changements de données sur cette table,

utilisez DESCRIBE HISTORY pour voir à quel moment il a été activé pour la première fois.

Sinon, pour démarrer l’enregistrement des données de modification, utilisez « ALTER TABLE table_name SET TBLPROPERTIES

(<key> = vrai) ».

DELTA_MISSING_COLUMN

SQLSTATE : 42703

Impossible de trouver <columnName> dans les colonnes de table : <columnList>

DELTA_MISSING_COMMIT_INFO

SQLSTATE : KD004

La fonctionnalité <featureName> est activée sur cette table, ce qui nécessite la présence de l’action CommitInfo dans chaque validation. Toutefois, l’action CommitInfo est manquante dans la version de validation <version>.

DELTA_MISSING_COMMIT_TIMESTAMP

SQLSTATE : KD004

La fonctionnalité <featureName> est activée sur cette table, ce qui nécessite la présence de l’action commitTimestamp dans l’action CommitInfo. Toutefois, ce champ n’a pas été défini dans la version de validation <version>.

DELTA_MISSING_DELTA_TABLE

SQLSTATE : 42P01

<tableName> n’est pas une table Delta.

DELTA_MISSING_DELTA_TABLE_COPY_INTO

SQLSTATE : 42P01

La table n’existe pas. Créez d’abord une table Delta vide à l’aide de CREATE TABLE <tableName>.

DELTA_MISSING_ICEBERG_CLASS

SQLSTATE : 56038

La classe Iceberg n’a pas été trouvée. Vérifiez que la prise en charge de Delta Iceberg est installée.

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_MISSING_NOT_NULL_COLUMN_VALUE

SQLSTATE : 23502

La colonne <columnName>, qui a une contrainte NOT NULL, est manquante dans les données en cours d’écriture dans la table.

DELTA_MISSING_PARTITION_COLUMN

SQLSTATE : 42KD6

Colonne de partition <columnName> introuvable dans le schéma <columnList>

DELTA_MISSING_PART_FILES

SQLSTATE : 42KD6

Impossible de trouver tous les fichiers de partie de la version du point de contrôle : <version>

DELTA_MISSING_PROVIDER_FOR_CONVERT

SQLSTATE : 0AKDC

CONVERT TO DELTA prend uniquement en charge les tables parquet. Réécrivez votre cible au format parquet.<path> s’il s’agit d’un répertoire parquet.

DELTA_MISSING_SET_COLUMN

SQLSTATE : 42703

Colonne SET <columnName> introuvable en fonction des colonnes : <columnList>.

DELTA_MISSING_TRANSACTION_LOG

SQLSTATE : 42000

Format incompatible détecté.

Vous essayez de <operation> <path> à l’aide de Delta, mais il n’y a pas de

journal des transactions n’est présent. Vérifiez le travail en amont pour vous assurer qu’il écrit les données

à l’aide de format(“delta”), et vérifiez que vous essayez bien de %1$s le chemin de base de la table.

Pour plus d’informations sur Delta, voir <docLink>

DELTA_MODE_NOT_SUPPORTED

SQLSTATE : 0AKDC

Le mode spécifié « <mode> » n’est pas pris en charge. Les modes pris en charge sont les suivants : <supportedModes>

DELTA_MULTIPLE_CDC_BOUNDARY

SQLSTATE : 42614

Plusieurs <startingOrEnding> arguments fournis pour la lecture CDC. Indiquez l’un des <startingOrEnding>horodatages ou <startingOrEnding> la version.

DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER

SQLSTATE : 42614

Plusieurs configurations d’index de filtre bloom passées à la commande pour la colonne : <columnName>

DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE

SQLSTATE : 21506

Impossible d’effectuer la fusion, car plusieurs lignes sources correspondaient et ont tenté de modifier la même

ligne cible dans la table Delta de manière éventuellement conflictuelle. D’après la sémantique SQL de fusion,

lorsque plusieurs lignes sources correspondent à la même ligne cible, le résultat peut être ambigu

car il est difficile d’identifier quelle ligne source doit être utilisée pour mettre à jour ou supprimer la ligne cible

correspondante. Vous pouvez prétraiter la table source pour éliminer le risque de

correspondances multiples. Consultez la section

<usageReference>

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND

SQLSTATE : 42616

Pendant <command>, les deux configurations de validations coordonnées (« delta.coordinatedCommits.commitCoordinator-preview », « delta.coordinatedCommits.commitCoordinatorConf-preview ») sont définies dans la commande ou aucune d’entre elles. Manquant : «<configuration> ». Spécifiez cette configuration dans la clause TBLPROPERTIES ou supprimez l’autre configuration, puis réessayez la commande.

DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION

SQLSTATE : 42616

Pendant <command>, les deux configurations de validations coordonnées (« coordinatedCommits.commitCoordinator-preview », « coordinatedCommits.commitCoordinatorConf-preview ») sont définies dans les configurations SparkSession ou aucune d’entre elles. Manquant : «<configuration> ». Définissez cette configuration dans SparkSession ou annulez la configuration de l’autre configuration, puis réessayez la commande.

DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE

SQLSTATE : 42000

Les noms de colonne suivants sont uniquement réservés à l’utilisation interne de la table compartimentée Delta : <names>

DELTA_NESTED_FIELDS_NEED_RENAME

SQLSTATE : 42K05

Le schéma d’entrée contient des champs imbriqués qui sont capitalisés différemment de la table cible.

Ils doivent être renommés pour éviter la perte de données dans ces champs lors de l’écriture dans Delta.

Champs :

<fields>.

Schéma d’origine :

<schema>

DELTA_NESTED_NOT_NULL_CONSTRAINT

SQLSTATE : 0AKDC

Le <nestType> type du champ <parent> contient une contrainte NOT NULL. Delta ne prend pas en charge les contraintes NOT NULL imbriquées dans des tableaux ou des cartes. Pour supprimer cette erreur et ignorer silencieusement les contraintes spécifiées, définissez <configKey> = vrai.

Type <nestType> analysé :

<nestedPrettyJson>

DELTA_NESTED_SUBQUERY_NOT_SUPPORTED

SQLSTATE: 0A000

La sous-requête imbriquée n’est pas prise en charge dans la <operation> condition.

DELTA_NEW_CHECK_CONSTRAINT_VIOLATION

SQLSTATE : 23512

<numRows> lignes dans <tableName> ne respectent pas la nouvelle contrainte CHECK (<checkConstraint>)

DELTA_NEW_NOT_NULL_VIOLATION

SQLSTATE : 23512

<numRows> lignes dans <tableName> enfreignent la nouvelle contrainte NOT NULL sur <colName>

DELTA_NON_BOOLEAN_CHECK_CONSTRAINT

SQLSTATE : 42621

La contrainte CHECK « <name> » (<expr>) doit être une expression booléenne.

DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN

SQLSTATE : 42621

Trouvé <expr>. Une colonne générée ne peut pas utiliser une expression non déterministe.

DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED

SQLSTATE : 0AKDC

Les fonctions non déterministes ne sont pas prises en charge dans <operation> <expression>

DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE : 42601

Quand il existe plusieurs clauses MATCHED dans une instruction MERGE, seule la dernière clause MATCHED peut omettre la condition.

DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION

SQLSTATE : 42601

Quand il existe plusieurs clauses NOT MATCHED BY SOURCE dans une instruction MERGE, seule la dernière clause NOT MATCHED BY SOURCE peut omettre la condition.

DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION

SQLSTATE : 42601

Quand il existe plusieurs clauses NOT MATCHED dans une instruction MERGE, seule la dernière clause NOT MATCHED peut omettre la condition

DELTA_NON_PARSABLE_TAG

SQLSTATE : 42601

Impossible d’analyser la balise <tag>.

Les balises de fichier sont les suivantes : <tagList>

DELTA_NON_PARTITION_COLUMN_ABSENT

SQLSTATE : KD005

Les données écrites dans Delta doivent contenir au moins une colonne non partitionnée.<details>

DELTA_NON_PARTITION_COLUMN_REFERENCE

SQLSTATE : 42P10

Le prédicat fait référence à une colonne non partitionnée «<columnName>». Seules les colonnes de partition peuvent être référencées : [<columnList>]

DELTA_NON_PARTITION_COLUMN_SPECIFIED

SQLSTATE : 42P10

Des colonnes autres que de partitionnement <columnList> sont spécifiées là où seules des colonnes de partitionnement sont attendues : <fragment>.

DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG

SQLSTATE : 42K05

Le catalogue Delta nécessite un espace de noms en une seule partie, mais <identifier> est en plusieurs parties.

DELTA_NOT_A_DATABRICKS_DELTA_TABLE

SQLSTATE : 42000

<table> n’est pas une table Delta. Supprimez d’abord cette table si vous souhaitez la recréer avec Databricks Delta.

DELTA_NOT_A_DELTA_TABLE

SQLSTATE : 0AKDD

<tableName> n’est pas une table Delta. Supprimez d’abord ce tableau si vous souhaitez le recréer avec Delta Lake.

DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT

SQLSTATE : 42K09

Colonne non annulable introuvable dans struct : <struct>

DELTA_NOT_NULL_CONSTRAINT_VIOLATED

SQLSTATE : 23502

Contrainte NOT NULL enfreinte pour la colonne : <columnName>.

DELTA_NOT_NULL_NESTED_FIELD

SQLSTATE: 0A000

Un champ imbriqué non nullable ne peut pas être ajouté à un parent nullable. Définissez la nullabilité de la colonne parente en conséquence.

DELTA_NO_COMMITS_FOUND

SQLSTATE : KD006

Aucun commit trouvé dans <logPath>

DELTA_NO_RECREATABLE_HISTORY_FOUND

SQLSTATE : KD006

Aucun commit recréable trouvé dans <logPath>

DELTA_NO_RELATION_TABLE

SQLSTATE : 42P01

Table <tableIdent> introuvable

DELTA_NO_START_FOR_CDC_READ

SQLSTATE : 42601

Aucun startingVersion ni startingTimestamp n’a été fourni pour la lecture CDC.

DELTA_NULL_SCHEMA_IN_STREAMING_WRITE

SQLSTATE : 42P18

Delta n’accepte pas les NullTypes dans le schéma pour les écritures en streaming.

DELTA_ONEOF_IN_TIMETRAVEL

SQLSTATE : 42601

Indiquez « timestampAsOf » ou « versionAsOf » pour le voyage dans le temps.

DELTA_ONLY_OPERATION

SQLSTATE : 0AKDD

<operation> est pris en charge uniquement pour les tables Delta.

DELTA_OPERATION_MISSING_PATH

SQLSTATE : 42601

Indiquez le chemin d’accès ou l’identificateur de table pour <operation>.

DELTA_OPERATION_NOT_ALLOWED

SQLSTATE : 0AKDC

Opération non autorisée : <operation> n’est pas pris en charge pour les tables Delta

DELTA_OPERATION_NOT_ALLOWED_DETAIL

SQLSTATE : 0AKDC

Opération non autorisée : <operation> n’est pas prise en charge pour les tables Delta : <tableName>

DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION

SQLSTATE : 0AKDC

<operation> n’est pas pris en charge pour la colonne <colName> avec un classement non défini par défaut <collation>.

DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION

SQLSTATE : 0AKDC

<operation> n’est pas pris en charge pour l’expression <exprText>, car un classement non par défaut est utilisé.

DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED

SQLSTATE: 0A000

<operation> la commande d’une vue temporaire faisant référence à une table Delta qui contient des colonnes générées n’est pas prise en charge. Exécutez la commande <operation> directement sur la table Delta

DELTA_OPERATION_ON_VIEW_NOT_ALLOWED

SQLSTATE : 0AKDC

Opération non autorisée : <operation> ne peut pas être effectuée sur une vue.

DELTA_OPTIMIZE_FULL_NOT_SUPPORTED

SQLSTATE : 42601

OPTIMIZE FULL est uniquement pris en charge pour les tables en cluster avec des colonnes de clustering non vides.

DELTA_OVERWRITE_MUST_BE_TRUE

SQLSTATE : 42000

L’option de copie overwriteSchema ne peut pas être spécifiée sans définir OVERWRITE = 'true'.

DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE : 42613

'overwriteSchema' ne peut pas être utilisé en mode de remplacement de partition dynamique.

DELTA_PARTITION_COLUMN_CAST_FAILED

SQLSTATE : 22525

Échec du cast de la valeur <value> en <dataType> pour la colonne de partition <columnName>

DELTA_PARTITION_COLUMN_NOT_FOUND

SQLSTATE : 42703

Colonne de partition <columnName> introuvable dans le schéma [<schemaMap>]

DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES

SQLSTATE : 42613

Il n’est pas possible de spécifier un schéma de partition pendant la conversion de tables Iceberg. Elle est déduite automatiquement.

DELTA_PATH_DOES_NOT_EXIST

SQLSTATE : 42K03

<path> n’existe pas ou n’est pas une table Delta.

DELTA_PATH_EXISTS

SQLSTATE : 42K04

Impossible d’écrire dans le chemin <path> existant sans définir OVERWRITE = « vrai ».

DELTA_POST_COMMIT_HOOK_FAILED

SQLSTATE : 2DKD0

La validation dans la version <version> de la table Delta a réussi, mais une erreur est survenue lors de l’exécution du hook post-commit <name> <message>

DELTA_PROTOCOL_CHANGED

SQLSTATE : 2D521

ProtocolChangedException : la version du protocole de la table Delta a été modifiée par une mise à jour simultanée. <additionalInfo> <conflictingCommit>

Pour plus d’informations, reportez-vous à <docLink>.

DELTA_PROTOCOL_PROPERTY_NOT_INT

SQLSTATE : 42K06

La propriété de protocole <key> doit être un entier. Trouvé <value>

DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE

SQLSTATE : KD004

Impossible de mettre à niveau uniquement la version du protocole lecteur pour utiliser les fonctionnalités de table. La version du protocole de l'écrivain doit être au moins égale à <writerVersion> pour continuer. Reportez-vous à <docLink> pour plus d’informations sur les versions du protocole de table.

DELTA_READ_TABLE_WITHOUT_COLUMNS

SQLSTATE : 428GU

Vous essayez de lire une table Delta <tableName> qui n’a pas de colonnes.

Écrivez de nouvelles données avec l’option mergeSchema = true permettant de lire la table.

DELTA_REGEX_OPT_SYNTAX_ERROR

SQLSTATE : 2201B

Vérifiez à nouveau votre syntaxe pour « <regExpOption> »

DELTA_REPLACE_WHERE_IN_OVERWRITE

SQLSTATE : 42613

Vous ne pouvez pas utiliser replaceWhere conjointement avec un remplacement par filtre

DELTA_REPLACE_WHERE_MISMATCH

SQLSTATE : 44000

Les données écrites ne sont pas conformes à la condition de remplacement partielle de la table ou à la contrainte ‘<replaceWhere>’.

<message>

DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE

SQLSTATE : 42613

Une expression ‘replaceWhere’ et ‘partitionOverwriteMode’=’dynamic’ ne peut pas être définie dans les options DataFrameWriter.

DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET

SQLSTATE : 42613

‘replaceWhere’ ne peut pas être utilisé avec des filtres de données lorsque ‘dataChange’ a la valeur false. Filtres : <dataFilters>

DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS

SQLSTATE : 22000

Impossible d’attribuer des ID de ligne sans statistiques du nombre de lignes.

Collectez des statistiques pour le tableau en exécutant le code suivant dans un bloc-notes Scala, puis réessayez :

import com.databricks.sql.transaction.tahoe.DeltaLog

import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection

import org.apache.spark.sql.catalyst.TableIdentifier

val log = DeltaLog.forTable(spark, TableIdentifier(table_name))

StatisticsCollection.recompute(spark, log)

DELTA_SCHEMA_CHANGED

SQLSTATE : KD007

Changement de schéma détecté :

schéma source de streaming : <readSchema>

schéma de fichier de données : <dataSchema>

Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans

en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre

interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle.

DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS

SQLSTATE : KD007

Changement de schéma détecté dans la version <version> :

schéma source de streaming : <readSchema>

schéma de fichier de données : <dataSchema>

Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans

en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre

interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle. Si le problème persiste après

avoir changé vers un nouveau répertoire de point de contrôle, vous devrez peut-être modifier l’option

'startingVersion' ou 'startingTimestamp' pour démarrer à partir d’une version plus récente que

<version> avec un nouveau répertoire de point de contrôle.

DELTA_SCHEMA_CHANGED_WITH_VERSION

SQLSTATE : KD007

Changement de schéma détecté dans la version <version> :

schéma source de streaming : <readSchema>

schéma de fichier de données : <dataSchema>

Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans

en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre

interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle.

DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS

SQLSTATE : KD007

Le schéma de votre table Delta a changé de manière incompatible depuis la création de votre

objet DeltaTable ou DataFrame. Redéfinissez votre objet DeltaTable ou DataFrame.

Modifications :

<schemaDiff> <legacyFlagMessage>

DELTA_SCHEMA_NOT_PROVIDED

SQLSTATE : 42908

Le schéma de table n’est pas fourni. Fournissez le schéma (définition de colonne) de la table lors de l’utilisation de la table REPLACE et une requête AS SELECT n’est pas fournie.

DELTA_SCHEMA_NOT_SET

SQLSTATE : KD008

Le schéma de table n’est pas défini. Écrivez des données dedans ou utilisez CREATE TABLE pour définir le schéma.

DELTA_SET_LOCATION_SCHEMA_MISMATCH

SQLSTATE : 42KD7

Le schéma du nouvel emplacement Delta est différent du schéma de table actuel.

schéma d’origine :

<original>

schéma de destination :

<destination>

S’il s’agit d’une modification prévue, vous pouvez désactiver cette vérification en exécutant :

%%sql set <config> = vrai

DELTA_SHALLOW_CLONE_FILE_NOT_FOUND

SQLSTATE : 42K03

Le fichier <filePath> référencé dans le journal des transactions est introuvable. Cela se produit quand des données ont été supprimées du système de fichiers manuellement et non pas à l’aide de l’instruction de tableDELETE. Cette table semble être un clone superficiel. Si tel est le cas, cette erreur peut se produire lorsque la table d’origine à partir de laquelle cette table a été clonée a supprimé un fichier que le clone utilise toujours. Si vous souhaitez que les clones soient indépendants de la table d’origine, utilisez plutôt un clone DEEP.

DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY

SQLSTATE : 42939

Les propriétés prédéfinies qui commencent par <prefix> ne peuvent pas être modifiées.

DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

SQLSTATE : 42704

Les données sont limitées par la propriété du destinataire <property> qui ne s’applique pas au destinataire actuel dans la session.

Pour plus d’informations, consultez DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED

DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW

SQLSTATE : 42887

<operation> ne peut pas être utilisé dans les vues de partage Delta qui sont partagées entre comptes.

DELTA_SHARING_INVALID_PROVIDER_AUTH

SQLSTATE : 28000

Type <authenticationType> d’authentification illégal pour le fournisseur <provider>.

DELTA_SHARING_INVALID_RECIPIENT_AUTH

SQLSTATE : 28000

Type <authenticationType> d’authentification illégal pour le destinataire <recipient>.

DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME

SQLSTATE : 42K05

Nom non valide pour référencer un <type> partage à l’intérieur d’un partage. Vous pouvez utiliser <type>le nom de la table à l’intérieur du partage suivant le format [schéma].[<type>], ou vous pouvez également utiliser le nom complet d’origine de la table en suivant le format [catalog].[ schéma]. [>type>].

Si vous ne savez pas quel nom utiliser, vous pouvez exécuter « SHOW ALL IN SHARE [share] » et trouver le nom de la <type> colonne à supprimer : la colonne « name » est le <type>nom du partage et de la colonne « shared_object » est le <type>nom complet d’origine.

DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED

SQLSTATE : 54000

Il existe plus de deux jetons pour le destinataire <recipient>.

DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND

SQLSTATE : 42704

La propriété <property> Recipient n’existe pas.

DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND

SQLSTATE : 42704

Les jetons de destinataire sont manquants pour le destinataire <recipient>.

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN

SQLSTATE : 42P10

La ou les colonnes de non-partitionnement <badCols> sont spécifiées pour SHOW PARTITIONS

DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE

SQLSTATE : 42809

SHOW PARTITIONS n’est pas autorisé sur une table qui n’est pas partitionnée : <tableName>

DELTA_SOURCE_IGNORE_DELETE

SQLSTATE: 0A000

Détection de données supprimées (par exemple <removedFile>) de la source de streaming à la version <version>. Non pris en charge actuellement. Si vous souhaitez ignorer les suppressions, affectez la valeur ‘true’ à l’option ‘ignoreDeletes’. La table source se trouve dans le chemin d’accès <dataPath>.

DELTA_SOURCE_TABLE_IGNORE_CHANGES

SQLSTATE: 0A000

Détection d’une mise à jour des données (par exemple <file>) dans la table source à la version <version>. Non pris en charge actuellement. Si cela se produit régulièrement et que vous pouvez ignorer les modifications, définissez l’option « skipChangeCommits » sur « true ». Si vous souhaitez que la mise à jour des données soit reflétée, redémarrez cette requête avec un répertoire de point de contrôle nouveau ou effectuez une actualisation complète si vous utilisez DLT. Si vous avez besoin de gérer ces modifications, basculez vers les MVS. La table source se trouve dans le chemin d’accès <dataPath>.

DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET

SQLSTATE : 42613

Indiquez «<version> » ou «<timestamp> »

DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND

SQLSTATE : 42000

<statsType> statistiques introuvables pour la colonne dans les métadonnées Parquet : <columnPath>.

DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION

SQLSTATE : KD002

Nous avons détecté une ou plusieurs modifications de schéma non additives (<opType>) entre les versions <previousSchemaChangeVersion> et <currentSchemaChangeVersion> Delta dans la source de streaming Delta.

Veuillez vérifier si vous souhaitez propager manuellement cette ou ces modifications de schéma dans la table récepteur avant que nous procédions au traitement du flux en utilisant le schéma finalisé dans <currentSchemaChangeVersion>.

Une fois que vous avez corrigé le schéma de la table récepteur ou que vous avez décidé qu’il n’est pas nécessaire de corriger, vous pouvez définir l’une des configurations SQL suivantes pour débloquer cette ou ces modifications de schéma non additives et poursuivre le traitement du flux.

Pour débloquer ce flux particulier uniquement pour cette série de modifications de schéma unique : définissez <allowCkptVerKey>` = `<allowCkptVerValue>.

Pour débloquer ce flux particulier : définissez <allowCkptKey>` = `<allowCkptValue>

Pour débloquer tous les flux : définissez <allowAllKey>` = `<allowAllValue>.

Sinon, le cas échéant, vous pouvez remplacer le <allowAllMode> par <opSpecificMode> dans la conf SQL pour débloquer le flux uniquement pour ce type de modification de schéma.

DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT

SQLSTATE : KD002

Impossible d’obtenir l’instantané du journal Delta pour la version de démarrage lors de la vérification des modifications du schéma de mappage de colonnes. Choisissez une autre version de démarrage ou forcez l’activation de la lecture en continu à vos propres risques en définissant «<config> » sur « vrai ».

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE

SQLSTATE : 42KD4

Le streaming n’est pas prise en charge sur les tables avec des modifications de schéma incompatibles en lecture (ex. changement de nom, de suppression ou de type de données).

Pour plus d’informations et pour les étapes suivantes permettant de résoudre ce problème, reportez-vous à la documentation à l’adresse <docLink>

Schéma de lecture : <readSchema>. Schéma de données incompatibles : <incompatibleSchema>.

DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG

SQLSTATE : 42KD4

Le streaming n’est pas prise en charge sur les tables avec des modifications de schéma incompatibles en lecture (ex. changement de nom, de suppression ou de type de données).

Fournissez un « schemaTrackingLocation » pour permettre une évolution non additive du schéma pour le traitement du flux Delta.

Consultez <docLink> pour plus d’informations.

Schéma de lecture : <readSchema>. Schéma de données incompatibles : <incompatibleSchema>.

DELTA_STREAMING_METADATA_EVOLUTION

SQLSTATE : 22000

Le schéma, la configuration de table ou le protocole de votre table Delta a changé pendant la diffusion en continu.

Le journal de suivi du schéma ou des métadonnées a été mis à jour.

Redémarrez le flux pour continuer le traitement à l’aide des métadonnées mises à jour.

Schéma mis à jour : <schema>.

Configurations de table mises à jour : <config>.

Protocole de table mis à jour : <protocol>

DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS

SQLSTATE : 22000

La diffusion en continu à partir d’un tableau source <tableId> avec un suivi de schéma ne prend pas en charge les filtres de lignes ou les masques de colonne.

Veuillez supprimer les filtres de lignes ou les masques de colonne, ou désactivez le suivi de schéma.

DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT

SQLSTATE : 22000

Détection d’un emplacement de schéma en conflit «<loc> » lors de la diffusion en continu à partir d’une table ou d’une table située sur « <table> ».

Un autre flux peut réutiliser le même emplacement de schéma, ce qui n'est pas autorisé.

Fournissez un nouveau chemin d’accès unique schemaTrackingLocation ou streamingSourceTrackingId en tant qu’option de lecteur pour l’un des flux de cette table.

DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT

SQLSTATE : 22000

L’emplacement du schéma « <schemaTrackingLocation> » doit être placé sous l’emplacement du point de contrôle « <checkpointLocation> ».

DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED

SQLSTATE : 22000

Fichier journal incomplet dans le journal du schéma source de streaming Delta à l’emplacement « <location> ».

Le journal de schéma a peut-être été endommagé. Choisissez un nouvel emplacement de schéma.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID

SQLSTATE : 22000

Détection d’un ID de table Delta incompatible lors de la tentative de lecture du flux Delta.

ID de table persistant : <persistedId>, ID de table : <tableId>

Le journal de schéma a peut-être été réutilisé. Choisissez un nouvel emplacement de schéma.

DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA

SQLSTATE : 22000

Détection d’un schéma de partition incompatible lors de la tentative de lecture du flux Delta.

Schéma persistant : <persistedSchema>, Schéma de partition Delta : <partitionSchema>

Choisissez un nouvel emplacement de schéma pour réinitialiser le journal du schéma si vous avez récemment modifié manuellement le schéma de partition de la table.

DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA

SQLSTATE : 22000

Nous n'avons pas pu initialiser le journal des schémas de la source de streaming Delta car

nous avons détecté une modification de schéma ou de protocole incompatible lors du traitement d’un lot de streaming allant de la version de table <a> à la <b>.

DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED

SQLSTATE : 22000

Échec de l’analyse du schéma à partir du journal du schéma source de diffusion delta.

Le journal de schéma a peut-être été endommagé. Choisissez un nouvel emplacement de schéma.

DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS

SQLSTATE : 42711

Impossible d’activer la capture des changements de données sur la table. La table contient déjà

des colonnes <columnList> réservées qui vont

être utilisées en interne comme métadonnées pour le flux des changements de données de la table. Pour activer

le flux des changements de données sur la table, renommez/supprimez ces colonnes.

DELTA_TABLE_ALREADY_EXISTS

SQLSTATE : 42P07

La table <tableName> existe déjà.

DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF

SQLSTATE : 0AKDC

Actuellement, DeltaTable.forPath prend uniquement en charge les clés de configuration hadoop à partir de <allowedPrefixes> , mais il en a obtenu <unsupportedOptions>

DELTA_TABLE_ID_MISMATCH

SQLSTATE : KD007

La table Delta à <tableLocation> a été remplacée pendant que cette commande utilisait la table.

L’ID de table était <oldId> mais est maintenant <newId>.

Réessayez la commande actuelle pour vous assurer qu’elle lit une vue cohérente de la table.

DELTA_TABLE_LOCATION_MISMATCH

SQLSTATE : 42613

L’emplacement de la table <tableName> existante est <existingTableLocation>. Il ne correspond pas à l’emplacement spécifié <tableLocation>.

DELTA_TABLE_NOT_FOUND

SQLSTATE : 42P01

La table Delta <tableName> n’existe pas.

DELTA_TABLE_NOT_SUPPORTED_IN_OP

SQLSTATE : 42809

La table n’est pas prise en charge dans <operation>. Utilisez un chemin à la place.

DELTA_TABLE_ONLY_OPERATION

SQLSTATE : 0AKDD

<tableName> n’est pas une table Delta. <operation> est pris en charge uniquement pour les tables Delta.

DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY

SQLSTATE : 428GU

Le schéma final de la table cible est vide.

DELTA_TIMESTAMP_GREATER_THAN_COMMIT

SQLSTATE : 42816

L’horodatage fourni (<providedTimestamp>) se trouve après la dernière version disponible pour cette

table (<tableName>). Utilisez un horodatage antérieur ou équivalent à <maximumTimestamp>.

DELTA_TIMESTAMP_INVALID

SQLSTATE : 42816

L’horodatage fourni (<expr>) ne peut pas être converti en horodatage valide.

DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE

SQLSTATE : 42604

<timeTravelKey> doit être une valeur de début valide.

DELTA_TRUNCATED_TRANSACTION_LOG

SQLSTATE : 42K03

<path>: impossible de reconstruire l’état au niveau de la version<version>, car le journal des transactions a été tronqué en raison d’une suppression manuelle ou de la politique de conservation des journaux (<logRetentionKey>=<logRetention>) et de la politique de conservation de point de contrôle (<checkpointRetentionKey>=<checkpointRetention>)

DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED

SQLSTATE : 0AKDC

Opération non autorisée : TRUNCATE TABLE sur les tables Delta ne prend pas en charge les prédicats de partition ; utilisez DELETE pour supprimer des partitions ou des lignes spécifiques.

DELTA_UDF_IN_GENERATED_COLUMN

SQLSTATE : 42621

Trouvé <udfExpr>. Une colonne générée ne peut pas utiliser une fonction définie par l’utilisateur

DELTA_UNEXPECTED_ACTION_EXPRESSION

SQLSTATE : 42601

Expression d’action inattendue <expression>.

DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME

SQLSTATE : KD009

Attente de <expectedColsSize> colonne(s) de partition : <expectedCols>, mais <parsedColsSize> colonne(s) de partition trouvée(s). <parsedCols> à partir de l’analyse du nom de fichier : <path>

DELTA_UNEXPECTED_PARTIAL_SCAN

SQLSTATE : KD00A

Une analyse complète des sources Delta était attendue, mais une analyse partielle a été trouvée. chemin : <path>

DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME

SQLSTATE : KD009

Attente de <expectedCol> colonne(s) de partition, mais colonne(s) de partition <parsedCol> trouvée(s) en analysant le nom de fichier : <path>

DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER

SQLSTATE : KD009

CONVERT TO DELTA a été appelé avec un schéma de partition différent de celui déduit du catalogue. Évitez de fournir le schéma afin que le schéma de partition puisse être choisi dans le catalogue.

Schéma de partition du catalogue :

<catalogPartitionSchema>

Schéma de partition fourni :

<userPartitionSchema>

DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

SQLSTATE : KD00E

La lecture d’Iceberg avec Delta Uniform a échoué.

Pour plus d’informations, consultez DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED

SQLSTATE: 0A000

La table d’entrée Create ou Refresh Uniform n’est pas prise en charge.

DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT

SQLSTATE : 0AKDC

Le format <fileFormat> n'est pas pris en charge. Seul Iceberg est pris en charge comme format de fichier d’origine.

DELTA_UNIFORM_NOT_SUPPORTED

SQLSTATE : 0AKDC

Le format universel est pris en charge uniquement dans les tableaux Unity Catalog.

DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED

SQLSTATE : KD00E

Échec de la conversion de la version <version> du tableau au format universel <format>. <message>

DELTA_UNIVERSAL_FORMAT_VIOLATION

SQLSTATE : KD00E

La validation du format universel (<format>) a échoué : <violation>

DELTA_UNKNOWN_CONFIGURATION

SQLSTATE : F0000

Une configuration inconnue a été spécifiée : <config>

DELTA_UNKNOWN_PRIVILEGE

SQLSTATE : 42601

Privilège inconnu : <privilege>

DELTA_UNKNOWN_READ_LIMIT

SQLSTATE : 42601

ReadLimit inconnu : <limit>

DELTA_UNRECOGNIZED_COLUMN_CHANGE

SQLSTATE : 42601

Modification de colonne <otherClass> non reconnue. Vous exécutez peut-être une version obsolète de Delta Lake.

DELTA_UNRECOGNIZED_INVARIANT

SQLSTATE : 56038

Invariant non reconnu. Mettez à niveau votre version de Spark.

DELTA_UNRECOGNIZED_LOGFILE

SQLSTATE : KD00B

Fichier journal <fileName> non reconnu

DELTA_UNSET_NON_EXISTENT_PROPERTY

SQLSTATE : 42616

Tentative d’annulation de la propriété non existante « <property> » dans la table <tableName>

DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE

SQLSTATE : 0AKDC

<path> ne prend pas en charge l’ajout de fichiers avec un chemin absolu

DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP

SQLSTATE : 0AKDC

ALTER TABLE CHANGE COLUMN n’est pas pris en charge pour changer la colonne <fieldPath> de <oldField> à <newField>

DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP

SQLSTATE : 0AKDC

Opération ALTER TABLE REPLACE COLUMNS non prise en charge. Raison : <details>

Échec de la modification du schéma de :

<oldSchema>

to:

<newSchema>

DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE

SQLSTATE : 0AKDC

Vous avez essayé de REPLACE une table existante (<tableName>) par un CLONE. Cette opération est

non pris en charge. Essayez une autre cible pour CLONE ou supprimez la table dans la cible actuelle.

DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE

SQLSTATE : 0AKDC

Changer le mode de mappage de colonnes de « <oldMode> » à « <newMode> » n’est pas pris en charge.

DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL

SQLSTATE : KD004

Votre version actuelle du protocole de table ne prend pas en charge le changement de mode de mappage de colonnes

en utilisant <config>.

Version du protocole Delta nécessaire au mappage de colonnes :

<requiredVersion>

Version actuelle du protocole Delta de votre table :

<currentVersion>

<advice>

DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE

SQLSTATE : 0AKDC

Un changement de schéma est détectée :

ancien schéma :

<oldTableSchema>

Nouveau schéma :

<newTableSchema>

Les changements de schéma ne sont pas autorisées pendant le changement du mode de mappage de colonnes.

DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE

SQLSTATE : 0AKDC

L’écriture de données avec le mode mappage de colonnes n’est pas prise en charge.

DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER

SQLSTATE : 0AKDC

La création d’un index de filtre de Bloom sur une colonne de type <dataType> n’est pas prise en charge : <columnName>

DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY

SQLSTATE : 0AKDC

Impossible d’ajouter un commentaire à <fieldPath>. L’ajout d’un commentaire à une clé/valeur de carte ou à un élément de tableau n’est pas pris en charge.

DELTA_UNSUPPORTED_DATA_TYPES

SQLSTATE : 0AKDC

Colonnes trouvées utilisant des types de données non pris en charge : <dataTypeList>. Vous pouvez définir «<config> » sur « faux » pour désactiver la vérification du type. La désactivation de cette vérification du type peut permettre aux utilisateurs de créer des tables Delta non prises en charge et ne doit être utilisée que lors d’une tentative de lecture/écriture de tables héritées.

DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN

SQLSTATE : 42621

<dataType> ne peut pas être le résultat d’une colonne générée

DELTA_UNSUPPORTED_DEEP_CLONE

SQLSTATE: 0A000

Le clone profond n’est pas pris en charge pour cette version de Delta.

DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW

SQLSTATE : 42809

<view> est une vue. DESCRIBE DETAIL est uniquement pris en charge pour les tables.

DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN

SQLSTATE : 0AKDC

L’annulation des colonnes de clustering (<columnList>) n’est pas autorisée.

DELTA_UNSUPPORTED_DROP_COLUMN

SQLSTATE : 0AKDC

DROP COLUMN n’est pas pris en charge pour votre table Delta. <advice>

DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE

SQLSTATE : 0AKDC

Peut uniquement supprimer des colonnes imbriquées à partir de StructType. Trouvé <struct>

DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN

SQLSTATE : 0AKDC

La suppression des colonnes de partition (<columnList>) n’est pas autorisée.

DELTA_UNSUPPORTED_EXPRESSION

SQLSTATE: 0A000

Type d’expression non pris en charge (<expType>) pour <causedBy>. Les types pris en charge sont [<supportedTypes>].

DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN

SQLSTATE : 42621

<expression> ne peut pas être utilisé dans une colonne générée

DELTA_UNSUPPORTED_FEATURES_FOR_READ

SQLSTATE : 56038

Fonctionnalité de lecture de table Delta non prise en charge : la table « <tableNameOrPath> » nécessite une ou plusieurs fonctionnalités de table de lecteur qui ne sont pas prises en charge par cette version de Databricks : <unsupported>. Pour plus d’informations sur la compatibilité des fonctionnalités Delta Lake, consultez cette section <link>.

DELTA_UNSUPPORTED_FEATURES_FOR_WRITE

SQLSTATE : 56038

Fonctionnalité d’écriture de table Delta non prise en charge : la table « <tableNameOrPath> » nécessite une ou plusieurs fonctionnalités de table d’écriture qui ne sont pas prises en charge par cette version de Databricks : <unsupported>. Pour plus d’informations sur la compatibilité des fonctionnalités Delta Lake, consultez cette section <link>.

DELTA_UNSUPPORTED_FEATURES_IN_CONFIG

SQLSTATE : 56038

Les fonctionnalités de table configurées dans les configurations Spark ou les propriétés de table Delta suivantes ne sont pas reconnues par cette version de Databricks : <configs>.

DELTA_UNSUPPORTED_FEATURE_STATUS

SQLSTATE : 0AKDE

Attendez-vous à ce que le statut pour la fonctionnalité de table <feature> soit « pris en charge », mais obtenu «<status> ».

DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT

SQLSTATE : 0AKDC

La mise à jour des champs imbriqués n’est prise en charge que pour StructType, mais vous essayez de mettre à jour un champ de <columnName>, qui est de type : <dataType>.

DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS

SQLSTATE: 0A000

La commande 'FSCK REPAIR TABLE' n'est pas prise en charge pour les versions de tables dont les fichiers de vecteurs de suppression sont manquants.

Contactez le support.

DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS

SQLSTATE: 0A000

La commande « GENERATE symlink_format_manifest » n’est pas prise en charge sur les versions de table comprenant des vecteurs de suppression.

Pour produire une version de la table sans vecteurs de suppression, exécutez « REORG TABLE APPLY (PURGE) ». Réexécutez ensuite la commande « GENERATE ».

Assurez-vous qu’aucune transaction simultanée n’ajoute de vecteurs de suppression entre REORG et GENERATE.

Si vous devez générer des manifestes régulièrement ou si vous ne pouvez pas empêcher les transactions simultanées, envisagez de désactiver les vecteurs de suppression sur cette table en utilisant "ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)".

DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT

SQLSTATE : 0AKDC

Les invariants au niveau des champs imbriqués autres que StructTypes ne sont pas pris en charge.

DELTA_UNSUPPORTED_IN_SUBQUERY

SQLSTATE : 0AKDC

La sous-requête imbriquée n’est pas prise en charge dans la condition <operation>.

DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX

SQLSTATE: 0A000

listKeywithPrefix non disponible

DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING

SQLSTATE : 0AKDC

La génération de manifeste n’est pas prise en charge pour les tables qui exploitent le mappage de colonnes, car les lecteurs externes ne peuvent pas lire ces tables Delta. Pour plus d’informations, consultez la documentation Delta.

DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC

SQLSTATE: 0A000

Les opérations MERGE INTO avec évolution du schéma ne prennent actuellement pas en charge l’écriture de sortie CDC.

DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE

SQLSTATE : 0AKDC

Les prédicats multi-colonnes ne sont pas pris en charge dans la condition <operation>.

DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER

SQLSTATE : 0AKDC

La création d’un index de filtre de Bloom au niveau d’une colonne imbriquée n’est actuellement pas prise en charge : <columnName>

DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION

SQLSTATE : 0AKDC

Le champ imbriqué n’est pas pris en charge dans <operation> (champ = <fieldName> ).

DELTA_UNSUPPORTED_NON_EMPTY_CLONE

SQLSTATE : 0AKDC

La table de destination de clone n’est pas vide. Veuillez TRUNCATE ou DELETE FROM de la table avant d’exécuter CLONE.

DELTA_UNSUPPORTED_OUTPUT_MODE

SQLSTATE : 0AKDC

La source de données <dataSource> ne prend pas en charge le mode de sortie <mode>

DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER

SQLSTATE : 0AKDC

La création d’un index de filtre de Bloom au niveau d’une colonne de partitionnement n’est pas prise en charge : <columnName>

DELTA_UNSUPPORTED_RENAME_COLUMN

SQLSTATE : 0AKDC

Le changement de nom de colonne n’est pas pris en charge pour votre table Delta. <advice>

DELTA_UNSUPPORTED_SCHEMA_DURING_READ

SQLSTATE : 0AKDC

Delta ne prend pas en charge la spécification du schéma au moment de la lecture.

DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES

SQLSTATE: 0A000

SORTED BY n’est pas pris en charge pour les tables compartimentées Delta

DELTA_UNSUPPORTED_SOURCE

SQLSTATE : 0AKDD

La destination <operation> prend uniquement en charge les sources Delta.

<plan>

DELTA_UNSUPPORTED_STATIC_PARTITIONS

SQLSTATE : 0AKDD

La spécification de partitions statiques dans la spécification de partition n’est actuellement pas prise en charge pendant les insertions

DELTA_UNSUPPORTED_STRATEGY_NAME

SQLSTATE : 22023

Nom de la stratégie non prise en charge : <strategy>

DELTA_UNSUPPORTED_SUBQUERY

SQLSTATE : 0AKDC

Les sous-requêtes ne sont pas prises en charge dans <operation> (condition = <cond>).

DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES

SQLSTATE : 0AKDC

La sous-requête n’est pas prise en charge dans les prédicats de partition.

DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS

SQLSTATE : 42613

Impossible de spécifier le voyage dans le temps dans plusieurs formats.

DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS

SQLSTATE : 0AKDC

Impossible de faire des vues de voyage dans le temps, des sous-requêtes, des flux ou des requêtes de flux de données de modification.

DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES

SQLSTATE: 0A000

L’écriture dans des exemples de tables n’est pas prise en charge

DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA

SQLSTATE : 0AKDC

Impossible d’opérer sur cette table, car une modification d’un type non pris en charge a été appliquée. Le champ <fieldName> a été modifié de <fromType> à <toType>.

DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION

SQLSTATE : 0AKDC

Indiquez le chemin de base (<baseDeltaPath>) lors du nettoyage des tables Delta. Actuellement, le nettoyage de partitions spécifiques n’est pas pris en charge.

DELTA_UNSUPPORTED_WRITES_STAGED_TABLE

SQLSTATE : 42807

L’implémentation de table ne prend pas en charge les écritures : <tableName>

DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR

SQLSTATE : 0AKDC

Vous essayez d’effectuer des écritures sur une table qui a été inscrite auprès du coordinateur <coordinatorName>de validation. Toutefois, aucune implémentation de ce coordinateur n’est disponible dans l’environnement actuel et les écritures sans coordinateurs ne sont pas autorisées.

DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES

SQLSTATE: 0A000

L’écriture dans des exemples de tables n’est pas prise en charge

DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION

SQLSTATE : 42846

Impossible de lancer <fromCatalog> sur <toCatalog>. Toutes les colonnes imbriquées doivent correspondre.

DELTA_VACUUM_COPY_INTO_STATE_FAILED

SQLSTATE : 22000

VACUUM sur les fichiers de données a réussi, mais le nettoyage de mémoire d’état COPY INTO a échoué.

DELTA_VERSIONS_NOT_CONTIGUOUS

SQLSTATE : KD00C

Les versions (<versionList>) ne sont pas contiguës.

Pour plus de détails, voirDELTA_VERSIONS_NOT_CONTIGUOUS

DELTA_VIOLATE_CONSTRAINT_WITH_VALUES

SQLSTATE : 23001

Contrainte CHECK <constraintName> <expression> enfreinte par la ligne contenant les valeurs :

<values>

DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

SQLSTATE: 0A000

La validation des propriétés de la table <table> a été violée :

Pour plus d’informations, consultez DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED

DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED

SQLSTATE: 0A000

<viewIdentifier> est une vue. Vous ne pouvez pas écrire des données dans une vue.

DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST

SQLSTATE : 42703

La colonne <columnName> Ordre Z n’existe pas dans le schéma de données.

DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS

SQLSTATE : KD00D

L’ordre de Z sur <cols> sera

pas d’effet, car nous ne collectons actuellement pas de statistiques pour ces colonnes. Consultez la section

<link>

pour plus d’informations sur le saut de données et l’organisation selon l’ordre de plan. Vous pouvez désactiver

cette vérification en définissant

‘%%sql set <zorderColStatKey> = faux »

DELTA_ZORDERING_ON_PARTITION_COLUMN

SQLSTATE : 42P10

<colName> est une colonne de partition. L’organisation selon l’ordre de plan ne peut être effectuée que sur des colonnes de données

Autoloader

CF_ADD_NEW_NOT_SUPPORTED

SQLSTATE: 0A000

Le mode d’évolution de schéma <addNewColumnsMode> n’est pas pris en charge quand le schéma est spécifié. Pour utiliser ce mode, vous pouvez indiquer le schéma via cloudFiles.schemaHints à la place.

CF_AMBIGUOUS_AUTH_OPTIONS_ERROR

SQLSTATE : 42000

Options d’authentification de la configuration des notifications trouvées pour le répertoire (par défaut)

mode de liste :

<options>

Si vous souhaitez utiliser le mode de notification des fichiers, définissez explicitement :

.option(« cloudFiles.<useNotificationsKey> », « vrai »)

Sinon, si vous souhaitez ignorer la validation de vos options et ignorer ces

options d’authentification, vous pouvez définir :

.option(“cloudFiles.ValidateOptionsKey>”, “false”)

CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR

SQLSTATE : 42000

Mode de liste incrémentielle (cloudFiles.<useIncrementalListingKey>)

et notification de fichier (cloudFiles.<useNotificationsKey>)

ont été activés en même temps.

Veillez à sélectionner une seule option uniquement.

CF_AZURE_STORAGE_SUFFIXES_REQUIRED

SQLSTATE : 42000

Exige adlsBlobSuffix et adlsDfsSuffix pour Azure

CF_BUCKET_MISMATCH

SQLSTATE : 22000

Le <storeType> dans l’événement de fichier <fileEvent> est différent de celui attendu par la source : <source>.

CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY

SQLSTATE : 22000

Impossible de faire évoluer le schéma quand le journal du schéma est vide. Emplacement du journal de schéma : <logPath>

CF_CANNOT_PARSE_QUEUE_MESSAGE

SQLSTATE : 22000

Impossible d’analyser le message de file d’attente suivant : <message>

CF_CANNOT_RESOLVE_CONTAINER_NAME

SQLSTATE : 22000

Impossible de résoudre le nom du conteneur à partir du chemin d’accès : <path>, URI résolu : <uri>

CF_CANNOT_RUN_DIRECTORY_LISTING

SQLSTATE : 22000

Impossible d’exécuter une liste de répertoires pendant qu’un thread de renvoi asynchrone s’exécute

CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON

SQLSTATE : 42000

Impossible d’activer cloudFiles.cleanSource et cloudFiles.allowOverwrites en même temps.

CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION

SQLSTATE : 42501

Auto Loader ne peut pas supprimer les fichiers traités, car il ne dispose pas d’autorisations d’écriture dans le répertoire source.

<reason>

Pour résoudre le problème, vous pouvez :

  1. Accorder des autorisations d’écriture au répertoire source OU
  2. Définir cleanSource sur « OFF »

Vous pouvez également débloquer votre flux en définissant la valeur « vrai » dans SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors.

CF_DUPLICATE_COLUMN_IN_DATA

SQLSTATE : 22000

Une erreur s’est produite pendant la tentative d’inférence du schéma de partition de votre table. Vous avez la même colonne dupliquée dans vos chemins de données et de partition. Pour ignorer la valeur de partition, indiquez explicitement vos colonnes de partition en utilisant : .option(« cloudFiles.<partitionColumnsKey> », « {comma-separated-list} »)

CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE

SQLSTATE : 42000

Impossible d’inférer le schéma quand le chemin d’entrée <path> est vide. Essayez de démarrer le flux quand il y a des fichiers dans le chemin d’entrée, ou spécifiez le schéma.

CF_EVENT_GRID_AUTH_ERROR

SQLSTATE : 22000

Échec de la création d’un abonnement Event Grid. Vérifiez que votre principal

le principal a <permissionType> des abonnements Event Grid. Pour plus d’informations, consultez :

<docLink>

CF_EVENT_GRID_CREATION_FAILED

SQLSTATE : 22000

Échec de la création d’un abonnement Event Grid. Vérifiez que Microsoft.EventGrid est

inscrit en tant que fournisseur de ressources dans votre abonnement. Pour plus d’informations, consultez :

<docLink>

CF_EVENT_GRID_NOT_FOUND_ERROR

SQLSTATE : 22000

Échec de la création d’un abonnement Event Grid. Vérifiez que votre compte

de stockage (<storageAccount>) se trouve sous votre groupe de ressources (<resourceGroup>) et que

le compte de stockage est un compte « StorageV2 (v2 universel) ». Pour plus d’informations, consultez :

<docLink>

CF_EVENT_NOTIFICATION_NOT_SUPPORTED

SQLSTATE: 0A000

Le mode de notification d’événement Auto Loader n’est pas pris en charge pour <cloudStore> .

CF_FAILED_TO_CHECK_STREAM_NEW

SQLSTATE : 22000

Échec de la vérification pour déterminer si le flux est nouveau

CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION

SQLSTATE : 22000

Échec de la création de l'abonnement : <subscriptionName>. Un abonnement de même nom existe déjà et est associé à une autre rubrique : <otherTopicName>. La rubrique souhaitée est <proposedTopicName>. Supprimez l’abonnement existant ou créez-en un avec un nouveau suffixe de ressource.

CF_FAILED_TO_CREATED_PUBSUB_TOPIC

SQLSTATE : 22000

Échec de la création de la rubrique : <topicName>. Il existe déjà une rubrique avec ce nom.<reason> Supprimez la rubrique existante ou réessayez avec un autre suffixe de ressource

CF_FAILED_TO_DELETE_GCP_NOTIFICATION

SQLSTATE : 22000

Échec de la suppression de la notification avec l’ID <notificationId> sur le compartiment <bucketName> pour la rubrique <topicName>. Réessayez ou supprimez manuellement la notification via la console GCP.

CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA

SQLSTATE : 22000

Échec de désérialisation du schéma persistant à partir de la chaîne : « <jsonSchema> »

CF_FAILED_TO_EVOLVE_SCHEMA

SQLSTATE : 22000

Impossible de faire évoluer le schéma sans un journal de schéma.

CF_FAILED_TO_FIND_PROVIDER

SQLSTATE : 42000

Échec de la recherche de fournisseur pour <fileFormatInput>

CF_FAILED_TO_INFER_SCHEMA

SQLSTATE : 22000

Échec de l’inférence de schéma pour le format <fileFormatInput> à partir de fichiers existants dans le chemin d’entrée <path>.

Pour plus d’informations, consultez CF_FAILED_TO_INFER_SCHEMA

CF_FAILED_TO_WRITE_TO_SCHEMA_LOG

SQLSTATE : 22000

Échec de l’écriture dans le journal du schéma à l’emplacement <path>.

CF_FILE_FORMAT_REQUIRED

SQLSTATE : 42000

Impossible de trouver l’option nécessaire : cloudFiles.format.

CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS

SQLSTATE : 22000

Plusieurs abonnements (<num>) trouvés avec le préfixe Auto Loader pour la rubrique <topicName> :

<subscriptionList>

Il ne doit existe qu’un seul abonnement par rubrique. Vérifiez manuellement que votre rubrique n’a pas plusieurs abonnements.

CF_GCP_AUTHENTICATION

SQLSTATE : 42000

Spécifiez toutes les éléments suivants : <clientEmail>, <client>

<privateKey> et <privateKeyId>ou n’en spécifiez aucun pour utiliser la valeur par défaut

Chaîne de fournisseur d’informations d’identification GCP pour l’authentification auprès de ressources GCP.

CF_GCP_LABELS_COUNT_EXCEEDED

SQLSTATE : 22000

Reçu trop d’étiquettes (<num>) pour la ressource GCP. Le nombre maximal d’étiquettes par ressource est <maxNum>.

CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED

SQLSTATE : 22000

Reçu trop de balises de ressource (<num>) pour la ressource GCP. Le nombre maximal de balises de ressource par ressource est de <maxNum>, car les balises de ressource sont stockées sous forme d’e balises GCP au niveau des ressources, et les balises propres à Databricks consomment une partie de ce quota de balises.

CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG

SQLSTATE : 22000

Fichier journal incomplet dans le journal du schéma sur le chemin d’accès <path>

CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT

SQLSTATE : 22000

Fichier de métadonnées incomplet dans le point de contrôle Auto Loader

CF_INCORRECT_SQL_PARAMS

SQLSTATE : 42000

La méthode cloud_files accepte deux paramètres de chaîne obligatoires : le chemin à partir duquel charger et le format de fichier. Les options de lecteur de fichier doivent être fournies dans un mappage clé-valeur de chaîne. Par exemple cloud_files(“path”, “json”, map(“option1”, “value1”)). Reçu : <params>

CF_INTERNAL_ERROR

SQLSTATE : 42000

Erreur interne.

Si vous souhaitez obtenir plus d’informations, voir CF_INTERNAL_ERROR

CF_INVALID_ARN

SQLSTATE : 42000

ARN non valide : <arn>

CF_INVALID_AZURE_CERTIFICATE

SQLSTATE : 42000

La clé privée fournie avec l’option cloudFiles.certificate ne peut pas être analysée. Indiquez une clé publique valide au format PEM.

CF_INVALID_AZURE_CERT_PRIVATE_KEY

SQLSTATE : 42000

La clé privée fournie avec l’option cloudFiles.certificatePrivateKey ne peut pas être analysée. Indiquez une clé privée valide au format PEM.

CF_INVALID_CHECKPOINT

SQLSTATE : 42000

Ce point de contrôle n’est pas une source CloudFiles valide

CF_INVALID_CLEAN_SOURCE_MODE

SQLSTATE : 42000

Mode non valide pour l’option <value> de source propre .

CF_INVALID_GCP_RESOURCE_TAG_KEY

SQLSTATE : 42000

Clé d’étiquette de ressource non valide pour la ressource GCP : <key>. Les clés doivent commencer par une lettre minuscule, comporter entre 1 et 63 caractères et contenir uniquement des lettres minuscules, des chiffres, des traits de soulignement (_) et des traits d’union (-).

CF_INVALID_GCP_RESOURCE_TAG_VALUE

SQLSTATE : 42000

Valeur d’étiquette de ressource non valide pour la ressource GCP : <value>. Les valeurs doivent être comprises entre 0 et 63 caractères et doivent contenir uniquement des lettres minuscules, des chiffres, des traits de soulignement (_) et des traits d’union (-).

CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS

SQLSTATE : 42000

Le Chargeur automatique ne prend pas en charge les options suivantes lorsqu’il est utilisé avec des événements de fichiers managés :

<optionList>

Nous vous recommandons de supprimer ces options, puis de redémarrer le flux.

CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

SQLSTATE : 22000

Réponse non valide du service des événements de fichier managé. Pour obtenir de l’aide, contactez le support Databricks.

Pour plus d’informations, consultez CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE

CF_INVALID_SCHEMA_EVOLUTION_MODE

SQLSTATE : 42000

cloudFiles.<schemaEvolutionModeKey> doit faire partie de {

« <addNewColumns> »

« <failOnNewColumns> »

« <rescue> »

« <noEvolution>"}

CF_INVALID_SCHEMA_HINTS_OPTION

SQLSTATE : 42000

Les indicateurs de schéma ne peuvent spécifier qu’une seule colonne en particulier.

Dans ce cas, redéfinissez la colonne : <columnName>

plusieurs fois dans schemaHints :

<schemaHints>

CF_INVALID_SCHEMA_HINT_COLUMN

SQLSTATE : 42000

Les indicateurs de schéma ne peuvent pas être utilisés pour remplacer les types imbriqués des mappages et des tableaux.

Colonne en conflit : <columnName>

CF_LATEST_OFFSET_READ_LIMIT_REQUIRED

SQLSTATE : 22000

latestOffset doit être appelé avec un élément ReadLimit défini au niveau de cette source.

CF_LOG_FILE_MALFORMED

SQLSTATE : 22000

Le fichier journal a été mal crée : échec de la lecture de la version du journal à partir de <fileName>.

CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS

SQLSTATE : 22000

Vous avez demandé à Auto Loader d’ignorer les fichiers existants dans votre emplacement externe en définissant includeExistingFiles sur false. Toutefois, le service d’événements de fichiers managés découvre toujours des fichiers existants dans votre emplacement externe. Réessayez une fois que les événements de fichiers managés auront fini dé découvrir tous les fichiers dans votre emplacement externe.

CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND

SQLSTATE : 42000

Vous utilisez Auto Loader avec des événements de fichiers managés, mais il semble que l’emplacement externe de votre chemin ‘d’accès d’entrée « <path> » n’a pas d’événements de fichier activés ou que le chemin d’entrée n’est pas valide. Demandez à votre administrateur Databricks d’activer les événements de fichier sur l’emplacement externe de votre chemin d’entrée.

CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED

SQLSTATE : 42000

Vous utilisez Auto Loader avec des événements de fichiers managés, mais vous n’avez pas accès à l’emplacement externe ou au volume de votre chemin d’accès d’entrée « <path> », ou le chemin d’entrée n’est pas valide. Demandez à votre administrateur Databricks d’accorder des autorisations de lecture pour l’emplacement ou le volume externe ou fournissez un chemin d’accès d’entrée valide dans un emplacement ou un volume externe existant.

CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS

SQLSTATE : 56038

Auto Loader avec les événements de fichier managés n’est disponible que sur Databricks serverless. Pour continuer, déplacez cette charge de travail vers Databricks serverless ou désactivez l’option cloudFiles.useManagedFileEvents.

CF_MAX_MUST_BE_POSITIVE

SQLSTATE : 42000

max doit être positif

CF_METADATA_FILE_CONCURRENTLY_USED

SQLSTATE : 22000

Plusieurs requêtes de streaming utilisent simultanément <metadataFile>

CF_MISSING_METADATA_FILE_ERROR

SQLSTATE : 42000

Le fichier de métadonnées dans le répertoire de point de contrôle de la source de streaming est manquant. Ce fichier

de métadonnées contenant des options par défaut importantes pour le flux, ce dernier ne peut pas être redémarré

dans l’immédiat. Pour obtenir de l’aide, contactez le support Databricks.

CF_MISSING_PARTITION_COLUMN_ERROR

SQLSTATE : 42000

La colonne de partition <columnName> n’existe pas dans le schéma fourni :

<schema>

CF_MISSING_SCHEMA_IN_PATHLESS_MODE

SQLSTATE : 42000

Spécifiez un schéma à l’aide de .schema() si le chemin de la source CloudFiles n’est pas indiqué et que vous utilisez le mode de notification des fichiers. Sinon, pour permettre à Auto Loader d’inférer le schéma, indiquez un chemin de base dans .load().

CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC

SQLSTATE : 22000

Notifications existantes trouvées pour la rubrique <topicName> dans le compartiment <bucketName> :

notification,id

<notificationList>

Pour éviter de polluer l’abonné avec des événements inattendus, supprimez les notifications précédentes et réessayez.

CF_NEW_PARTITION_ERROR

SQLSTATE : 22000

Les nouvelles colonnes de partition ont été inférées à partir de vos fichiers : [<filesList>]. Indiquez toutes les colonnes de partition de votre schéma ou fournissez une liste de colonnes de partition pour lesquelles vous souhaitez extraire des valeurs en utilisant : .option(“cloudFiles.partitionColumns”, “{comma-separated-list|empty-string}”)

CF_PARTITON_INFERENCE_ERROR

SQLSTATE : 22000

Une erreur s’est produite lors de la tentative d’inférence du schéma de partition du lot actuel de fichiers. Indiquez explicitement vos colonnes de partition en utilisant : .option(« cloudFiles.<partitionColumnOption> », « {comma-separated-list} »)

CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES

SQLSTATE : 42000

Impossible de lire les fichiers lorsque le chemin d’entrée <path> n’existe pas. Vérifiez que le chemin d’entrée existe et réessayez.

CF_PERIODIC_BACKFILL_NOT_SUPPORTED

SQLSTATE: 0A000

Le renvoi périodique n’est pas pris en charge si le renvoi asynchrone est désactivé. Vous pouvez activer le renvoi asynchrone/listage de répertoire en définissant spark.databricks.cloudFiles.asyncDirListing sur true

CF_PREFIX_MISMATCH

SQLSTATE : 22000

L’événement trouvé ne correspond pas : la clé <key> n’a pas le préfixe : <prefix>

CF_PROTOCOL_MISMATCH

SQLSTATE : 22000

<message>

Si vous n’avez pas besoin d’apporter d’autres modifications à votre code, définissez la configuration

configuration: « <sourceProtocolVersionKey> = <value> »

pour reprendre votre flux. Voir les rubriques suivantes :

<docLink>

.

CF_REGION_NOT_FOUND_ERROR

SQLSTATE : 42000

Impossible d’obtenir la région AWS par défaut. Spécifiez une région à l’aide de l’option cloudFiles.region.

CF_RESOURCE_SUFFIX_EMPTY

SQLSTATE : 42000

Échec de la création des services de notification : le suffixe de ressource ne peut pas être vide.

CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS

SQLSTATE : 42000

Échec de la création des services de notification : le suffixe de ressource ne peut comporter que des caractères alphanumériques, des traits d’union (-) et des traits de soulignement (_).

CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE

SQLSTATE : 42000

Échec de la création des services de notification : le suffixe de ressource ne peut comporter que des lettre minuscules, des chiffres et des tirets (-).

CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP

SQLSTATE : 42000

Échec de la création de services de notification : le suffixe de ressource ne peut comporter que des caractères alphanumériques, des traits d’union (-), des traits de soulignement (_), des points (.), des signes tildes (~), des signes plus (+) et des signes de pourcentage (<percentSign>).

CF_RESOURCE_SUFFIX_LIMIT

SQLSTATE : 42000

Échec de la création des services de notification : le suffixe de ressource ne peut pas comporter plus de <limit> caractères.

CF_RESOURCE_SUFFIX_LIMIT_GCP

SQLSTATE : 42000

Échec de la création des services de notification : le suffixe de ressource doit comporter entre <lowerLimit> et <upperLimit> caractères.

CF_RESTRICTED_GCP_RESOURCE_TAG_KEY

SQLSTATE : 22000

Clé d’étiquette de ressource GCP restreinte (<key>) trouvée. Les clés d’étiquette de ressource GCP suivantes sont restreintes pour Auto Loader : [<restrictedKeys>]

CF_RETENTION_GREATER_THAN_MAX_FILE_AGE

SQLSTATE : 42000

La valeur de cloudFiles.cleanSource.retentionDuration ne peut pas être supérieure à celle de cloudFiles.maxFileAge.

CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX

SQLSTATE : 22000

Échec de la création de la notification pour la rubrique : <topic> avec le préfixe : <prefix>. Il existe déjà une rubrique de même nom avec un autre préfixe : <oldPrefix>. Essayez d’utiliser un autre suffixe de ressource pour configurer ou supprimer la configuration existante.

CF_SOURCE_DIRECTORY_PATH_REQUIRED

SQLSTATE : 42000

Indiquez le chemin du répertoire source avec l’option path

CF_SOURCE_UNSUPPORTED

SQLSTATE: 0A000

La source de fichiers cloud prend uniquement en charge les chemins S3, Stockage Blob Azure (wasb/wasbs) et Azure Data Lake Gen1 (adl) et Gen2 (abfs/abfss) pour le moment. Chemin : « <path> », uri résolu : « <uri> »

CF_STATE_INCORRECT_SQL_PARAMS

SQLSTATE : 42000

La fonction cloud_files_state accepte un paramètre de chaîne représentant le répertoire de point de contrôle d’un flux en continu cloudFiles ou un tableName en plusieurs parties identifiant un tableau de diffusion en continu, ainsi qu’un deuxième paramètre entier facultatif représentant la version de point de contrôle pour laquelle l’état de chargement doit être utilisé. Le deuxième paramètre peut également être « latest » pour lire le dernier point de contrôle. Reçu : <params>

CF_STATE_INVALID_CHECKPOINT_PATH

SQLSTATE : 42000

Le chemin du point de contrôle d’entrée <path> n’est pas valide. Soit le chemin d’accès n’existe pas, soit il n’existe aucune source cloud_files trouvée.

CF_STATE_INVALID_VERSION

SQLSTATE : 42000

La version spécifiée <version> n’existe pas ou a été supprimée pendant l’analyse.

CF_THREAD_IS_DEAD

SQLSTATE : 22000

<threadName> thread est mort.

CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION

SQLSTATE : 42000

Impossible de déterminer l’emplacement du point de contrôle de flux à partir de l’emplacement du point de contrôle source : <checkPointLocation>

CF_UNABLE_TO_DETECT_FILE_FORMAT

SQLSTATE : 42000

Impossible de détecter le format de fichier source à partir de <fileSize> fichier(s) échantillonné(s), <formats>trouvé(s). Spécifiez le format.

CF_UNABLE_TO_EXTRACT_BUCKET_INFO

SQLSTATE : 42000

Impossible d’extraire les informations de compartiment. Chemin : « <path> », uri résolu : « <uri> ».

CF_UNABLE_TO_EXTRACT_KEY_INFO

SQLSTATE : 42000

Impossible d’extraire les informations de clé. Chemin : « <path> », uri résolu : « <uri> ».

CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO

SQLSTATE : 42000

Impossible d’extraire les informations du compte de stockage ; chemin : « <path> », uri résolu : « <uri> »

CF_UNABLE_TO_LIST_EFFICIENTLY

SQLSTATE : 22000

Nous avons reçu un événement de changement de nom de répertoire pour le chemin <path>, mais nous ne pouvons pas lister efficacement ce répertoire. Pour que le flux continue, définissez l’option « cloudFiles.ignoreDirRenames » sur true et envisagez d’activer les renvois réguliers avec cloudFiles.backfillInterval pour que ces données soient traitées.

CF_UNEXPECTED_READ_LIMIT

SQLSTATE : 22000

ReadLimit inattendu : <readLimit>

CF_UNKNOWN_OPTION_KEYS_ERROR

SQLSTATE : 42000

Clés d’option inconnues trouvées :

<optionList>

Vérifiez que toutes les clés d’option fournies sont correctes. Si vous voulez éviter la

validation de vos options et ignorer ces options inconnues, vous pouvez définir :

.option(« cloudFiles.<validateOptions> », « faux »)

CF_UNKNOWN_READ_LIMIT

SQLSTATE : 22000

Valeur de ReadLimit inconnue : <readLimit>

CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION

SQLSTATE: 0A000

La fonction SQL « cloud_files » pour créer une source de streaming du chargeur automatique est prise en charge uniquement dans un pipeline Delta Live Tables. Pour plus d’informations, consultez :

<docLink>

CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE

SQLSTATE: 0A000

L’inférence de schéma n’est pas prise en charge pour le format : <format>. Spécifiez le schéma.

CF_UNSUPPORTED_LOG_VERSION

SQLSTATE: 0A000

UnsupportedLogVersion : la version maximale prise en charge du journal est v<maxVersion>``, but encountered v``<version>. Le fichier journal a été produit par une version plus récente de DBR et ne peut pas être lu par cette version. Procédez à une mise à niveau.

CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE

SQLSTATE: 0A000

Le mode d’évolution de schéma <mode> n’est pas pris en charge pour le format : <format>. Définissez le mode d’évolution du schéma sur « aucun ».

CF_USE_DELTA_FORMAT

SQLSTATE : 42000

La lecture à partir d’une table Delta n’est pas prise en charge avec cette syntaxe. Si vous souhaitez consommer des données à partir de Delta, reportez-vous à la documentation : lire une table Delta (<deltaDocLink>) ou lire une table Delta en tant que source de flux (<streamDeltaDocLink>). La source de streaming à partir de Delta est déjà optimisée pour la consommation incrémentielle des données.

Géospatial

EWKB_PARSE_ERROR

SQLSTATE : 22023

Erreur d’analyse d’EWKB : <parseError> à la position <pos>

GEOJSON_PARSE_ERROR

SQLSTATE : 22023

Erreur lors de l’analyse de GeoJSON : <parseError> à la position <pos>

Pour plus d’informations, voir GEOJSON_PARSE_ERROR

H3_INVALID_CELL_ID

SQLSTATE : 22023

<h3Cell> n’est pas un ID de cellule H3 valide

Pour plus d’informations, voir H3_INVALID_CELL_ID

H3_INVALID_GRID_DISTANCE_VALUE

SQLSTATE : 22023

La distance <k> de grille H3 doit être non négative

Pour plus d’informations, voir H3_INVALID_GRID_DISTANCE_VALUE

H3_INVALID_RESOLUTION_VALUE

SQLSTATE : 22023

La résolution H3 <r> doit être comprise entre <minR> et <maxR> (inclus)

Pour plus d’informations, voir H3_INVALID_RESOLUTION_VALUE

H3_NOT_ENABLED

SQLSTATE: 0A000

<h3Expression> est désactivé ou non pris en charge. Envisagez d’activer Photon ou de basculer vers un niveau qui prend en charge les expressions H3

Pour plus d’informations, voir H3_NOT_ENABLED

H3_PENTAGON_ENCOUNTERED_ERROR

SQLSTATE : 22023

Un pentagone a été rencontré lors du calcul de l’anneau hexadécimal de <h3Cell> avec la distance de grille <k>

H3_UNDEFINED_GRID_DISTANCE

SQLSTATE : 22023

La distance de grille H3 entre <h3Cell1> et <h3Cell2> n’est pas définie

ST_DIFFERENT_SRID_VALUES

SQLSTATE : 22023

Les arguments de « <sqlFunction> » doivent avoir la même valeur SRID. Valeurs SRID trouvées : <srid1>, <srid2>

ST_INVALID_ARGUMENT

SQLSTATE : 22023

« <sqlFunction> » : <reason>

ST_INVALID_ARGUMENT_TYPE

SQLSTATE : 22023

L’argument de « <sqlFunction> » doit être du type <validTypes>

ST_INVALID_CRS_TRANSFORMATION_ERROR

SQLSTATE : 22023

<sqlFunction>: transformation CRS non valide ou non prise en charge du SRID <srcSrid> vers le SRID <trgSrid>

ST_INVALID_ENDIANNESS_VALUE

SQLSTATE : 22023

Endianness <e> doit être « NDR » (little-endian) ou « XDR » (big-endian)

ST_INVALID_GEOHASH_VALUE

SQLSTATE : 22023

<sqlFunction> : valeur geohash non valide : « <geohash> ». Les valeurs geohash doivent être des chaînes base32 minuscules valides, comme décrit dans https://en.wikipedia.org/wiki/Geohash#Textual_representation

ST_INVALID_PRECISION_VALUE

SQLSTATE : 22023

La précision <p> doit être comprise entre <minP> et <maxP> inclus

ST_INVALID_SRID_VALUE

SQLSTATE : 22023

SRID <srid> non valide ou non prise en charge

ST_NOT_ENABLED

SQLSTATE: 0A000

<stExpression> est désactivé ou non pris en charge. Envisagez d’activer Photon ou de basculer vers un niveau qui prend en charge les expressions ST

ST_UNSUPPORTED_RETURN_TYPE

SQLSTATE: 0A000

Les types de données GEOGRAPHY et GEOMETRY ne peuvent pas être retournés dans les requêtes. Utilisez l’une des expressions SQL suivantes pour les convertir en formats d’échange standard : <projectionExprs>.

WKB_PARSE_ERROR

SQLSTATE : 22023

Erreur d’analyse de WKB : <parseError> à la position <pos>

Pour plus d’informations, voir WKB_PARSE_ERROR

WKT_PARSE_ERROR

SQLSTATE : 22023

Erreur d’analyse de WKT : <parseError> à la position <pos>

Pour plus d’informations, voir WKT_PARSE_ERROR