Classes d’erreur dans Azure Databricks
S’applique à : Databricks SQL Databricks Runtime 12.2 et versions ultérieures
Les classes d’erreur sont des chaînes descriptives, en langage compréhensible par un humain et correspondant à la condition d’erreur.
Vous pouvez utiliser des classes d’erreur pour gérer par programmation les erreurs dans votre application sans avoir à analyser le message d’erreur.
Ceci est une liste des conditions d’erreur courantes nommées retournées par Azure Databricks.
Databricks Runtime et Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
L’expression <sqlExpr>
non déterministe ne doit pas apparaître dans les arguments d’une fonction d’agrégation.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Échec de l’analyse de la sortie du modèle lors de la conversion en retourType spécifié : « <dataType>
», réponse JSON a été : « <responseString>
». Mettez à jour le returnType pour qu’il corresponde au contenu du type représenté par le JSON de réponse, puis réessayez la requête.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
La sortie réelle du modèle comporte plusieurs colonnes « <responseString>
». Toutefois, le type de retour spécifié["<dataType>
"] n’a qu’une seule colonne. Mettez à jour le returnType pour contenir le même nombre de colonnes que la sortie du modèle, puis réessayez la requête.
AI_FUNCTION_HTTP_REQUEST_ERROR
Une erreur s’est produite lors de l’exécution d’une requête HTTP pour la fonction <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Réponse HTTP non valide pour la fonction <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Le nombre maximal de mots doit être un entier non négatif, mais obtenu <maxWords>
.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Les paramètres de modèle fournis (<modelParameters>
) ne sont pas valides dans la fonction AI_QUERY pour servir le point de terminaison «<endpointName>
».
Pour plus d’informations, consultez AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
Une erreur s’est produite lors de l’analyse de la réponse JSON pour la fonction <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Échec de l’analyse du schéma pour le point de terminaison de service « <endpointName>
» : <errorMessage>
, réponse JSON a été : « <responseJson>
».
Définissez manuellement le paramètre returnType
dans la fonction AI_QUERY pour remplacer la résolution de schéma.
AI_FUNCTION_UNSUPPORTED_ERROR
La fonction <funcName>
n'est pas prise en charge dans l'environnement actuel. Il est disponible uniquement dans Databricks SQL Pro et Serverless.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Échec de l’évaluation de la fonction SQL «<functionName>
», car l’argument fourni <invalidValue>
a « <invalidDataType>
», mais seuls les types suivants sont pris en charge : <supportedDataTypes>
. Mettez à jour l’appel de fonction de façon à fournir un argument de type chaîne, et réessayez la requête.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
La fonction IA : «<functionName>
» ne prend pas en charge le type suivant comme type de retour : «<typeName>
». Le type de retour doit être un type SQL valide compris par Catalyst et pris en charge par la fonction IA. Les types actuels pris en charge comprennent : <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
La valeur fournie «<argValue>
» n’est pas prise en charge par l’argument «<argName>
». Les valeurs prises en charge sont les suivantes : <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Le «<sqlExpr>
» fourni n’est pas pris en charge par l’argument returnType.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
La recherche vectorielle avec type d’incorporation de colonne <embeddingColumnType>
n’est pas prise en charge.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
La recherche vectorielle avec type d’index <indexType>
n’est pas prise en charge.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Échec de matérialiser la requête de recherche vectorielle du type <dataType>
Spark vers des objets scala-natifs pendant l’encodage des requêtes avec une erreur : <errorMessage>
.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
La recherche vectorielle avec num_results supérieur à <maxLimit>
n’est pas prise en charge. La limite spécifiée était <requestedLimit>
. Veuillez réessayer avec num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
L’utilisation de requêtes paramétrisées nommées nécessite que tous les paramètres soient nommés. Paramètres dont les noms sont manquants : <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Impossible d’utiliser toutes les colonnes pour les colonnes de partition.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
La <type>
colonne<columnName>
ALTER TABLE spécifie l’option «<optionName>
» plusieurs fois, ce qui n’est pas valide.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Le nom <name>
est ambigu dans l’expression «nested CTE»
Définissez sur <config>
« CORRIGÉ » pour que le nom défini dans l’expression CTE interne soit prioritaire. Si elle est définie sur « HERITÉ», les définitions CTE externes sont prioritaires.
Voir https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine’.
AMBIGUOUS_COLUMN_OR_FIELD
La colonne ou le champ <name>
est ambigu et a <n>
correspondances.
AMBIGUOUS_COLUMN_REFERENCE
La colonne <name>
est ambiguë. Cela est dû au fait que vous avez joint plusieurs DataFrame ensemble, et que certains de ces DataFrames sont identiques.
Cette colonne pointe vers l’un des DataFrames, mais Spark est incapable de déterminer lequel.
Affectez des alias aux DataFrames avec différents noms par le biais de DataFrame.alias
avant de les joindre,
et spécifiez la colonne à l’aide du nom qualifié, par exemple df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Référence ambiguë à une contrainte <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
L’alias de colonne latérale <name>
est ambigu et a <n>
correspondances.
AMBIGUOUS_REFERENCE
La référence <name>
est ambiguë, elle peut être : <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
Génère une référence au champ <field>
. Elle apparaît <count>
fois dans le schéma.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
ANALYZE CONSTRAINTS n’est pas pris en charge.
ANSI_CONFIG_CANNOT_BE_DISABLED
La configuration <config>
ANSI SQL ne peut pas être désactivée dans ce produit.
AQE_THREAD_INTERRUPTED
Le thread AQE est interrompu, probablement en raison de l’annulation de requête par l’utilisateur.
ARGUMENT_NOT_CONSTANT
La fonction <functionName>
inclut un paramètre <parameterName>
à la position <pos>
qui nécessite un argument constant. Calculez l’argument <sqlExpr>
séparément et transmettez le résultat sous forme de constante.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Si nécessaire, définissez <config>
sur « faux » pour contourner cette erreur.
Pour plus d’informations, voir ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
Nombre de colonnes ou de variables affectées ou aliasées : <numTarget>
ne correspond pas au nombre d’expressions sources : <numExpr>
.
AS_OF_JOIN
En tant que jointure non valide.
Pour plus d’informations, consultez AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
L’utilisation des valeurs par défaut n’est pas prise en charge lorsque rescuedDataColumn
est activé. Vous pouvez peut-être supprimer cette vérification en définissant spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
sur false, mais les valeurs par défaut ne s’appliqueront pas et les valeurs Null seront toujours utilisées.
AVRO_INCOMPATIBLE_READ_TYPE
Impossible de convertir Avro <avroPath>
en SQL <sqlPath>
, car le type de données encodé d’origine est <avroType>
, mais vous essayez de lire le champ en tant que <sqlType>
, ce qui entraînerait une réponse incorrecte.
Pour autoriser la lecture de ce champ, activez la configuration SQL : “spark.sql.legacy.avro.allowIncompatibleSchema”.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
L’utilisation de la correspondance de champ positionnelle n’est pas prise en charge lorsque rescuedDataColumn
ou failOnUnknownFields
sont activés. Désactivez ces options pour continuer.
BATCH_METADATA_NOT_FOUND
Impossible de trouver le lot <batchMetadataFile>
.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Les informations d’identification de connexion BigQuery doivent être spécifiées avec le paramètre « GoogleServiceAccountKeyJson » ou les paramètres « projectId », « OAuthServiceAcctEmail » , « OAuthPvtKey » ensemble
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
a provoqué un dépassement de capacité.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
L’instruction <invalidStatement>
booléenne n’est pas valide. Ligne unique attendue avec une valeur du BOOLEAN
type, mais a obtenu une ligne vide.
BUILT_IN_CATALOG
<operation>
ne prend pas en charge les catalogues intégrés.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
La méthode <methodName>
ne peut pas être appelée sur le jeu de données/dataframe de streaming.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN ne peut pas modifier le classement de type/les sous-types de colonnes de compartiment, mais a trouvé la colonne de compartiment <columnName>
dans la table <tableName>
.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN n’est pas pris en charge pour les colonnes de partition, mais a trouvé la colonne de partition <columnName>
dans la table <tableName>
.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
Le filigrane doit être défini pour réattribuer la colonne de temps d’événement. Échec de la recherche de définition de filigrane dans la requête de diffusion en continu.
CANNOT_CAST_DATATYPE
Impossible de lancer <sourceType>
sur <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Impossible de convertir Protobuf <protobufColumn>
en SQL <sqlColumn>
car le schéma est incompatible (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Impossible de convertir <protobufType>
de Protobuf en <toType>
type SQL.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Impossible de convertir SQL <sqlColumn>
en Protobuf <protobufColumn>
, car le schéma est incompatible (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Impossible de convertir SQL <sqlColumn>
en Protobuf <protobufColumn>
, car <data>
n’est pas dans les valeurs définies pour enum : <enumString>
.
CANNOT_COPY_STATE
Impossible de copier l’état du catalogue (comme la base de données actuelle ou les vues temporaires) de Unity Catalog vers un catalogue hérité.
CANNOT_CREATE_DATA_SOURCE_TABLE
Échec de la création de la table de source de données <tableName>
:
Pour plus d’informations, consultez CANNOT_CREATE_DATA_SOURCE_TABLE.
CANNOT_DECODE_URL
L’URL fournie ne peut pas être décodée : <url>
. Vérifiez que l’URL est correctement mise en forme, puis réessayez.
CANNOT_DELETE_SYSTEM_OWNED
Le système <resourceType>
ne peut pas être supprimé car il a un propriétaire.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Impossible de supprimer la contrainte portant le nom <constraintName>
partagé par une contrainte CHECK
et une contrainte PRIMARY KEY ou FOREIGN KEY. Vous pouvez supprimer la contrainte PRIMARY KEY ou
FOREIGN KEY par des requêtes :
- ALTER TABLE .. DROP PRIMARY KEY ou
- ALTER TABLE .. DROP FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
Impossible d’établir la connexion à la base de données distante <jdbcDialectName>
. Veuillez vérifier les informations de connexion et les références, par exemple l'hôte, le port, l'utilisateur, le mot de passe et les options de la base de données. ** Si vous pensez que les informations sont correctes, veuillez vérifier la configuration réseau de votre espace de travail et assurez-vous qu’elle n’ait pas de restrictions de trafic sortant vers l’hôte. Veuillez également case activée que l’hôte ne bloque pas les connexions entrantes à partir du réseau où les clusters Spark de l’espace de travail sont déployés. ** Messages d’erreur détaillés : <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Impossible d’établir la connexion à la base de données distante <jdbcDialectName>
. Veuillez vérifier les informations de connexion et les références, par exemple l'hôte, le port, l'utilisateur, le mot de passe et les options de la base de données. ** Si vous pensez que les informations sont correctes, autorisez le trafic entrant d’Internet vers votre hôte, car vous utilisez le calcul serverless. Si vos stratégies réseau n’autorisent pas le trafic Internet entrant, utilisez le calcul non serverless, ou vous pouvez contacter votre représentant Databricks pour en savoir plus sur la mise en réseau privée serverless. ** Messages d’erreur détaillés : <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Les transformations et actions de jeu de données ne peuvent être appelées que par le pilote, pas à l’intérieur d’autres transformations de jeu de données ; par exemple, dataset1.map(x => dataset2.values.count() * x) n’est pas valide, car l’action de transformation et de comptage des valeurs ne peut pas être effectuée à l’intérieur de la transformation dataset1.map. Pour plus d’informations, voir SPARK-28702.
CANNOT_LOAD_FUNCTION_CLASS
Impossible de charger la classe <className>
lors de l’inscription de la fonction <functionName>
, vérifiez qu’elle se trouve sur le chemin d'accès.
CANNOT_LOAD_PROTOBUF_CLASS
Impossible de charger la classe Protobuf avec le nom <protobufClassName>
. <explanation>
.
CANNOT_LOAD_STATE_STORE
Une erreur s’est produite pendant l’état de chargement.
Pour plus d’informations, voir CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Échec de la fusion des types de données incompatibles <left>
et <right>
. Veuillez vérifier les types de données des colonnes fusionnées et assurez-vous qu’ils sont compatibles. Si nécessaire, envisagez de convertir les colonnes en types de données compatibles avant de tenter la fusion.
CANNOT_MERGE_SCHEMAS
Échec de la fusion des schémas :
Schéma initial :
<left>
Le schéma qui ne peut pas être fusionné avec le schéma initial :
<right>
.
CANNOT_MODIFY_CONFIG
Impossible de modifier la valeur de la configuration Spark :<key>
.
Voir aussi https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements’.
CANNOT_PARSE_DECIMAL
Impossible d'analyser la valeur décimale. Vérifiez que l’entrée est un nombre valide avec des séparateurs de virgules ou de virgules décimales facultatifs.
CANNOT_PARSE_INTERVAL
Impossible d'analyser <intervalString>
. Vérifiez que la valeur fournie est dans un format valide pour définir un intervalle. Vous pouvez référencer la documentation pour connaître le format approprié. Si le problème persiste, vérifiez que la valeur d’entrée n’est pas null ou vide, puis réessayez.
CANNOT_PARSE_JSON_FIELD
Impossible d’analyser le nom <fieldName>
du champ et la valeur <fieldValue>
du token JSON type <jsonType>
pour cibler les données Spark de type <dataType>
.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Erreur lors de l’analyse des octets de descripteur dans Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Si nécessaire, définissez <ansiConfig>
sur « false » pour contourner cette erreur.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Impossible d’interroger MV/ST pendant l’initialisation.
Pour plus d’informations, consultez CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Impossible de lire le fichier au niveau du chemin d’accès <path>
, car il a été archivé. Ajustez vos filtres de recherche pour exclure les fichiers archivés.
CANNOT_READ_FILE
Impossible de lire le fichier <format>
au niveau du chemin d’accès : <path>
.
Pour plus d’informations, voir CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Impossible de lire la clé sensible «<key>
» du fournisseur sécurisé.
CANNOT_RECOGNIZE_HIVE_TYPE
Impossible de reconnaître la chaîne de type hive : <fieldType>
, colonne : <fieldName>
. Le type de données spécifié pour le champ ne peut pas être reconnu par Spark SQL. Veuillez vérifier le type de données du champ spécifié et assurez-vous qu’il s’agit d’un type de données Spark SQL valide. Reportez-vous à la documentation Spark SQL pour obtenir la liste des types de données valides et leur format. Si le type de données est correct, vérifiez que vous utilisez une version prise en charge de Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Impossible de référencer Unity Catalog <objType>
dans les objets de Hive Metastore.
CANNOT_RENAME_ACROSS_CATALOG
Le renommage de <type>
dans plusieurs catalogues n’est pas autorisé.
CANNOT_RENAME_ACROSS_SCHEMA
Le renommage de <type>
dans plusieurs schémas n’est pas autorisé.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Impossible de résoudre la colonne de DataFrame <name>
. Cela est probablement dû à des références illégales comme df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
Impossible de résoudre <targetString>
.* en fonction des colonnes d’entrée <columns>
. Veuillez vérifier que la table ou le struct spécifié existe et qu’il est accessible dans les colonnes d’entrée.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Échec de la définition des autorisations sur le chemin d’accès menant de<path>
à <permission>
.
CANNOT_SAVE_VARIANT
Impossible d’enregistrer le type de données variant dans le stockage externe.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Impossible de cloner des tables superficielles dans Unity Catalog et Hive Metastore.
CANNOT_SHALLOW_CLONE_NESTED
Impossible de cloner de manière superficielle une table <table>
qui est déjà un clone superficiel.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Le clone superficiel est uniquement pris en charge pour une table de type MANAGED. La table <table>
n’est pas de type MANAGED.
CANNOT_UPDATE_FIELD
Impossible de mettre à jour <table>
le type de champ <fieldName>
:
Pour plus d’informations, voir CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
Impossible de lancer <expression>
de <sourceType>
vers <targetType>
.
<details>
CANNOT_VALIDATE_CONNECTION
La validation de <jdbcDialectName>
connexion n’est pas prise en charge. Veuillez contacter le support Databricks pour d’autres solutions ou définissez « spark.databricks.testConnectionBeforeCreation » sur « false » pour ignorer le test de connexion avant de créer un objet de connexion.
CANNOT_WRITE_STATE_STORE
Erreur lors de l’écriture de fichiers de magasin d’état pour le fournisseur <providerClass>
.
Pour plus d’informations, consultez CANNOT_LOAD_STATE_STORE
CAST_INVALID_INPUT
La valeur <expression>
du type <sourceType>
ne peut pas être castée vers <targetType>
car elle est incorrecte. Corrigez la valeur en fonction de la syntaxe, ou modifiez le type de sa cible. Utilisez try_cast
pour tolérer une entrée incorrecte et retourner la valeur NULL à la place.
Pour plus d’informations, voir CAST_INVALID_INPUT
CAST_OVERFLOW
La valeur <value>
de type <sourceType>
ne peut pas être lancée vers <targetType>
en raison d’un dépassement de capacité. Utilisez try_cast
pour tolérer un dépassement de capacité et retourner la valeur NULL à la place.
CAST_OVERFLOW_IN_TABLE_INSERT
Échec de l'affectation d'une valeur de type <sourceType>
à la colonne <targetType>
ou à la variable de type <columnName>
en raison d'un dépassement de capacité. Utilisez try_cast
dans la valeur d’entrée pour tolérer le dépassement de capacité et retourner la valeur NULL à la place.
CATALOG_NOT_FOUND
Le catalogue <catalogName>
est introuvable. Envisagez de définir la configuration SQL <config>
sur un plug-in de catalogue.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Bloc de point de contrôle <rddBlockId>
introuvable !
Soit l’exécuteur qui a initialement réglé le point de contrôle de cette partition n’est plus actif, ou le RDD d’origine n’est pas persistent.
Si ce problème persiste, vous pouvez envisager d’utiliser rdd.checkpoint()
à la place, ce qui est plus lent que le point de contrôle local, mais plus tolérant aux pannes.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
doit remplacer soit <method1>
, soit <method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
ne prend pas en charge la classe <cls>
comme collection résultante.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Les commandes Clean Room ne sont pas prises en charge
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nom non valide pour référencer une <type>
à l’intérieur d’une Cleam Room. Utilisez un <type>
nom à l’intérieur de la salle propre en suivant le format [catalogue].[ schéma]. [<type>
].
Si vous ne savez pas quel nom utiliser, vous pouvez exécuter « SHOW ALL IN CLEANROOM [clean_room] » et utiliser la valeur dans la colonne « name ».
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Une notification a été reçue pour le fichier : <filePath>
mais elle n’existe plus. Assurez-vous que les fichiers ne soient pas supprimés avant d’être traités. Pour continuer votre diffusion, vous pouvez définir la configuration <config>
Spark SQL sur « vrai ».
CLOUD_PROVIDER_ERROR
Erreur du fournisseur de services cloud : <message>
CLUSTERING_COLUMNS_MISMATCH
Le clustering spécifié ne correspond pas à celui de la table <tableName>
existante.
Colonnes de clustering spécifiées : [<specifiedClusteringString>
].
Colonnes de clustering existantes : [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
« <operation>
» ne prend pas en charge le clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Contactez votre représentant Databricks pour activer la fonctionnalité cluster-by-auto.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Activez clusteringTable.enableClusteringTableFeature pour utiliser CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO nécessite l’activation de l’optimisation prédictive.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO est uniquement pris en charge sur les tables managées UC.
CODEC_NOT_AVAILABLE
Le codec <codecName>
n’est pas disponible.
Pour plus d’informations, consultez CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Impossible de trouver un nom court pour le codec <codecName>
.
COLLATION_INVALID_NAME
La valeur <collationName>
ne représente pas un nom de classement correct. Noms de classement valides suggérés : [<proposals>
].
COLLATION_INVALID_PROVIDER
La valeur <provider>
ne représente pas un nom de classement correct. Les fournisseurs pris en charge sont : [<supportedProviders>
].
COLLATION_MISMATCH
Impossible de déterminer le classement à utiliser pour les fonctions de chaîne et les opérateurs.
Pour plus d’informations, consultez COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Impossible de créer un tableau avec des éléments <numberOfElements>
qui dépassent la limite de taille de tableau <maxRoundedArrayLength>
.
Pour plus d’informations, consultez COLLECTION_SIZE_LIMIT_EXCEEDED.
COLUMN_ALIASES_NOT_ALLOWED
Les alias de colonnes ne sont pas autorisés dans <op>
.
COLUMN_ALREADY_EXISTS
La colonne <columnName>
existe déjà. Choisissez un autre nom ou de renommer la colonne existante.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
La création d’une contrainte CHECK sur une table <tableName>
avec des stratégies de masque de colonne n’est pas prise en charge.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Une instruction <statementType>
a tenté d’affecter une stratégie de masque de colonne à une colonne qui incluait au moins deux autres colonnes référencées dans la liste USING COLUMNS portant le même nom <columnName>
, ce qui n’est pas valide.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Les stratégies de masque de colonne pour <tableName>
ne sont pas prises en charge :
Pour plus d’informations, voir COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Impossible de <statementType>
<columnName>
à partir de la table <tableName>
, car elle est référencée dans une stratégie de masque de colonne pour la colonne <maskedColumn>
. Le propriétaire de la table doit supprimer ou modifier cette stratégie avant de continuer.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
Les opérations MERGE INTO ne prennent pas en charge les stratégies de masque de colonne dans le tableau de source de données <tableName>
.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
Les opérations MERGE INTO ne prennent pas en charge l’écriture dans un tableau <tableName>
avec des stratégies de masque de colonne.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Cette instruction a tenté d’affecter une stratégie de masque de colonne à une colonne <columnName>
avec plusieurs parties de nom, ce qui n’est pas valide.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Cette instruction a tenté d’affecter une stratégie de masque de colonne à une colonne, alors que la liste USING COLUMNS incluait le nom <columnName>
avec plusieurs parties de nom, ce qui n’est pas valide.
COLUMN_MASKS_NOT_ENABLED
La prise en charge de la définition de masques de colonne n’est pas activée
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
Les stratégies de masque de colonne sont uniquement prises en charge dans Unity Catalog.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
Le clonage à partir d’une table <tableName>
avec des stratégies de masque de colonne n’est pas pris en charge.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
Cloner dans une table <tableName>
avec des stratégies de masque de colonne n’est pas pris en charge.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
L’utilisation d’une constante en tant que paramètre dans une stratégie de masque de colonne n’est pas prise en charge. Mettez à jour votre commande SQL pour supprimer la constante de la définition du masque de colonne, puis réessayez la commande.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Échec de l’exécution de la commande <statementType>
, car l’affectation de stratégies de masques de colonne n’est pas prise en charge pour la source de données cible avec le fournisseur de table : « <provider>
».
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
Impossible d’effectuer des opérations <operation>
pour le tableau <tableName>
, car il contient une ou plusieurs stratégies de masque de colonne avec un ou des expression(s) de sous-requête imbriquée qui ne sont pas encore prises en charge. Pour continuer, contactez le propriétaire du tableau pour mettre à jour les stratégies de masque de colonne.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
La colonne <columnName>
portait le même nom que la colonne cible, ce qui n’est pas valide. Supprimez la colonne de la liste USING COLUMNS, puis réexécutez la commande.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
La colonne <colName>
n’est pas définie dans le tableau <tableName>
, les colonnes de tableau définies sont les suivantes : <tableCols>
.
COLUMN_NOT_FOUND
La colonne <colName>
est introuvable. Vérifiez l’orthographe et l’exactitude du nom de colonne en fonction de la configuration SQL <caseSensitiveConfig>
.
COMMA_PRECEDING_CONSTRAINT_ERROR
',' inattendu avant la définition de ou des contraintes. Vérifiez que la clause de contrainte ne commence pas par une virgule lorsque les colonnes (et les attentes) ne sont pas définies.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
La commande COMMENT ON CONNECTION n’est pas encore implémentée
COMPARATOR_RETURNS_NULL
Le comparateur a retourné une valeur NULL pour une comparaison entre <firstValue>
et <secondValue>
.
Il doit retourner un entier positif pour « supérieur à », 0 pour « égal » et un entier négatif pour « inférieur à ».
Pour revenir au fonctionnement ancien où NULL est traité comme 0 (égal), vous devez définir « spark.sql.legacy.allowNullComparisonResultInArraySort » sur « vrai ».
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Impossible de traiter les types de données d’entrée pour l’expression : <expression>
.
Pour plus d’informations, consultez COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Une autre instance de cette requête [id : <queryId>
] vient d’être démarrée par une session simultanée [runId existant : <existingQueryRunId>
nouvel runId : <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Mise à jour simultanée du journal. Plusieurs travaux de diffusion en continu détectés pour <batchId>
.
Assurez-vous qu’un seul travail de diffusion en continu s’exécute sur un emplacement de point de contrôle spécifique à la fois.
CONFIG_NOT_AVAILABLE
La configuration <config>
n’est pas disponible.
CONFLICTING_PARTITION_COLUMN_NAMES
Détection des noms de colonnes de partition en conflit :
<distinctPartColLists>
Pour les répertoires de tables partitionnés, les fichiers de données doivent uniquement se trouver dans des répertoires feuilles.
Et les répertoires au même niveau doivent avoir le même nom de colonne de partition.
Vérifiez les répertoires suivants pour rechercher des fichiers inattendus ou des noms de colonnes de partition incohérents :
<suspiciousPaths>
CONFLICTING_PROVIDER
Le fournisseur <provider>
spécifié est incohérent avec le fournisseur <expectedProvider>
de catalogue existant. Utilisez « USING <expectedProvider>
» et réessayez la commande.
CONNECT
Erreur Spark Connect générique.
Pour plus d’informations, voir CONNECTER
CONNECTION_ALREADY_EXISTS
Impossible de créer la connexion <connectionName>
parce qu'elle existe déjà.
Choisissez un autre nom, supprimez ou remplacez la connexion existante, ou ajoutez la clause IF NOT EXISTS pour tolérer les connexions préexistantes.
CONNECTION_NAME_CANNOT_BE_EMPTY
Impossible d’exécuter cette commande, car le champ « nom de connexion » ne doit pas être vide.
CONNECTION_NOT_FOUND
Impossible d’exécuter cette commande, car le nom de connexion <connectionName>
n’a pas été trouvé.
CONNECTION_OPTION_NOT_SUPPORTED
Les connexions de type '<connectionType>
' ne prennent pas en charge la ou les options suivantes : <optionsNotSupported>
. Options prises en charge : <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Impossible de créer une connexion de type '<connectionType>
. Types de connexion pris en charge : <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
Les contraintes de table ne sont prises en charge que dans Unity Catalog.
CONVERSION_INVALID_INPUT
La valeur <str>
(<fmt>
) ne peut pas être convertie en <targetType>
car elle est incorrecte. Corrigez la valeur en fonction de la syntaxe, ou modifiez le format. Utilisez <suggestion>
pour tolérer une entrée incorrecte et retourner la valeur NULL à la place.
COPY_INTO_COLUMN_ARITY_MISMATCH
Impossible d’écrire dans <tableName>
, la raison est
Pour plus d’informations, consultez COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Schéma non valide <scheme>
. Les informations de connexion de la source de COPY INTO ne prennent actuellement en charge que s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
Les informations d’identification de la source de l’opération COPY INTO doivent spécifier <keyList>
.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
Des fichiers en double ont été commités dans une opération COPY INTO concurrente. Veuillez réessayer plus tard.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Schéma non valide <scheme>
. Le chiffrement de la source de COPY INTO ne prend actuellement en charge que s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
Le chiffrement de COPY INTO prend uniquement en charge le schéma de fichiers ADLS Gen2 ou abfss://
COPY_INTO_ENCRYPTION_REQUIRED
Le chiffrement de la source de COPY INTO doit spécifier « <key>
».
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Option de chiffrement <requiredKey>
non valide. Le chiffrement de la source de COPY INTO doit spécifier « <requiredKey>
» = « <keyValue>
».
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
La fonctionnalité COPY INTO « <feature>
» n’est pas compatible avec « <incompatibleSetting>
».
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
Une opération COPY INTO qui vise autre chose que l’ajout de données n’est pas autorisée à s’exécuter simultanément avec d’autres transactions. Veuillez réessayer plus tard.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO n’a pas pu charger son état, nombre maximal de nouvelles tentatives dépassé.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Une incompatibilité de schéma a été détectée lors de la copie dans la table Delta (Table : <table>
).
Cela peut indiquer un problème avec les données entrantes, ou le schéma de table Delta peut être évolué automatiquement en fonction des données entrantes en définissant :
COPY_OPTIONS (‘mergeSchema’ = ‘true’)
Différence de schéma :
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Le format des fichiers sources doit être de l’un des types CSV, JSON, AVRO, ORC, PARQUET, TEXT ou BINARYFILE. L’utilisation de COPY INTO sur des tables Delta comme source n’est pas prise en charge, car des données en double peuvent être ingérées après des opérations OPTIMIZE. Cette vérification peut être désactivée en exécutant la commande SQL set spark.databricks.delta.copyInto.formatCheck.enabled = false
.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
Le répertoire source ne contenait aucun fichier analysable de type <format>
. Veuillez vérifier le contenu de « <source>
».
L’erreur peut être rendue silencieuse en définissant « <config>
» sur « false ».
COPY_INTO_STATE_INTERNAL_ERROR
Une erreur interne s’est produite lors du traitement de l’état COPY INTO.
Pour plus d’informations, consultez COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Échec d’analyse de la commande COPY INTO.
Pour plus d’informations, consultez COPY_INTO_SYNTAX_ERROR.
COPY_INTO_UNSUPPORTED_FEATURE
La fonctionnalité COPY INTO « <feature>
» n’est pas prise en charge.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Impossible de décharger les données au format «<formatType>
». Les formats pris en charge sont <connectionType>
les suivants : <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
La commande CREATE FOREIGN SCHEMA n’est pas encore implémentée
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
La commande CREATE FOREIGN TABLE n’est pas encore implémentée
CREATE_OR_REFRESH_MV_ST_ASYNC
Impossible de CRÉER OU ACTUALISER des vues matérialisées ou des tables de diffusion en continu avec ASYNC spécifié. Supprimez ASYNC de l’instruction CREATE OR REFRESH ou utilisez REFRESH ASYNC pour actualiser les vues matérialisées existantes ou les tables de streaming de manière asynchrone.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Impossible de créer l’affichage <name>
permanent sans affecter explicitement d’alias pour l’expression <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
La colonne <columnName>
CREATE TABLE spécifie le descripteur « <optionName>
» plus d'une fois, ce qui n'est pas valide.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Impossible de créer la vue <viewName>
, la raison est
Pour plus de détails, consultez CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Fournissez des informations d’identification lors de la création ou de la mise à jour d’emplacements externes.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
L’option CSV enforceSchema
ne peut pas être définie lors de l’utilisation de rescuedDataColumn
ou de failOnUnknownFields
, car les colonnes sont lues par nom plutôt que par ordinal.
CYCLIC_FUNCTION_REFERENCE
Référence de fonction cyclique détectée : <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta n’est pas activé dans votre compte. <hints>
DATATYPE_MISMATCH
Impossible de résoudre <sqlExpr>
en raison d’une incompatibilité du type de données :
Pour plus d’informations, voirDATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
nécessite un paramètre de longueur, comme par exemple <type>
(10). Spécifiez la longueur.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Échec de la traçabilité d’écriture : relation correspondante manquante avec les stratégies pour CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
La source de données « <provider>
» existe déjà. Choisissez un autre nom pour la nouvelle source de données.
DATA_SOURCE_EXTERNAL_ERROR
Erreur rencontrée lors de l’enregistrement dans une source de données externe.
DATA_SOURCE_NOT_EXIST
La source de données « <provider>
» est introuvable. Vérifiez que la source de données est inscrite.
DATA_SOURCE_NOT_FOUND
Échec de la recherche de la source de données : <provider>
. Vérifiez que le nom du fournisseur est correct et que le package est correctement inscrit et compatible avec votre version Spark.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
L’option <option>
ne doit pas être vide et ne doit pas contenir de caractères, de chaînes de requête ou de paramètres invalides.
DATA_SOURCE_OPTION_IS_REQUIRED
L’option <option>
est obligatoire.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Le schéma de la table de source de données ne correspond pas au schéma attendu. Si vous utilisez l’API DataFrameReader.schema ou que vous créez une table, évitez de spécifier le schéma.
Schéma de source de données : <dsSchema>
Schéma attendu : <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
L’URL JDBC n’est pas autorisée dans les options de source de données. Spécifiez plutôt les options « hôte », « port » et « base de données ».
DATETIME_OVERFLOW
Dépassement de capacité de l’opération Datetime : <operation>
.
DC_API_QUOTA_EXCEEDED
Vous avez dépassé le quota d’API pour la source de données <sourceName>
.
Pour plus d’informations, consultez DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Échec de connexion à la source <sourceName>
. Code d’erreur : <errorCode>
.
Pour plus d’informations, consultez DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Une erreur s’est produite dans les appels d’API Dynamics, errorCode : <errorCode>
.
Pour plus d’informations, consultez DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Une erreur s’est produite dans les appels JDBC Netsuite, errorCode : <errorCode>
.
Pour plus d’informations, consultez DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE : aucune attribution
Une modification de schéma s’est produite dans la table <tableName>
de la source <sourceName>
.
Pour plus d’informations, consultez DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Une erreur s’est produite dans les appels d’API ServiceNow, errorCode : <errorCode>
.
Pour plus d’informations, consultez DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
L’ingestion de l’objet <objName>
est incomplète, car le travail de requête de l’API Salesforce a pris trop de temps, a échoué ou a été annulé manuellement.
Pour réessayer, vous pouvez réexécuter l’intégralité du pipeline ou actualiser cette table de destination spécifique. Si l’erreur persiste, ouvrez un ticket. ID de travail : <jobId>
. État du travail : <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Une erreur s’est produite dans les appels d’API Sharepoint, errorCode : <errorCode>
.
Pour plus d’informations, consultez DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Une erreur s’est produite dans l’appel d’API <sourceName>
. Type d’API source : <apiType>
. Code d’erreur : <errorCode>
.
Cela peut parfois se produire lorsque vous avez atteint une limite d’API <sourceName>
. Si vous n’avez pas dépassé votre limite d’API, essayez de réexécuter le connecteur. Si le problème persiste, veuillez ouvrir un ticket.
DC_UNSUPPORTED_ERROR
Une erreur non prise en charge s’est produite dans la source de données <sourceName>
.
Pour plus d’informations, consultez DC_UNSUPPORTED_ERROR.
DC_WORKDAY_RAAS_API_ERROR
Une erreur s’est produite dans les appels d’API RAAS Workday, errorCode : <errorCode>
.
Pour plus d’informations, consultez DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
La précision décimale <precision>
dépasse la précision maximale <maxPrecision>
.
DEFAULT_DATABASE_NOT_EXISTS
La base de données <defaultDatabase>
par défaut n’existe pas. Créez-la en premier ou remplacez la base de données par défaut par <defaultDatabase>
.
DEFAULT_FILE_NOT_FOUND
Il est possible que les fichiers sous-jacents aient été mis à jour . Vous pouvez invalider explicitement le cache dans Spark en exécutant la commande « REFRESH TABLE tableName » dans SQL ou en recréant les DataSet/DataFrame impliqués. Si le cache du disque est obsolète ou si les fichiers sous-jacents ont été supprimés, vous pouvez invalider le cache du disque manuellement en redémarrant le cluster.
DEFAULT_PLACEMENT_INVALID
Une mot clé DEFAULT dans une commande MERGE, INSERT, UPDATE ou SET VARIABLE n’a pas pu être affectée directement à une colonne cible, car elle faisait partie d’une expression.
Par exemple : UPDATE SET c1 = DEFAULT
est autorisé, mais UPDATE T SET c1 = DEFAULT + 1
n’est pas autorisé.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
La requête de streaming était lisant à partir d’une table Delta inattendue (id = '<newTableId>
').
Il était utilisé pour lire à partir d’une autre table Delta (id = '<oldTableId>
') en fonction du point de contrôle.
Cela peut se produire lorsque vous avez modifié le code pour lire à partir d’une nouvelle table ou que vous avez supprimé et
recréé une table. Annulez votre modification ou supprimez votre point de contrôle de requête de streaming
pour recommencer à partir de zéro.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Les fonctions de fenêtre distinctes ne sont pas prises en charge : <windowExpr>
.
DIVIDE_BY_ZERO
Division par zéro Utilisez try_divide
pour tolérer le diviseur 0 et retourner la valeur NULL à la place. Si nécessaire, définissez <config>
sur « false » pour contourner cette erreur.
Pour plus d’informations, voirDIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Les attentes sont uniquement prises en charge dans un pipeline Delta Live Tables.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
Les vues MATERIALIZED VIEWs avec un CLUSTER PAR clause sont uniquement prises en charge dans un pipeline Delta Live Tables.
DLT_VIEW_LOCATION_NOT_SUPPORTED
Les emplacements MATERIALIZED VIEW sont uniquement pris en charge dans un pipeline Delta Live Tables.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
Les schémas MATERIALIZED VIEW avec un type spécifié sont uniquement pris en charge dans un pipeline Delta Live Tables.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
Les clauses CONSTRAINT d’une vue ne sont prises en charge que dans un pipeline Delta Live Tables.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Les noms de champs dupliqués dans Arrow Struct ne sont pas autorisés, obtenu <fieldNames>
.
DUPLICATED_MAP_KEY
Un doublon de la clé de carte <key>
a été trouvé. Veuillez vérifier les données d'entrée.
Si vous souhaitez supprimer les clés dupliquées, vous pouvez définir <mapKeyDedupPolicy>
sur « LAST_WIN » afin que la dernière clé insérée soit prioritaire.
DUPLICATED_METRICS_NAME
Le nom de la métrique n’est pas unique : <metricName>
. Le même nom ne peut pas être utilisé pour les métriques avec des résultats différents.
Toutefois, plusieurs instances de métriques avec le même résultat et le même nom sont autorisées (par exemple, les jointures autonomes).
DUPLICATE_ASSIGNMENTS
Les colonnes ou variables <nameList>
apparaissent plusieurs fois en tant que cibles d’affectation.
DUPLICATE_CLAUSES
Clauses en double trouvées : <clauseName>
. Veuillez en supprimer l’une d’entre elles.
DUPLICATE_KEY
Doublons de clés <keyColumn>
trouvés.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
L’appel à la routine <functionName>
n’est pas valide, car il inclut plusieurs affectations d’arguments au même nom de paramètre <parameterName>
.
Pour plus de détails, voir DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Le ou les noms en double ont été trouvés dans la liste des paramètres de la routine <routineName>
définie par l’utilisateur : <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
La ou les colonnes en double ont été trouvées dans la liste des colonnes de clause RETURNS de la routine <routineName>
définie par l’utilisateur : <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Le nœud précédent a émis une ligne avec eventTime=<emittedRowEventTime>
antérieure à current_watermark_value=<currentWatermark>
Cela peut entraîner des problèmes d’exactitude dans les opérateurs avec état en aval dans le pipeline d’exécution.
Corrigez la logique des opérateurs pour émettre des lignes après la valeur globale actuelle du filigrane.
EMPTY_JSON_FIELD_VALUE
Échec de l’analyse d’une chaîne vide pour le type de données <dataType>
.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Fichier local vide dans la requête <operation>
intermédiaire
ENCODER_NOT_FOUND
Aucun encodeur de type <typeName>
n’a été trouvé dans la représentation interne Spark SQL.
Pensez à remplacer le type d’entrée par un pris en charge sous <docroot>
/sql-ref-datatypes.html.
END_LABEL_WITHOUT_BEGIN_LABEL
L’étiquette <endLabel>
de fin ne peut pas exister sans étiquette de début.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Certaines partitions dans le ou les rubriques Kafka indiquent un décalage disponible qui est inférieur au décalage de fin pendant l’exécution de la requête avec Trigger.AvailableNow. L’erreur peut être temporaire : redémarrez votre requête et effectuez un signalement si vous voyez toujours le même problème.
dernier décalage : <latestOffset>
, décalage de fin : <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Pour la source de données Kafka avec Trigger.AvailableNow, le décalage de fin doit avoir un décalage inférieur ou égal à chaque partition de rubrique par rapport au décalage pré-extrait. L’erreur peut être temporaire : redémarrez votre requête et effectuez un signalement si vous voyez toujours le même problème.
décalage pré-extrait : <prefetchedOffset>
, décalage de fin : <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Erreur lors de la lecture des données avro : une empreinte digitale inconnue a été rencontrée : <fingerprint>
, vous ne savez pas quel schéma utiliser.
Cela peut se produire si vous avez inscrit des schémas supplémentaires après le démarrage de votre contexte Spark.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Impossible d’interroger les journaux d’événements à partir d’un cluster affecté ou sans isolation partagé. Utilisez plutôt un cluster partagé ou un entrepôt Databricks SQL.
EVENT_LOG_UNAVAILABLE
Aucun journal d’événements n’est disponible pour <tableOrPipeline>
. Réessayez ultérieurement après la génération d’événements
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Le type de table de <tableIdentifier>
est <tableType>
.
L’interrogation des journaux d’événements prend uniquement en charge les vues matérialisées, les tables de diffusion en continu ou les pipelines Delta Live Tables
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
Le temps d’évènement <eventName>
possède un type invalide <eventType>
, mais attendu “TIMESTAMP
”.
EXCEED_LIMIT_LENGTH
Dépasse la limite de longueur du type char/varchar : <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
La colonne EXCEPT <columnName>
a été résolue et aurait dû être StructType, mais le type trouvé est <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
Les colonnes d’une liste EXCEPT doivent être distinctes et ne pas se chevaucher, mais (<columns>
) a été reçu.
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
Les colonnes EXCEPT [<exceptColumns>
] ont été résolues, mais ne correspondent à aucune des colonnes [<expandedColumns>
] de l’extension en étoile.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Le nom de colonne/champ <objectName>
dans la clause EXCEPT ne peut pas être résolu. Vouliez-vous utiliser ceci : [<objectList>
] ?
Remarque : Les colonnes imbriquées dans la clause EXCEPT peuvent ne pas inclure de qualificateurs (nom de table, nom de colonne de struct parent, etc.) pendant une expansion de struct. Essayez de supprimer des qualificateurs s’ils sont utilisés avec des colonnes imbriquées.
EXECUTOR_BROADCAST_JOIN_OOM
La mémoire est insuffisante pour créer la relation diffusée <relationClassName>
. Taille de relation = <relationSize>
. Mémoire totale utilisée par cette tâche = <taskMemoryUsage>
. Métriques du gestionnaire de mémoire exécuteur : onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId : <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
La clause USING de cette commande EXECUTE IMMEDIATE contenait plusieurs arguments avec le même alias (<aliases>
), ce qui n’est pas valide ; mettez à jour la commande de façon à spécifier des alias uniques, puis réessayez.
EXPECT_PERMANENT_VIEW_NOT_TEMP
« <operation>
» attend une vue permanente, mais <viewName>
est une vue temporaire.
EXPECT_TABLE_NOT_VIEW
« <operation>
» attend une table, mais <viewName>
est une vue.
Pour plus d’informations, consultez EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
La table <tableName>
ne prend pas en charge <operation>
.
Pour plus d’informations, consultez EXPECT_TABLE_NOT_VIEW
EXPRESSION_DECODING_FAILED
Échec du décodage d’une ligne en valeur des expressions : <expressions>
.
EXPRESSION_ENCODING_FAILED
Échec de l’encodage d’une valeur des expressions : <expressions>
à une ligne.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Impossible de trier l’expression <expr>
de colonne, car son type <exprType>
n’est pas triable.
EXTERNAL_TABLE_INVALID_SCHEME
Les tables externes ne prennent pas en charge les schémas <scheme>
.
FABRIC_REFRESH_INVALID_SCOPE
Erreur lors de l’exécution de « REFRESH FOREIGN <scope>
<name>
». Impossible d’actualiser directement une structure <scope>
, utilisez « REFRESH » FOREIGN CATALOG <catalogName>
pour « actualiser » le catalogue Fabric à la place.
FAILED_EXECUTE_UDF
Échec de la fonction définie par l’utilisateur (<functionName>
: (<signature>
) =><result>
) en raison de :<reason>
.
FAILED_FUNCTION_CALL
Échec de la préparation de la fonction <funcName>
pour l’appel. Vérifiez les arguments de la fonction.
FAILED_JDBC
Échec de JDBC <url>
sur l’opération :
Pour plus d’informations, consultez FAILED_JDBC.
FAILED_PARSE_STRUCT_TYPE
Échec de l’analyse struct : <raw>
.
FAILED_READ_FILE
Erreur pendant la lecture du fichier <path>
.
Pour plus d’informations, consultez FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Échec de l’inscription des classes auprès de Kryo.
FAILED_RENAME_PATH
Échec du changement de nom de <sourcePath>
en <targetPath>
, car la destination existe déjà.
FAILED_RENAME_TEMP_FILE
Impossible de renommer le fichier <srcPath>
temporaire en <dstPath>
FileSystem.rename a retourné false.
FAILED_ROW_TO_JSON
Échec de la conversion de la valeur <value>
de ligne de la classe <class>
en type SQL cible <sqlType>
au format JSON.
FAILED_TO_PARSE_TOO_COMPLEX
L’instruction, y compris les fonctions SQL potentielles et les vues référencées, était trop complexe pour l’analyse.
Pour atténuer cette erreur, divisez l’instruction en plusieurs blocs moins complexes.
FEATURE_NOT_ENABLED
La fonctionnalité <featureName>
n’est pas activée. Envisagez de définir la configuration <configKey>
sur <configValue>
pour activer cette fonctionnalité.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
n’est pas pris en charge sur les entrepôts SQL classiques. Pour utiliser cette fonctionnalité, utilisez un entrepôt SQL Pro ou Serverless. Pour en savoir plus sur les types d'entrepôt, voir <docLink>
FEATURE_REQUIRES_UC
<feature>
n’est pas pris en charge sans Unity Catalog. Pour utiliser cette fonctionnalité, activez Unity Catalog. Pour en savoir plus sur Unity Catalog, voir <docLink>
FEATURE_UNAVAILABLE
<feature>
n’est pas pris en charge dans votre environnement. Pour utiliser cette fonctionnalité, contactez le support Databricks.
FIELD_ALREADY_EXISTS
Impossible de colonne <op>
, car <fieldNames>
existe déjà dans <struct>
.
FIELD_NOT_FOUND
Aucun champ struct de type <fieldName>
dans <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Le fichier dans le chemin intermédiaire <path>
existe déjà, mais OVERWRITE n’est pas défini
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Une erreur s’est produite dans la fonction fournie par l’utilisateur dans flatMapGroupsWithState. Raison : <reason>
FORBIDDEN_OPERATION
L’opération <statement>
n’est pas autorisée sur <objectType>
: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Une erreur s’est produite dans la fonction fournie par l’utilisateur dans le récepteur de lots foreach. Raison : <reason>
FOREACH_USER_FUNCTION_ERROR
Une erreur s’est produite dans la fonction fournie par l’utilisateur dans le récepteur foreach. Raison : <reason>
FOREIGN_KEY_MISMATCH
Les colonnes <parentColumns>
parentes de la clé étrangère ne correspondent pas aux colonnes <childColumns>
enfants de la clé primaire.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Impossible d’exécuter cette commande, car le champ <objectType>
« nom » ne doit pas être vide.
FOUND_MULTIPLE_DATA_SOURCES
Plusieurs sources de données avec le nom « <provider>
» ont été détectées. Vérifiez que la source de données n’est pas simultanément inscrite et située dans le classpath.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json’inférence a rencontré des mises à jour de schéma en conflit à l’adresse suivante : <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json a détecté la présence d’un columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
)
dans un objet JSON, et ne peut plus continuer. Configurez une valeur différente pour
l’option « columnNameOfCorruptRecord ».
FROM_JSON_CORRUPT_SCHEMA
from_json’inférence n’a pas pu lire le schéma stocké dans : <location>
FROM_JSON_INFERENCE_FAILED
from_json n’a pas pu inférer le schéma. Veuillez en fourni un à la place.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json inférence est uniquement prise en charge lors de la définition de tables de streaming
FROM_JSON_INVALID_CONFIGURATION
La configuration from_json n’est pas valide :
Pour plus de détails, consultez FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json n’a pas pu évoluer de <old>
à <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
La fonction <function>
nécessite des paramètres nommés. Paramètres dont les noms sont manquants : <exprs>
. Mettez à jour l’appel de fonction pour ajouter des noms à tous les paramètres, par exemple <function>
(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Une colonne ne peut pas avoir à la fois une valeur par défaut et une expression de génération, mais la colonne <colName>
a la valeur par défaut : (<defaultValue>
) et l’expression de génération : (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2. et versions inférieures ne prennent pas en charge getTablesByType. Veuillez utiliser Hive 2.3 ou une version ultérieure.
GET_WARMUP_TRACING_FAILED
Échec de l’obtention du suivi de warmup. Cause :<cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Fonction get_warmup_tracing() non autorisée.
GRAPHITE_SINK_INVALID_PROTOCOL
Protocole Graphite non valide : <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Le récepteur Graphite nécessite la propriété « <property>
».
GROUPING_COLUMN_MISMATCH
La colonne de regroupement (<grouping>
) est introuvable dans les colonnes de regroupement<groupingColumns>
.
GROUPING_ID_COLUMN_MISMATCH
Les colonnes de grouping_id (<groupingIdColumn>
) ne correspondent pas aux colonnes de regroupement (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
La taille des ensembles de regroupement ne peut pas être supérieure à <maxSize>
.
GROUP_BY_AGGREGATE
Les fonctions d’agrégation ne sont pas autorisées dans GROUP BY, mais <sqlExpr>
ont été trouvées.
Pour plus d’informations, voirGROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
fait référence à une expression <aggExpr>
qui contient une fonction d’agrégation. Les fonctions d’agrégation ne sont pas autorisées dans GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
La position <index>
GROUP BY n’est pas dans la liste de sélection (la plage valide est [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
L’expression <sqlExpr>
ne peut pas être utilisée comme expression de regroupement, car son type de données <dataType>
n’est pas un type de données triable.
HDFS_HTTP_ERROR
Lors de la tentative de lecture à partir de HDFS, la requête HTTP a échoué.
Pour plus d’informations, consultez HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Appel non valide à <function>
; seules les mémoires tampons de croquis HLL valides sont prises en charge en tant qu’entrées (telles que celles produites par la fonction hll_sketch_agg
).
HLL_INVALID_LG_K
Appel non valide à <function>
; la valeur lgConfigK
doit être comprise entre <min>
et <max>
, incluant : <value>
.
HLL_UNION_DIFFERENT_LG_K
Les croquis ont des valeurs différentes lgConfigK
: <left>
et <right>
. Définissez le paramètre sur allowDifferentLgConfigK
true pour l’appeler <function>
avec des valeurs différentes lgConfigK
.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
n’est pas un identificateur valide, car ce nom comporte plus de 2 parties.
ILLEGAL_STATE_STORE_VALUE
Valeur illégale fournie au magasin d’état
Pour plus d’informations, consultez ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
Colonne pivot <columnName>
invalide. Les colonnes d’un tableau croisé dynamique doivent être comparables.
INCOMPATIBLE_COLUMN_TYPE
<operator>
ne peut être effectué que sur des tableaux avec des types de colonnes compatibles. La colonne <columnOrdinalNumber>
du tableau <tableOrdinalNumber>
correspond à un type <dataType1>
qui n’est pas compatible avec <dataType2>
dans la même colonne du premier tableau. <hint>
.
INCOMPATIBLE_DATASOURCE_REGISTER
DataSourceRegister incompatible détecté. Supprimez la bibliothèque incompatible de classpath ou mettez-la à niveau. Erreur : <message>
INCOMPATIBLE_DATA_FOR_TABLE
Impossible d’écrire des données incompatibles pour la table <tableName>
:
Pour plus de détails, voir INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Les types joints <joinType1>
et <joinType2>
sont incompatibles.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
La requête SQL de vue <viewName>
a un changement de schéma incompatible et la colonne <colName>
ne peut pas être résolue. Colonnes nommées <expectedNum>
attendues <colName>
mais obtenues <actualCols>
.
Essayez de recréer la vue en exécutant : <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Type complexe incomplet :
Pour plus d’informations, voir INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Il se peut que vous obteniez un résultat différent en raison de la mise à niveau vers
Pour plus d’informations, consultez INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
nécessite au minimum <minArgs>
arguments et au maximum <maxArgs>
arguments.
INCORRECT_RAMP_UP_RATE
Décalage maximal avec <rowsPerSecond>
rowsPerSecond est <maxSeconds>
, mais « rampUpTimeSeconds » est <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
La fonction appelée nécessite la connaissance du classement qu’elle doit appliquer, mais un classement indéterminé a été trouvé. Utilisez la fonction COLLATE pour définir le classement explicitement.
INDEX_ALREADY_EXISTS
Impossible de créer l’index <indexName>
sur le tableau <tableName>
parce qu'il existe déjà.
INDEX_NOT_FOUND
Fichier d'index <indexName>
introuvable sur le tableau <tableName>
.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Le type de déclencheur <trigger>
n’est pas pris en charge pour ce type de cluster.
Utilisez un autre type de déclencheur, par exemple AvailableNow, Une fois.
INSERT_COLUMN_ARITY_MISMATCH
Impossible d’écrire dans <tableName>
, la raison est
Pour plus de détails, consultez INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Impossible d'écrire dans ‘<tableName>
’, <reason>
:
Colonnes de table : <tableColumns>
.
Partitionnez des colonnes avec des valeurs statiques : <staticPartCols>
.
Colonnes de données : <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Privilèges insuffisants :
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
L’utilisateur <user>
dispose de privilèges insuffisants pour l’emplacement externe <location>
.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Il n’existe aucun propriétaire pour <securableName>
. Demandez à votre administrateur de définir un propriétaire.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
L’utilisateur ne possède pas <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE
L’utilisateur n’a pas d’autorisation <action>
sur <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Le propriétaire de <securableName>
est différent du propriétaire de <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Les identifiants de stockage <credentialName>
ne disposent pas de privilèges suffisants.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
L’utilisateur ne peut pas activer <action>
sur <securableName>
en raison des autorisations sur les éléments sous-jacents.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
L’utilisateur ne peut pas activer <action>
sur <securableName>
en raison des autorisations sur les éléments sous-jacents :
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Division par zéro Utilisez try_divide
pour tolérer le diviseur 0 et retourner la valeur NULL à la place.
INVALID_AGGREGATE_FILTER
L’expression FILTER <filterExpr>
dans une fonction d’agrégation est incorrecte.
Pour plus d’informations, consultez INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
L'index <indexValue>
est hors limites. Le tableau comporte des éléments <arraySize>
. Utilisez la fonction SQLget()
pour tolérer l’accès à l’élément à un index non valide et retourner la valeur NULL à la place. Si nécessaire, définissez <ansiConfig>
sur « false » pour contourner cette erreur.
Pour plus d’informations, voir INVALID_SCHEMA
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
L'index <indexValue>
est hors limites. Le tableau comporte des éléments <arraySize>
. Utilisez try_element_at
pour tolérer l’accès à l’élément à un index non valide et retourner la valeur NULL à la place. Si nécessaire, définissez <ansiConfig>
sur « false » pour contourner cette erreur.
Pour plus d’informations, voir INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
La position <bitPosition>
bitmap indexée à 0 est hors limites. La bitmap a <bitmapNumBits>
des bits (<bitmapNumBytes>
octets).
INVALID_BOOLEAN_STATEMENT
L’instruction booléenne est attendue dans la condition, mais <invalidStatement>
elle a été trouvée.
INVALID_BOUNDARY
La limite <boundary>
n’est pas valide : <invalidValue>
.
Pour plus d’informations, voir INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Impossible d’utiliser <type>
pour la colonne de compartiment. Les types de données collationnés ne sont pas pris en charge pour le compartimentage.
INVALID_BUCKET_FILE
Fichier d'échange invalide : <path>
.
INVALID_BYTE_STRING
Le format attendu est ByteString, mais il était <unsupported>
(<class>
).
INVALID_COLUMN_NAME_AS_PATH
La source de données <datasource>
ne peut pas enregistrer la colonne <columnName>
, car son nom contient des caractères qui ne sont pas autorisés dans les chemins d’accès aux fichiers. Utilisez un alias pour le renommer.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
La colonne ou le champ <name>
est de type <type>
et devrait être de type <expectedType>
.
INVALID_CONF_VALUE
La valeur « <confValue>
» dans la configuration « <confName>
» est incorrecte.
Pour plus d’informations, voir INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
La fonction current_recipient
ne peut être utilisée dans l’instruction CREATE VIEW
ou ALTER VIEW
que pour définir une vue « partage uniquement » dans Unity Catalog.
INVALID_CURSOR
Le curseur n’est pas valide.
Pour plus d’informations, voir INVALID_CURSOR
INVALID_DATETIME_PATTERN
Modèle datetime non reconnu : <pattern>
.
Pour plus d’informations, consultez INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Échec de l’exécution de la commande <statement>
, car la colonne de destination <colName>
a une valeur PAR DEFAUT <defaultValue>
,
Pour plus d’informations, voir INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Valeur non valide pour le délimiteur.
Pour plus d’informations, consultez INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Le catalogue de destination de la commande SYNC doit se trouver dans Unity Catalog. Trouvé <catalog>
.
INVALID_DRIVER_MEMORY
La mémoire du système <systemMemory>
doit être d’au minimum <minSystemMemory>
.
Augmentez la taille du segment de mémoire à l’aide de l’option –driver-memory ou «<config>
» dans la configuration Spark.
INVALID_DYNAMIC_OPTIONS
Les options passées <option_list> sont interdites pour les table_name> de table <étrangère.
INVALID_EMPTY_LOCATION
Le nom d’emplacement ne peut pas être une chaîne vide, mais <location>
a été donné.
INVALID_ESC
Une chaîne d’échappement non valide a été trouvée : <invalidEscape>
. La chaîne d’échappement ne doit contenir qu’un seul caractère.
INVALID_ESCAPE_CHAR
EscapeChar
doit être un littéral de chaîne de longueur 1, mais a obtenu <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
La mémoire de l’exécuteur <executorMemory>
doit être d’au minimum <minSystemMemory>
.
Veuillez augmenter la mémoire de l’exécuteur à l’aide de l’option –executor-memory ou «<config>
» dans la configuration Spark.
INVALID_EXPRESSION_ENCODER
Un encodeur d’expression non valide a été trouvé. Attend une instance d’ExpressionEncoder mais a obtenu <encoderType>
. Pour plus d’informations, consultez « <docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html ».
INVALID_EXTRACT_BASE_FIELD_TYPE
Impossible d’extraire une valeur de <base>
. A besoin d’un type de complexe [STRUCT
, ARRAY
, MAP
] mais obtient <other>
.
INVALID_EXTRACT_FIELD
Impossible d’extraire <field>
de <expr>
.
INVALID_EXTRACT_FIELD_TYPE
Le nom du champ doit être un littéral de chaîne non nul, mais il s’agit de <extraction>
.
INVALID_FIELD_NAME
Le nom du champ <fieldName>
n’est pas valide : <path>
n’est pas un struct.
INVALID_FORMAT
Le format n’est pas valide : <format>
.
Pour plus d’informations, voir INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
La fraction de seconde doit être égale à zéro. La plage valide est [0, 60]. Si nécessaire, définissez <ansiConfig>
sur « false » pour contourner cette erreur.
INVALID_HANDLE
Le descripteur <handle>
est non valide.
Pour plus d’informations, voir INVALID_HANDLE
INVALID_IDENTIFIER
L’identificateur non cité <ident>
n’est pas valide et doit être retourné cité comme suit : <ident>
.
Les identificateurs non cités ne peuvent contenir que des lettres ASCII ('a' - 'z', 'A' - 'Z'), des chiffres ('0' - '9') et la barre inférieure ('_').
Les identificateurs non cités doivent également ne pas commencer par un chiffre.
Différentes sources de données et métastores peuvent imposer des restrictions supplémentaires sur les identificateurs valides.
INVALID_INDEX_OF_ZERO
L’index 0 n’est pas valide. Un index doit être soit < 0, soit > 0 (le premier élément a l’index 1).
INVALID_INLINE_TABLE
Table inline non valide.
Pour plus d’informations, consultez INVALID_SQL_TABLE
INVALID_INTERVAL_FORMAT
Erreur d’analyse de « <input>
» sur l’intervalle. Vérifiez que la valeur fournie est dans un format valide pour définir un intervalle. Vous pouvez référencer la documentation pour connaître le format approprié.
Pour plus d’informations, consultez INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Fonction de distribution inverse non valide <funcName>
.
Pour plus d’informations, consultez INVALID_INVERSE_DISTRIBUTION_FUNCTION.
INVALID_JOIN_TYPE_FOR_JOINWITH
Type de jointure non valide dans joinWith : <joinType>
.
INVALID_JSON_DATA_TYPE
Échec de la conversion de la chaîne JSON « <invalidType>
» en type de données. Veuillez entrer une date valide.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Les classements ne peuvent être appliqués qu’aux types de chaînes, mais le type de données JSON est <jsonType>
.
INVALID_JSON_ROOT_FIELD
Impossible de convertir le champ racine JSON en type Spark cible.
INVALID_JSON_SCHEMA_MAP_TYPE
Le schéma d’entrée <jsonSchema>
ne peut contenir que STRING
en tant que type de clé pour un MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
La valeur de la configuration «<bufferSizeConfKey>
» doit être inférieure à 2 048 Mio, mais a obtenu <bufferSizeConfValue>
le Mio.
INVALID_LABEL_USAGE
L’utilisation de l’étiquette <labelName>
n’est pas valide.
Pour plus d’informations, consultez INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Appel de fonction lambda non valide.
Pour plus d’informations, consultez INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
La corrélation <joinType>
JOIN avec LATERAL n’est pas autorisée, car une sous-requête OUTER ne peut pas être corrélée à son partenaire de jointure. Supprimez la corrélation LATERAL ou utilisez une INNER JOIN ou LEFT OUTER JOIN à la place.
INVALID_LIMIT_LIKE_EXPRESSION
La limite d’expression <expr>
n’est pas valide.
Pour plus d’informations, voir INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
Le nom de l’emplacement ne peut pas être un URI non valide, mais <location>
il a été donné.
INVALID_NON_ABSOLUTE_PATH
Le chemin d’accès <path>
non absolu fourni ne peut pas être qualifié. Mettez à jour le chemin d’accès pour qu’il s’agit d’un emplacement de montage dbfs valide.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
L’opérateur attend une expression déterministe, mais l’expression réelle est <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
Le littéral <rawStrippedQualifier>
numérique est en dehors de la plage valide pour <typeName>
avec la valeur minimale <minValue>
et la valeur maximale de <maxValue>
. Ajustez la valeur en conséquence.
INVALID_OBSERVED_METRICS
Métriques observées non valides.
Pour plus d’informations, voir INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Options non valides :
Pour plus d’informations, voir INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
L'UDF pandas d'agrégation de groupe <functionList>
ne peut pas être invoquée en même temps que d'autres fonctions d'agrégation non pandas.
INVALID_PARAMETER_MARKER_VALUE
Un mappage de paramètres non valide a été fourni :
Pour plus d’informations, voir INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
La valeur du ou des paramètres <parameter>
dans <functionName>
n'est pas valide :
Pour plus d’informations, voir INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Impossible d’utiliser <type>
pour la colonne de partition.
INVALID_PARTITION_OPERATION
La commande de partition n’est pas valide.
Pour plus d’informations, voir INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
L’ID de pipeline <pipelineId>
n’est pas valide.
L'identifiant d'un pipeline doit être un UUID au format « xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx »
INVALID_PRIVILEGE
Le privilège <privilege>
n’est pas valide pour <securable>
.
INVALID_PROPERTY_KEY
<key>
est une clé de propriété non valide, utilisez des guillemets, par exemple SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
est une valeur de propriété non valide, utilisez des guillemets, par exemple SET<key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
La requête paramétrisée doit utiliser des paramètres positionnels ou nommés, mais pas les deux.
INVALID_S3_COPY_CREDENTIALS
Les informations d’identification de COPY INTO doivent inclure AWS_ACCESS_KEY, AWS_SECRET_KEY et AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
Le mode d’enregistrement spécifié <mode>
n’est pas valide. Les modes d’enregistrement valides incluent « append », « overwrite », « ignore », « error », « errorifexists » et « default ».
INVALID_SCHEMA
Le schéma d’entrée <inputSchema>
n’est pas une chaîne de schéma valide.
Pour plus d’informations, voir INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
n’est pas un nom valide pour les tables/schémas. Les noms valides ne contiennent que des caractères alphabétiques, des nombres et _.
INVALID_SCHEME
Unity Catalog ne prend pas en charge <name>
comme schéma de fichiers par défaut.
INVALID_SECRET_LOOKUP
Recherche de secret non valide :
Pour plus d’informations, voir INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Le format attendu est « SET », « clé SET » ou « SET clé = valeur ». Si vous souhaitez inclure des caractères spéciaux dans la clé ou inclure des points-virgules dans la valeur, utilisez des guillemets, par exemple, SET key
=value
.
INVALID_SHARED_ALIAS_NAME
Le <sharedObjectType>
nom d’alias doit avoir la forme « schema.name ».
INVALID_SINGLE_VARIANT_COLUMN
L’option singleVariantColumn
ne peut pas être utilisée s’il existe également un schéma spécifié par l’utilisateur.
INVALID_SOURCE_CATALOG
Le catalogue source ne doit pas se trouver dans Unity Catalog pour la commande SYNC. Trouvé <catalog>
.
INVALID_SQL_ARG
L'argument <name>
de sql()
n’est pas valide. Envisagez de le remplacer par un littéral SQL ou par des fonctions de constructeur de collection telles que map()
, array()
, struct()
.
INVALID_SQL_SYNTAX
Syntaxe SQL non valide :
Pour plus d’informations, voir INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Chemin d'accès invalide dans la requête <operation>
de transfert : <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
La clause INTO d’EXECUTE IMMEDIATE n’est valide que pour les requêtes, mais l’instruction donnée n’est pas une requête : <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
Instruction ou clause : <operation>
n’est pas valide.
INVALID_SUBQUERY_EXPRESSION
Sous-requête non valide :
Pour plus d’informations, voir INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
Impossible de créer l’objet persistant <objName>
de type <obj>
, car il fait référence à l’objet temporaire <tempObjName>
de type <tempObj>
. Veuillez rendre l’objet temporaire <tempObjName>
persistant ou rendre l’objet persistant <objName>
temporaire.
INVALID_TIMESTAMP_FORMAT
L’horodatage <timestamp>
fourni ne correspond pas à la syntaxe <format>
attendue .
INVALID_TIME_TRAVEL_SPEC
Impossible de spécifier à la fois la version et l’horodatage lors du voyage dans le temps de la table.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
L’expression timestamp du voyage dans le temps <expr>
n’est pas valide.
Pour plus de détails, consultez INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
La valeur du littéral typé <valueType>
n’est pas valide : <value>
.
INVALID_UDF_IMPLEMENTATION
La fonction <funcName>
n’implémente pas ScalarFunction ou AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
la table source se trouve dans le metastore Hive et la table de destination se trouve dans Unity Catalog.
INVALID_URL
L’URL <url>
n’est pas valide. Si nécessaire, définissez <ansiConfig>
sur « false » pour contourner cette erreur.
INVALID_USAGE_OF_STAR_OR_REGEX
Utilisation non valide de <elem>
dans <prettyName>
.
INVALID_UTF8_STRING
Séquence d’octets UTF8 non valide trouvée dans la chaîne : <str>
.
INVALID_UUID
L'entrée <uuidInput>
n'est pas une URL valide.
L'UUID doit être au format « xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx »
Veuillez vérifier le format de l'UUID.
INVALID_VARIABLE_DECLARATION
Déclaration de variable non valide.
Pour plus d’informations, consultez INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Le type de variable doit être de type chaîne, mais <varType>
a été obtenu.
INVALID_VARIANT_CAST
La valeur de variante <value>
ne peut pas être forcée en <dataType>
. Veuillez plutôt utiliser try_variant_get
.
INVALID_VARIANT_FROM_PARQUET
Variante non valide.
Pour plus d’informations, consultez INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Le chemin d’accès <path>
n’est pas un chemin d’extraction de variante valide dans <functionName>
.
Un chemin valide doit commencer par $
, suivi de zéro ou plusieurs segments tels que [123]
, .name
, ['name']
ou ["name"]
.
INVALID_WHERE_CONDITION
La condition WHERE <condition>
contient des expressions non valides : <expressionList>
.
Réécrire la requête pour éviter les fonctions de fenêtre, les fonctions d’agrégation et les fonctions de générateur dans la clause WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Impossible de spécifier ORDER BY ou une fenêtre de temps pour <aggFunc>
.
INVALID_WRITER_COMMIT_MESSAGE
L’enregistreur de source de données a généré un nombre non valide de messages de validation. Exactement un message de validation d’enregistreur était attendu à partir de chaque tâche, mais <detail>
a été reçu.
INVALID_WRITE_DISTRIBUTION
La distribution d’écriture demandée n’est pas valide.
Pour plus d’informations, voir INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
La condition de jointure <joinCondition>
a le type <conditionType>
non valide , attendu « BOOLEAN
».
KAFKA_DATA_LOSS
Certaines données ont peut-être été perdues, car elles ne sont plus disponibles dans Kafka ;
soit les données ont été anciennes par Kafka, soit la rubrique a peut-être été supprimée avant que toutes les données de la
la rubrique aient été traitée.
Si vous ne souhaitez pas que votre requête de diffusion en continu échoue dans de tels cas, définissez l’option source failOnDataLoss sur false.
Motif :
Pour plus d’informations, consultez KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Impossible de lire jusqu’à ce que le numéro de séquence souhaité <endSeqNum>
pour la partition <shardId>
dans
le flux kinesis <stream>
avec le mode consommateur <consumerMode>
. La requête échouera en raison d’une
perte potentielle de données. Le dernier enregistrement de lecture était au numéro de séquence <lastSeqNum>
.
Cela peut se produire si les données avec endSeqNum sont déjà obsolètes, ou si le flux Kinesis a été
supprimé et reconstruit avec le même nom. Le comportement d’échec peut être outrepassé
en définissant spark.databricks.clusters.failOnDataLoss sur false dans la configuration Spark.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Le ShardId au minimum extrait à partir de Kinésis (<fetchedShardId>
)
est inférieur au shardId suivi minimal (<trackedShardId>
).
Cela est inattendu et se produit lorsqu’un flux Kinésis est supprimé puis recréé avec le même nom,
et une requête de diffusion en continu utilisant ce flux Kinésis est redémarrée à l’aide d’un emplacement de point de contrôle existant.
Redémarrez la requête de diffusion en continu avec un nouvel emplacement de point de contrôle ou créez un flux de données avec un nouveau nom.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Pour la partition <shard>
, le dernier enregistrement lu depuis Kinesis dans les extractions précédentes a un numéro de séquence <lastSeqNum>
,
qui est supérieur à l’enregistrement lu dans la récupération actuelle avec le numéro de séquence <recordSeqNum>
.
Cela est inattendu et peut se produire lorsque la position de début de la nouvelle tentative ou de la récupération suivante est incorrectement initialisée, et peut entraîner des enregistrements dupliqués en aval.
KRYO_BUFFER_OVERFLOW
Échec de sérialisation de Kryo :<exceptionMsg>
. Pour éviter cela, augmentez la valeur «<bufferSizeConfKey>
».
LABELS_MISMATCH
L’étiquette <beginLabel>
de début ne correspond pas à l’étiquette de <endLabel>
fin .
LOAD_DATA_PATH_NOT_EXISTS
Le chemin d’entrée LOAD DATA n’existe pas : <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL doit être utilisé avec le schéma de file
, mais obtient : <actualSchema>
.
LOCATION_ALREADY_EXISTS
Impossible de nommer la table gérée comme <identifier>
, car son emplacement associé <location>
existe déjà. Choisissez un autre nom de table ou supprimez d’abord l’emplacement existant.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Certaines partitions dans les rubriques Kafka ont été perdues pendant l’exécution de la requête avec Trigger.AvailableNow. L’erreur peut être temporaire : redémarrez votre requête et effectuez un signalement si vous voyez toujours le même problème.
partitions de rubrique pour le dernier décalage : <tpsForLatestOffset>
, partitions de rubrique pour le décalage de fin : <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Des messages Avro mal formés sont détectés dans la désérialisation des messages. Mode analyse : <mode>
. Pour traiter un message Avro malformé en tant que résultat null, essayez de définir l’option « mode » sur « PERMISSIVE ».
MALFORMED_CHARACTER_CODING
Valeur non valide trouvée lors de l’exécution <function>
avec <charset>
MALFORMED_CSV_RECORD
Enregistrement CSV erroné : <badRecord>
MALFORMED_RECORD_IN_PARSING
Les enregistrements erronés sont détectés dans l’analyse des enregistrements : <badRecord>
.
Mode analyse : <failFastMode>
. Pour traiter les enregistrements erronés comme des résultats nuls, essayez de définir l'option 'mode' comme 'PERMISSIVE'.
Pour plus de détails, consultez MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
Le fichier binaire variant est mal formé. Vérifiez que la source de données est valide.
MANAGED_TABLE_WITH_CRED
La création d’une table managée avec des informations d’identification de stockage n’est pas prise en charge.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Impossible <refreshType>
de créer la vue matérialisée car elle est antérieure à l'existence d'un pipelineId. Pour activer <refreshType>
, supprimez et recréez la vue matérialisée.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
L'opération de vue matérialisée <operation>
n'est pas autorisée :
Pour plus d’informations, voir MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
L’expression de sortie <expression>
dans une vue matérialisée doit être explicitement aliasée.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Impossible de créer une vue <name>
matérialisée avec la requête de diffusion en continu. Utilisez CREATE [OU REFRESH] STREAMING TABLE ou supprimez le mot clé STREAM dans votre clause FROM pour transformer cette relation en requête par lot à la place.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
L’opération <operation>
n’est pas prise en charge sur les vues matérialisées pour cette version.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Impossible de créer la nouvelle variable <variableName>
, car le nombre de variables dans la session dépasse le nombre maximal autorisé (<maxNumVariables>
).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch doit être un entier positif inférieur ou égal à <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
La condition de recherche ON de l’instruction MERGE a mis en correspondance une seule ligne de la table cible avec plusieurs lignes de la table source.
Cela peut entraîner l’utilisation de la ligne cible plusieurs fois avec une opération de mise à jour ou de suppression et n’est pas autorisée.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT n’est pas activé.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
La valeur fournie « <argValue>
» n’est pas prise en charge par l’argument «<argName>
» pour la fonction de table METRIC_STORE.
Pour plus d’informations, consultez METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
La fonction Metric Store <functionName>
est actuellement désactivée dans cet environnement.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
La source de données Kafka dans Trigger.AvailableNow doit fournir les mêmes partitions de rubriques dans le décalage pré-extrait jusqu’au décalage de fin pour chaque microlot. L’erreur peut être temporaire : redémarrez votre requête et effectuez un signalement si vous voyez toujours le même problème.
partitions de rubrique pour le décalage pré-éextrait : <tpsForPrefetched>
, partitions de rubrique pour le décalage de fin : <tpsForEndOffset>
.
MISSING_AGGREGATION
L’expression non agrégative <expression>
est basée sur des colonnes qui ne participent pas à la clause GROUP BY.
Ajoutez les colonnes ou l’expression à GROUP BY, agrégez l’expression ou utilisez <expressionAnyValue>
si vous ne vous souciez pas des valeurs d’un groupe retournées.
Pour plus d’informations, voir MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
Les connexions de type '<connectionType>
' doivent inclure la ou les options suivantes : <requiredOptions>
.
MISSING_GROUP_BY
La requête doit inclure une clause GROUP BY. Ajoutez GROUP BY ou transformez-le en fonctions de fenêtre à l’aide des clauses OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
La contrainte CHECK doit avoir un nom.
MISSING_PARAMETER_FOR_KAFKA
Le paramètre <parameterName>
est requis pour Kafka, mais n’est pas spécifié dans <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
Le paramètre <parameterName>
est requis, mais n’est pas spécifié dans <functionName>
.
MISSING_WINDOW_SPECIFICATION
La spécification de fenêtre n’est pas définie dans la clause WINDOW pour <windowName>
. Pour plus d’informations sur les clauses WINDOW, reportez-vous à «<docroot>
/sql-ref-syntax-qry-select-window.html ».
MODIFY_BUILTIN_CATALOG
La modification du catalogue intégré <catalogName>
n’est pas prise en charge.
MULTIPLE_LOAD_PATH
Databricks Delta ne prend pas en charge plusieurs chemins d’entrée dans l’API load().
chemins : <pathList>
. Pour créer un DataFrame unique en chargeant
plusieurs chemins à partir de la même table Delta, chargez le chemin racine de
la table Delta avec les filtres de partition correspondants. Si les multiples chemins
proviennent de tables Delta différentes, utilisez les API union()/unionByName() de Dataset.
pour combiner les DataFrames générés par les appels d’API load() distincts.
MULTIPLE_MATCHING_CONSTRAINTS
Nous avons trouvé au moins deux contraintes correspondantes avec la condition donnée.
MULTIPLE_TIME_TRAVEL_SPEC
Impossible de spécifier le voyage dans le temps à la fois dans la clause et dans les options de voyage dans le temps.
MULTIPLE_XML_DATA_SOURCE
Plusieurs sources de données avec le nom <provider>
(<sourceNames>
) ont été détectées. Spécifiez le nom de classe complet, ou supprimez <externalSource>
du classpath.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
L’expression <expr>
ne prend pas en charge plusieurs sources.
MULTI_UDF_INTERFACE_ERROR
Non autorisé à implémenter plusieurs interfaces de fonction définie par l’utilisateur, UDF classe <className>
.
MUTUALLY_EXCLUSIVE_CLAUSES
Clauses ou options mutuellement exclusives <clauses>
. Veuillez supprimer l’une d’entre elles.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
La requête d’entrée attend un <expectedType>
, mais le tableau sous-jacente est un <givenType>
.
NAMED_PARAMETERS_NOT_SUPPORTED
Les paramètres nommés ne sont pas pris en charge pour la fonction <functionName>
; réessayez plutôt la requête avec des arguments positionnels pour l’appel de fonction.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Impossible d’appeler la fonction <functionName>
, car les références d’arguments nommés ne sont pas prises en charge. Dans ce cas, la référence de l’argument nommé était <argument>
.
NAMED_PARAMETER_SUPPORT_DISABLED
Impossible d’appeler la fonction <functionName>
, car les références d’arguments nommés ne sont pas activées ici.
Dans ce cas, la référence de l’argument nommé était <argument>
.
Définissez « spark.sql.allowNamedFunctionArguments » sur « true » pour activer la fonctionnalité.
NAMESPACE_ALREADY_EXISTS
Impossible de créer l’espace de nom <nameSpaceName>
parce qu'il existe déjà.
Choisissez un autre nom, supprimez l’espace de noms existant ou ajoutez la clause IF NOT EXISTS pour tolérer l’espace de noms préexistant.
NAMESPACE_NOT_EMPTY
Impossible de supprimer un espace de nom <nameSpaceNameName>
, car il contient des objets.
Utilisez DROP NAMESPACE ... CASCADE pour supprimer l’espace de noms et tous ses objets.
NAMESPACE_NOT_FOUND
L’espace de nom <nameSpaceName>
est introuvable. Vérifiez l’orthographe et l’exactitude de l’espace de noms.
Si vous n’avez pas qualifié le nom avec, vérifiez la sortie current_schema() ou qualifiez le nom avec le correctement.
Pour tolérer l’erreur lors de la suppression, utilisez DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Échec de la requête native. requestId : , cloud : <requestId>
<cloud>
, opération :<operation>
request : [https : <https>
, method = <method>
, path = <path>
, params = , host = <host>
<params>
, headers = <headers>
, bodyLen = ], <bodyLen>
erreur: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
Native XML Data Source n’est pas activée dans ce cluster.
NESTED_AGGREGATE_FUNCTION
Il n’est pas autorisé à utiliser une fonction d’agrégation dans l’argument d’une autre fonction d’agrégation. Utilisez la fonction d’agrégation interne dans une sous-requête.
NESTED_EXECUTE_IMMEDIATE
Les commandes EXECUTE IMMEDIATE imbriquées ne sont pas autorisées. Vérifiez que la requête SQL fournie (<sqlString>
) ne contient pas une autre commande EXECUTE IMMEDIATE.
NONEXISTENT_FIELD_NAME_IN_LIST
Les champs <nonExistFields>
n’existent pas. Champs disponibles : <fieldNames>
NON_FOLDABLE_ARGUMENT
La fonction <funcName>
nécessite le paramètre <paramName>
pour être une expression pouvant être assemblée de type <paramType>
, mais l’argument réel ne peut pas être assemblé.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quand il existe plusieurs clauses MATCHED dans une instruction MERGE, seule la dernière clause MATCHED peut omettre la condition.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quand il existe plusieurs clauses NOT MATCHED BY SOURCE dans une instruction MERGE, seule la dernière clause NOT MATCHED BY SOURCE peut omettre la condition.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Quand il existe plusieurs clauses NOT MATCHED [BY TARGET] dans une instruction MERGE, seule la dernière clause NOT MATCHED [BY TARGET] peut omettre la condition.
NON_LITERAL_PIVOT_VALUES
Expressions littérales nécessaires pour les valeurs de tableau croisé dynamique. <expression>
trouvé.
NON_PARTITION_COLUMN
La clause PARTITION ne peut pas contenir la colonne non partitionnée : <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
La fonction Window n’est pas prise en charge dans <windowFunc>
(en tant que colonne <columnName>
) sur les DataFrames/Datasets de streaming.
Flux structuré prend uniquement en charge l’agrégation de fenêtres de temps à l’aide de la fonction WINDOW. (spécification de fenêtre : <windowSpec>
)
NOT_ALLOWED_IN_FROM
Non autorisé dans la clause FROM :
Pour plus d’informations, voir NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
L’expression <expr>
utilisée pour la routine ou la clause <name>
doit être une constante STRING
qui n’est PAS NULLE.
Pour plus d’informations, voir NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
L’opération <operation>
n’est pas autorisée pour <tableIdentWithDB>
car il ne s’agit pas d’une table partitionnée.
NOT_A_SCALAR_FUNCTION
<functionName>
apparaît ici en tant qu’expression scalaire, mais la fonction a été définie comme une fonction de table. Mettez à jour la requête pour déplacer l’appel de fonction dans la clause FROM, ou redéfinissez <functionName>
en tant que fonction scalaire à la place.
NOT_A_TABLE_FUNCTION
<functionName>
apparaît ici en tant qu’expression de table, mais la fonction a été définie comme une fonction scalaire. Mettez à jour la requête pour déplacer l’appel de fonction dans la clause FROM, ou redéfinissez <functionName>
en tant que fonction de table à la place.
NOT_NULL_ASSERT_VIOLATION
Valeur NULL apparue dans un champ non-nullable : <walkedTypePath>
si le schéma est déduit d’une classe de tuple/cas Scala ou d’un bean Java, essayez d’utiliser scala.Option[_] ou d’autres types pouvant accepter la valeur Null (comme java.lang.Integer plutôt que int/scala.Int).
NOT_NULL_CONSTRAINT_VIOLATION
L’attribution d’une valeur NULL n’est pas autorisée ici.
Pour plus d’informations, voir NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN n’est pas pris en charge pour la modification <table>
de la colonne <originName>
de type <originType>
en <newName>
avec le type <newType>
.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
n’est pas pris en charge pour les tableaux v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
n’est pas pris en charge. Si vous souhaitez l’activer, définissez « spark.sql.catalogImplementation » sur « hive ».
NOT_SUPPORTED_IN_JDBC_CATALOG
Commande non prise en charge dans le catalogue JDBC :
Pour plus d’informations, consultez NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
n’est pas pris en charge sur un SQL <endpoint>
.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
n’est pas pris en charge sur le calcul serverless.
NOT_UNRESOLVED_ENCODER
Encodeur non résolu attendu, mais <attr>
a été trouvé.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Impossible de déterminer la valeur par défaut pour <colName>
, car elle n’est pas nullable et n’a pas de valeur par défaut.
NO_HANDLER_FOR_UDAF
Aucun gestionnaire pour UDAF « <functionName>
». Utilisez plutôt sparkSession.udf.register(...).
NO_MERGE_ACTION_SPECIFIED
df.mergeInto doit être suivi d’au moins un whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE : aucune attribution
Aucun emplacement externe parent n’a été trouvé pour le chemin « <path>
». Créez un emplacement externe sur l’un des chemins parents, puis réessayez la requête ou la commande.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Impossible de trouver <catalystFieldPath>
dans le schéma Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE : aucune attribution
Aucun emplacement de stockage n’a été trouvé pour la table « <tableId>
» lors de la génération d’informations d’identification de table. Vérifiez le type de table et l’URL de l’emplacement de la table, puis réessayez la requête ou la commande.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE : aucune attribution
Le catalogue « <catalog>
» est introuvable. Vérifiez le nom du catalogue, puis réessayez la requête ou la commande.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE : aucune attribution
Cleam Room « <cleanroom>
» n’existe pas. Vérifiez que Cleam Room est orthographié correctement et correspond au nom d’un Cleam Room existant valide, puis réessayez la requête ou la commande.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE : aucune attribution
L’emplacement externe « <externalLocation>
» n’existe pas. Vérifiez que le nom de l’emplacement externe est correct, puis réessayez la requête ou la commande.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE : aucune attribution
Le metastore est introuvable. Demandez à votre administrateur de compte d’affecter un metastore à l’espace de travail actuel, puis réessayez la requête ou la commande.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE : aucune attribution
Le fournisseur de partage « <providerName>
» n’existe pas. Vérifiez que le nom du fournisseur de partage est correctement orthographié et correspond au nom d’un fournisseur existant valide, puis réessayez la requête ou la commande.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE : aucune attribution
Le destinataire « <recipient>
» n’existe pas. Vérifiez que le nom du destinataire est correctement orthographié et correspond au nom d’un destinataire existant valide, puis réessayez la requête ou la commande.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE : aucune attribution
Le partage « <share>
» n’existe pas. Vérifiez que le nom du partage est orthographié correctement et correspond au nom d’un partage existant valide, puis réessayez la requête ou la commande.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE : aucune attribution
Les informations d’identification de stockage « <storageCredential>
» n’existent pas. Vérifiez que le nom des informations d’identification de stockage est correctement orthographié et correspond au nom d’informations d’identification de stockage existantes valides, puis réessayez la requête ou la commande.
NO_SUCH_USER_EXCEPTION
SQLSTATE : aucune attribution
L’utilisateur « <userName>
» n’existe pas. Vérifiez que l’utilisateur auquel vous accordez l’autorisation ou pour lequel vous modifiez la propriété est correctement orthographié et correspond au nom d’un utilisateur existant valide, puis réessayez la requête ou la commande.
NO_UDF_INTERFACE
La classe UDF <className>
n’implémente pas d’interface UDF.
NULLABLE_COLUMN_OR_FIELD
La colonne ou le champ <name>
est annulable alors que sa valeur devrait être non annulable.
NULLABLE_ROW_ID_ATTRIBUTES
Les attributs de l'ID de ligne ne peuvent pas être annulables : <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
L’option <option>
de lecture/écriture de la source de données ne peut pas avoir de valeur Null.
NULL_MAP_KEY
Impossible d’utiliser null comme clé de carte.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
L’exécution immédiate nécessite une variable non-null comme chaîne de requête, mais la variable <varName>
fournie est null.
NUMERIC_OUT_OF_SUPPORTED_RANGE
La valeur <value>
ne peut pas être interprétée comme numérique, car elle comporte plus de 38 chiffres.
NUMERIC_VALUE_OUT_OF_RANGE
Pour plus d’informations, consultez NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
ne peut être effectué que sur les entrées avec le même nombre de colonnes, mais la première entrée comporte <firstNumColumns>
colonnes et l’entrée <invalidOrdinalNum>
a <invalidNumColumns>
colonnes.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Le nombre d’alias donnés ne correspond pas au nombre de colonnes de sortie.
Nom de la fonction : <funcName>
; nombre d’alias : <aliasesNum>
; nombre de colonnes de sortie : <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Aucune revendication d’identité personnalisée n’a été fournie.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
La fonction d’appel <functionName>
n’est pas prise en charge dans ce <location>
; <supportedFunctions>
prise en charge ici.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
L’opération SQL <operation>
n’est prise en charge que sur les connecteurs Databricks SQL avec prise en charge de Unity Catalog.
OPERATION_CANCELED
L'opération a été annulée.
OPERATION_REQUIRES_UNITY_CATALOG
L’opération <operation>
nécessite l’activation de Unity Catalog.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
n’est pas pris en charge en mode Session en lecture seule.
ORDER_BY_POS_OUT_OF_RANGE
La position <index>
ORDER BY n’est pas dans la liste de sélection (plage valide est [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Impossible de créer un convertisseur Parquet pour le type <dataType>
de données dont le type Parquet est <parquetType>
.
Pour plus d’informations, consultez PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
Erreur de syntaxe, instruction vide inattendue.
PARSE_SYNTAX_ERROR
Erreur de syntaxe au niveau ou à proximité de <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Impossible d’AJOUTER ou de RENOMMER des partitions <partitionList>
dans la table <tableName>
, car elles existent déjà.
Choisissez un autre nom, supprimez la partition existante ou ajoutez la clause IF NOT EXISTS pour tolérer une partition préexistante.
PARTITIONS_NOT_FOUND
La ou les partitions <partitionList>
sont introuvables dans la table <tableName>
.
Vérifiez la spécification de la partition et le nom de la table.
Pour tolérer l’erreur lors de la suppression, utilisez ALTER TABLE ... DROP IF EXISTS PARTITION.
PARTITION_LOCATION_ALREADY_EXISTS
L’emplacement de partition <locationPath>
existe déjà dans la table <tableName>
.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Échec de l’exécution de l’instruction ALTER TABLE SET PARTITION LOCATION, car
l’emplacement de partition <location>
n’est pas sous le répertoire de table <table>
.
Pour corriger cette erreur, définissez l’emplacement de la partition sur un sous-répertoire de <table>
.
PARTITION_METADATA
<action>
n’est pas autorisé sur la table <tableName>
, car le stockage des métadonnées de partition n’est pas pris en charge dans Unity Catalog.
PATH_ALREADY_EXISTS
Le chemin <outputPath>
existe déjà. Définissez le mode sur « écraser » pour remplacer le chemin d’accès existant.
PATH_NOT_FOUND
Le chemin d’accès n’existe pas : <path>
.
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
La fonction <expr>
d’agrégation n’est pas autorisée lors de l’utilisation de l’opérateur de canal |> CLAUSE SELECT ; utilisez l’opérateur de canal |> Clause AGGREGATE à la place
PIVOT_VALUE_DATA_TYPE_MISMATCH
Valeur pivot « <value>
» invalide : le type de données de la valeur <valueType>
ne correspond pas au type de données de la colonne pivot <pivotType>
.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
La procédure <procedureName>
attend des arguments <expected>
, mais <actual>
ont été fournis.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE avec une définition de routine vide n’est pas autorisé.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Le paramètre <parameterName>
est défini avec le mode de paramètre <parameterMode>
. Le paramètre OUT et INOUT ne peut pas être omis lors de l’appel d’une routine et, de ce fait, ne prend pas en charge une expression DEFAULT. Pour continuer, supprimez la clause DEFAULT ou remplacez le mode de paramètre par IN.
PROCEDURE_NOT_SUPPORTED
Le procédure stockée n’est pas prise en charge
PROCEDURE_NOT_SUPPORTED_WITH_HMS
La procédure stockée n’est pas prise en charge avec le metastore Hive. Utilisez plutôt Unity Catalog.
PROTOBUF_DEPENDENCY_NOT_FOUND
Impossible de trouver la dépendance : <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Erreur lors de la lecture du fichier de descripteur Protobuf au niveau du chemin d’accès : <filePath>
.
PROTOBUF_FIELD_MISSING
La recherche de <field>
dans le schéma Protobuf à <protobufSchema>
a donné <matchSize>
correspondances. Candidats : <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Trouvé <field>
dans le schéma Protobuf, mais il n’y a aucune correspondance dans le schéma SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Incompatibilité de type rencontrée pour le champ : <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Les classes Java ne sont pas prises en charge pour <protobufFunction>
. Contactez le support Databricks pour connaître les autres options.
PROTOBUF_MESSAGE_NOT_FOUND
Impossible de localiser le message <messageName>
dans le descripteur.
PROTOBUF_TYPE_NOT_SUPPORT
Type Protobuf non encore pris en charge : <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
Impossible de réessayer la tâche de l’étape d’extraction pubsub. Partition <partitionInfo>
dans l’étape <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
ne peut pas être une chaîne vide.
PS_INVALID_KEY_TYPE
Type de clé non valide pour PubSub dedup : <key>
.
PS_INVALID_OPTION
L’option <key>
n’est pas prise en charge par PubSub. Il ne peut être utilisé qu’en test.
PS_INVALID_OPTION_TYPE
Type non valide pour <key>
. Type attendu de <key>
à type <type>
.
PS_INVALID_READ_LIMIT
Limite de lecture non valide sur le flux PubSub : <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
Non valide UnsafeRow à décoder en PubSubMessageMetadata, le schéma proto souhaité est : <protoSchema>
. L’entrée UnsafeRow peut être endommagée : <unsafeRow>
.
PS_MISSING_AUTH_INFO
Impossible de trouver les informations d’authentification PubSub complètes.
PS_MISSING_REQUIRED_OPTION
Impossible de trouver l'option requise : <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Impossible de déplacer les fichiers de point de contrôle de données brutes à partir de <src>
vers le répertoire de destination : <dest>
.
PS_MULTIPLE_FAILED_EPOCHS
Impossible de démarrer le flux PubSub, car il y a plusieurs échecs d’extraction : <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
doit être dans les limites suivantes (<min>
, <max>
) exclusives des deux limites.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Les clusters partagés ne prennent pas en charge l’authentification avec des profils instance. Fournissez des informations d’identification au flux directement à l’aide de .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
Le connecteur source PubSub est uniquement disponible dans le cluster avec spark.speculation
désactivé.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Une erreur s’est produite lors de la tentative de création de l’abonnement <subId>
sur la rubrique <topicId>
. Veuillez vérifier qu’il existe suffisamment d’autorisations pour créer un abonnement et réessayez.
PS_UNABLE_TO_PARSE_PROTO
Impossible d’analyser les octets sérialisés pour générer le proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset n’est pas pris en charge sans fournir une limite.
PYTHON_DATA_SOURCE_ERROR
Échec de l’<action>
sur le <type>
de source de données Python : <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Échec lors de l’exécution de la source de données de streaming Python <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Impossible d’accéder au tableau référencé, car un masque de colonne précédemment attribué est actuellement incompatible avec le schéma du tableau ; pour continuer, veuillez contacte le propriétaire du tableau pour mettre à jour la stratégie :
Pour plus de détails, voir QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Impossible d’accéder au tableau référencé, car une stratégie de sécurité au niveau des lignes précédemment attribué est actuellement incompatible avec le schéma du tableau. Pour continuer, contactez le propriétaire du tableau pour mettre à jour la stratégie :
Pour plus de détails, voir QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
Il est possible que les fichiers sous-jacents aient été mis à jour . Vous pouvez invalider explicitement le cache dans Spark en exécutant la commande « REFRESH TABLE tableName » dans SQL ou en recréant les DataSet/DataFrame impliqués.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
L’appel de la fonction <functionName>
a donné<parameterName>
et défini<alternativeName>
, qui sont des alias. Définissez un seul de ceux-ci.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Le paramètre <parameterName>
de fonction <functionName>
requis doit être affecté à la position <expectedPos>
sans le nom.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Seuls les types TIMESTAMP
/TIMESTAMP_LTZ/TIMESTAMP_NTZ sont pris en charge pour l’horodatage d’expiration du destinataire.
RECURSIVE_PROTOBUF_SCHEMA
Référence récursive trouvée dans le schéma Protobuf, qui ne peut pas être traitée par Spark par défaut : <fieldDescriptor>
. Essayez de définir l’option recursive.fields.max.depth
1 à 10. Il n’est pas autorisé d’aller au-delà de 10 niveaux de récursivité.
RECURSIVE_VIEW
Affichage <viewIdent>
récursif détecté (cycle : <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Les références aux valeurs de colonne DEFAULT ne sont pas autorisées dans la clause PARTITION.
RELATION_LARGER_THAN_8G
Impossible de générer un <relationName>
supérieur à 8G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Échec de la requête HTTP distante avec le code <errorCode>
et le message d’erreur <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Échec de l’évaluation de la fonction SQL <functionName>
en raison de l’incapacité à analyser le résultat JSON de la réponse HTTP distante ; le message d’erreur est <errorMessage>
. Consultez la documentation de l’API : <docUrl>
. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Échec de l’évaluation de la fonction SQL <functionName>
en raison de l’incapacité à traiter la réponse HTTP distante inattendue ; le message d’erreur est <errorMessage>
. Consultez la documentation de l’API : <docUrl>
. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
La requête distante a échoué après <N>
nouvelles tentatives ; le dernier code d’erreur HTTP ayant échoué était <errorCode>
et le message était <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Échec de l’évaluation de la fonction SQL <functionName>
, car <errorMessage>
. Vérifiez les conditions requises dans <docUrl>
. Corrigez le problème indiqué dans le message d’erreur et réessayez la requête.
RENAME_SRC_PATH_NOT_FOUND
Échec du changement de nom, car <sourcePath>
n’a pas été trouvé.
REPEATED_CLAUSE
La clause <clause>
peut être utilisée au maximum une fois toutes les <operation>
opérations.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Le paramètre requis <parameterName>
de la fonction <functionName>
a été affecté à la position <positionalIndex>
sans le nom.
Mettez à jour l’appel de fonction pour supprimer l’argument nommé avec <parameterName>
pour ce paramètre ou supprimer l’argument
positionnel à <positionalIndex>
, puis réessayez la requête.
REQUIRED_PARAMETER_NOT_FOUND
Impossible d’appeler la fonction <functionName>
, car le paramètre nommé <parameterName>
est obligatoire, mais l’appel de fonction n’a pas fourni de valeur. Mettez à jour l’appel de fonction pour fournir une valeur d’argument (position à l’index <index>
ou par nom) et réessayez la requête.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
nécessite un espace de nom à partie unique, mais a obtenu <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
L’option lecteur de l’API DataFrame « rescuedDataColumn » s’exclue mutuellement avec l’option API DataFrame « singleVariantColumn ».
Supprimez l’une d’entre elles, puis réessayez l’opération DataFrame.
RESERVED_CDC_COLUMNS_ON_WRITE
L’écriture contient des colonnes <columnList>
réservées qui sont utilisées
en interne en tant que métadonnées pour le flux des changements de données. Pour écrire dans la table, renommez/supprimez
ces colonnes ou désactivez le flux des changements de données sur la table en attribuant à
<config>
est faux.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
L’option <option>
a des valeurs restreintes sur les clusters partagés pour la source <source>
.
Pour plus d’informations, consultez RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED.
ROUTINE_ALREADY_EXISTS
Impossible de créer le <newRoutineType>
<routineName>
nom, car il existe déjà un <existingRoutineType>
nom.
Choisissez un autre nom, déposez ou remplacez l’existant <existingRoutineType>
, ou ajoutez la clause IF NOT EXISTS pour tolérer une clause préexistante <newRoutineType>
.
ROUTINE_NOT_FOUND
La routine <routineName>
est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.
Si vous n’avez pas qualifié le nom avec un schéma et un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.
Pour tolérer l’erreur lors de la suppression, utilisez DROP … IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
La fonction <functionName>
ne prend pas en charge le paramètre <parameterName>
spécifié à la position <pos>
.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Impossible de créer la fonction <routineName>
, car le nom de classe «<className>
» spécifié est réservé à l’utilisation du système. Renommez la classe et réessayez.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
La création d’une contrainte CHECK sur une table <tableName>
avec des stratégies de masque de colonne n’est pas prise en charge.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Une instruction <statementType>
a tenté d’affecter une stratégie de sécurité au niveau des lignes à un tableau, mais au moins deux colonnes référencées portaient le même nom <columnName>
, ce qui n’est pas valide.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Les stratégies de sécurité au niveau des lignes pour <tableName>
ne sont pas prises en charge :
Pour plus d’informations, voir ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Impossible de <statementType>
<columnName>
à partir de la table <tableName>
, car elle est référencée dans une politique de sécurité au niveau des lignes. Le propriétaire de la table doit supprimer ou modifier cette stratégie avant de continuer.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
Les opérations MERGE INTO ne prennent pas en charge les stratégies de sécurité au niveau des lignes dans le tableau source <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
Les opérations MERGE INTO ne prennent pas en charge l’écriture dans un tableau <tableName>
avec des stratégies de sécurité au niveau des lignes.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Cette instruction a tenté d’affecter une stratégie de sécurité au niveau des lignes à un tableau, mais la colonne référencée <columnName>
avait plusieurs parties de nom, ce qui n’est pas valide.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
Les stratégies de sécurité au niveau des lignes sont uniquement prises en charge dans Unity Catalog.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
Le clonage <mode>
à partir d’une table <tableName>
avec une stratégie de sécurité au niveau des lignes n’est pas pris en charge.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Le clonage <mode>
vers une table <tableName>
avec une stratégie de sécurité au niveau des lignes n’est pas pris en charge.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
L’utilisation d’une constante en tant que paramètre dans une stratégie de sécurité au niveau des lignes n’est pas prise en charge. Mettez à jour votre commande SQL pour supprimer la constante de la définition du filtre de ligne, puis réessayez la commande.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Échec de l’exécution de la commande <statementType>
, car l’affectation des stratégies de sécurité au niveau des lignes.n’est pas prise en charge pour la source de données cible avec le fournisseur de tableau : « <provider>
».
ROW_SUBQUERY_TOO_MANY_ROWS
Plus d'une ligne renvoyée par une sous-requête utilisée comme une ligne.
ROW_VALUE_IS_NULL
Trouvé NULL dans une ligne à l’index <index>
, attendait une valeur non NULL.
RULE_ID_NOT_FOUND
Id introuvable pour le nom de la règle «<ruleName>
». Modifiez RuleIdCollection.scala si vous ajoutez une nouvelle règle.
SAMPLE_TABLE_PERMISSIONS
Autorisations non prises en charge sur les exemples de bases de données ou de tables.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
La sous-requête scalaire corrélée '<sqlExpr>
' n’est présente ni dans GROUP BY, ni dans une fonction d’agrégation.
Ajoutez-le à GROUP BY à l’aide de la position ordinale ou encapsulez-le dans first()
(ou first_value
) si vous ne vous souciez pas de la valeur que vous obtenez.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Plusieurs lignes retournées par une sous-requête utilisée comme expression.
SCHEDULE_PERIOD_INVALID
La période de <timeUnit>
planification doit être une valeur entière comprise entre 1 et <upperBound>
(inclus). Reçu : <actual>
.
SCHEMA_ALREADY_EXISTS
Impossible de créer le schéma <schemaName>
parce qu'il existe déjà.
Choisissez un autre nom, supprimez le schéma existant ou ajoutez la clause IF NOT EXISTS pour tolérer un schéma préexistant.
SCHEMA_NOT_EMPTY
Impossible de supprimer un schéma <schemaName>
, car il contient des objets.
Utiliser DROP SCHEMA ... CASCADE pour supprimer le schéma et tous ses objets.
SCHEMA_NOT_FOUND
Le schéma <schemaName>
est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.
Si vous n’avez pas qualifié le nom avec un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le catalogue approprié.
Pour tolérer l’erreur lors de la suppression, utilisez DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Impossible d’initialiser le schéma du Registre de schémas. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Le deuxième élément de la fonction <functionName>
doit être un entier.
SECRET_FUNCTION_INVALID_LOCATION
Impossible d’exécuter la commande <commandType>
avec une ou plusieurs références non chiffrées à la fonction SECRET ; chiffrez le résultat de chaque appel de fonction avec AES_ENCRYPT et réessayez la commande
SEED_EXPRESSION_IS_UNFOLDABLE
L’expression seed <seedExpr>
de l’expression <exprWithSeed>
doit être pliable.
SERVER_IS_BUSY
Le serveur est occupé et n’a pas pu gérer la requête. Patientez quelques minutes, puis réessayez.
SORT_BY_WITHOUT_BUCKETING
sortBy doit être utilisé avec bucketBy.
SPARK_JOB_CANCELLED
Travail <jobId>
annulé <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Un CREATE TABLE sans liste de colonnes explicite ne peut pas spécifier d’informations de compartimentage.
Utilisez le formulaire avec une liste de colonnes explicite et spécifiez les informations de compartimentage.
Vous pouvez également déduire les informations de compartimentage en omettant la clause.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Impossible de spécifier à la fois CLUSTER BY et CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Impossible de spécifier à la fois CLUSTER BY et PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Un CREATE TABLE sans liste de colonnes explicite ne peut pas spécifier de PARTITIONED BY.
Utilisez le formulaire avec une liste de colonnes explicite et spécifiez le PARTITIONED BY.
Vous pouvez également autoriser la déduction de partitionnement en omettant la clause PARTITION BY.
SQL_CONF_NOT_FOUND
La configuration <sqlConf>
SQL est introuvable. Vérifiez que la configuration existe.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Erreur temporaire lors de l’accès au chemin d’accès intermédiaire cible <path>
, réessayez dans quelques minutes
STAR_GROUP_BY_POS
L’étoile (*) n’est pas autorisée dans une liste de sélection lorsque GROUP BY une position ordinale est utilisée.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Échec de l’exécution d’une opération de processeur avec état=<operationType>
avec état descripteur=<handleState>
incorrect.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Échec de l’exécution d’une opération de processeur avec état=<operationType>
avec timeMode=<timeMode>
non valide
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Impossible de réinitialiser l’état sur la même clé de regroupement pendant la gestion de l’état initial pour le processeur avec état. Clé de regroupement incorrecte=<groupingKey>
. Vérifiez votre état initial, supprimez les lignes dupliquées et redémarrez la requête.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
La variable d’état portant le nom <stateVarName>
a déjà été définie dans StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Impossible d’utiliser la durée de vie pour état=<stateName>
dans timeMode=<timeMode>
, utilisez TimeMode.ProcessingTime() à la place.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
La durée de vie doit être supérieure à zéro pour l’opération de magasin d’état=<operationType>
sur état=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Mode <timeMode>
de temps inconnu . Les modes timeMode acceptés sont « none », « processingTime », « eventTime »
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Impossible de créer une famille de colonnes avec un caractère de départ et un nom=<colFamilyName>
non pris en charge.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Échec de l’exécution de l’opération de famille de colonnes=<operationName>
avec nom=<colFamilyName>
incorrect. Le nom de la famille de colonnes ne peut pas être vide ou inclure des espaces de début/fin, ou utiliser le mot clé réservé=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Transformation de schéma incompatible avec column family=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
Le descripteur n’a pas été initialisé pour ce StatefulProcessor.
Utilisez uniquement le StatefulProcessor dans l’opérateur transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Nombre incorrect d’ordinaux de classement=<numOrderingCols>
pour l’encodeur d’analyse de plage. Le nombre d’ordinaux de classement ne peut pas être égal à zéro ou supérieur au nombre de colonnes de schéma.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Nombre incorrect de colonnes de préfixe=<numPrefixCols>
pour l’encodeur d’analyse de préfixe. Les colonnes de préfixe ne peuvent pas être zéro ou supérieures ou égales au nombre de colonnes du schéma.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Impossible de passer <configName>
d’un <oldConfig>
redémarrage à l’autre <newConfig>
. <configName>
Définissez la <oldConfig>
valeur , ou redémarrez avec un nouveau répertoire de point de contrôle.
STATE_STORE_INVALID_PROVIDER
Le fournisseur de magasin d’état <inputClass>
donné ne permet pas d’étendre org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Impossible de passer <stateVarName>
d’un redémarrage de la requête à l’autre <newType>
. <stateVarName>
Définissez la <oldType>
valeur , ou redémarrez avec un nouveau répertoire de point de contrôle.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
La colonne de classement de type Null avec nom=<fieldName>
à l’index=<index>
n’est pas prise en charge pour l’encodeur d’analyse de plage.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Le fournisseur de magasin d’état <inputClass>
donné ne permet pas d’étendre org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Par conséquent, elle ne prend pas en charge l’option snapshotStartBatchId ou readChangeFeed dans la source de données d’état.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Opération de magasin d’état =<operationType>
non prise en charge sur la famille de colonnes manquante=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
La colonne de classement de taille variable avec nom=<fieldName>
à l’index=<index>
n’est pas prise en charge pour l’encodeur d’analyse de plage.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
La colonne de partition statique <staticName>
est également spécifiée dans la liste des colonnes.
STDS_COMMITTED_BATCH_UNAVAILABLE
Aucun lot validé trouvé, emplacement de point de contrôle : <checkpointLocation>
. Vérifiez que la requête a été exécutée et a validé un micro-lot avant de s’arrêter.
STDS_CONFLICT_OPTIONS
Les options <options>
ne peuvent pas être spécifiées ensemble. Spécifiez-en une seule.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Échec de lecture des métadonnées de l’opérateur pour checkpointLocation=<checkpointLocation>
et batchId=<batchId>
.
Le fichier n’existe pas ou il est endommagé.
Réexécutez la requête de diffusion en continu pour construire les métadonnées de l’opérateur et signalez aux communautés ou fournisseurs correspondants si l’erreur persiste.
STDS_FAILED_TO_READ_STATE_SCHEMA
Échec de la lecture du schéma d’état. Le fichier n’existe pas ou il est endommagé. Options : <sourceOptions>
.
Réexécutez la requête de diffusion en continu pour construire le schéma d’état, et informez les communautés ou fournisseurs concernés si l’erreur persiste.
STDS_INVALID_OPTION_VALUE
Valeur non valide pour l’option source « <optionName>
» :
Pour plus d’informations, consultez STDS_INVALID_OPTION_VALUE.
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
L’état n’a aucune partition. Vérifiez que la requête pointe vers l’état valide. Options : <sourceOptions>
.
STDS_OFFSET_LOG_UNAVAILABLE
Le journal de décalage pour <batchId>
n’existe pas, emplacement de point de contrôle : <checkpointLocation>
.
Spécifiez l’ID de lot disponible pour l’interrogation. Vous pouvez interroger les ID de lot disponibles à l’aide de la source de données de métadonnées d’état.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Les métadonnées ne sont pas disponibles pour le journal de décalage pour <batchId>
, emplacement de point de contrôle : <checkpointLocation>
.
Le point de contrôle semble être exécuté uniquement avec d’anciennes versions de Spark. Exécutez la requête de diffusion en continu avec la version Spark la plus récente, afin que Spark construise les métadonnées d’état.
STDS_REQUIRED_OPTION_UNSPECIFIED
« <optionName>
» doit être spécifié.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
L’exécution de requête adaptative n’est pas prise en charge pour les opérateurs avec état dans Structured Streaming.
STREAMING_FROM_MATERIALIZED_VIEW
Impossible de diffuser en continu à partir d’une vue <viewName>
matérialisée . La diffusion en continu à partir de vues matérialisées n’est pas prise en charge.
STREAMING_OUTPUT_MODE
Mode de sortie de streaming non valide : <outputMode>
.
Pour plus d’informations, consultez STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Le nom de l’opérateur avec état de streaming ne correspond pas à l’opérateur dans les métadonnées d’état. Cela se produit probablement lorsque l’utilisateur ajoute/supprime/modifie l’opérateur avec état de la requête de diffusion en continu existante.
Opérateurs avec état dans les métadonnées : [<OpsInMetadataSeq>
] ; Opérateurs avec état dans le lot actuel : [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
La table <tableName>
de diffusion en continu doit être actualisée pour s’exécuter <operation>
. Exécutez CREATE OR REFRESH STREAMING TABLE <tableName>
pour actualiser le tableau.
STREAMING_TABLE_NOT_SUPPORTED
Les tables de diffusion en continu ne peuvent être créées et actualisées que dans les tables Delta Live Tables et Databricks SQL Warehouses.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
L’opération <operation>
n’est pas autorisée :
Pour plus de détails, voir STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
La table <tableName>
de streaming ne peut être créée qu’à partir d’une requête de streaming. Ajoutez le mot clé STREAM à votre clause FROM pour transformer cette relation en requête de streaming.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Flux Kinesis <streamName>
dans <region>
introuvable.
Veuillez démarrer une nouvelle requête pointant vers le nom de flux de diffusion correct.
STRUCT_ARRAY_LENGTH_MISMATCH
La ligne d’entrée n’a pas le nombre attendu de valeurs requises par le schéma. Les champs <expected>
sont obligatoires alors que les valeurs <actual>
sont fournies.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
La somme de la clause LIMIT et de la clause OFFSET ne doit pas être supérieure à la valeur entière maximale de 32 bits (2 147 483 647), mais la limite trouvée = <limit>
, offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
La commande de métadonnées de synchronisation de table est prise en charge uniquement pour les tables delta.
SYNC_METADATA_NOT_SUPPORTED
La commande de métadonnées de synchronisation de table est prise en charge uniquement pour les tables Unity Catalog.
SYNC_SRC_TARGET_TBL_NOT_SAME
Le nom de la table source <srcTable>
doit être identique à celui de la table de destination <destTable>
.
SYNTAX_DISCONTINUED
Prise en charge de la clause ou du mot clé : <clause>
a été abandonné dans ce contexte.
Pour plus d’informations, consultez SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
Impossible de créer une table ou une vue <relationName>
, car elle existe déjà.
Choisissez un autre nom, supprimez l’objet existant, ajoutez la clause IF NOT EXISTS pour tolérer les objets préexistants, ajoutez la clause OR REPLACE pour remplacer la vue matérialisée existante ou ajoutez la clause OR REFRESH pour actualiser la table de streaming existante.
TABLE_OR_VIEW_NOT_FOUND
La table ou la vue <relationName>
est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.
Si vous n’avez pas qualifié le nom avec un schéma, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.
Pour tolérer l’erreur lors de la suppression, utilisez DROP VIEW IF EXISTS ou DROP TABLE IF EXISTS.
Pour plus d’informations, voir TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Impossible de <action>
SQL fonction définie par l’utilisateur<functionName>
avec des arguments TABLE, car cette fonctionnalité n’est pas encore implémentée.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Échec de l’analyse de la fonction de table définie par l’utilisateur Python : <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Nous n’avons pas pu évaluer la fonction de table <functionName>
en raison de sa métadonnée de table <requestedMetadata>
, mais nous avons évalué l’appel de fonction <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Nous n’avons pas pu évaluer la fonction de table <functionName>
, car sa métadonnée de table n’était pas valide; <reason>
.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Il existe trop d’arguments de table pour une fonction table.
Il autorise un argument de table, mais obtient : <num>
.
Si vous souhaitez l’autoriser, définissez « spark.sql.allowMultipleTableArguments.enabled » sur « true »
TABLE_WITH_ID_NOT_FOUND
La table avec l’ID <tableId>
est introuvable. Vérifiez l’exactitude de l’UUID.
TASK_WRITE_FAILED
La tâche a échoué lors de l’écriture de lignes dans <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Impossible de créer l’affichage temporaire <relationName>
, car il existe déjà.
Choisissez un autre nom, supprimez ou remplacez la vue existante, ou ajoutez la clause IF NOT EXISTS pour tolérer les vues préexistantes.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW ou les API de jeu de données correspondantes n’acceptent que les noms d’affichage en une seule partie, mais ont obtenu : <actualName>
.
UC_BUCKETED_TABLES
Les tables compartimentées ne sont pas prises en charge dans Unity Catalog.
UC_CATALOG_NAME_NOT_PROVIDED
Pour Unity Catalog, spécifiez explicitement le nom du catalogue. Par exemple, SHOW GRANT your.address@email.com
ON CATALOG main.
UC_COMMAND_NOT_SUPPORTED
Le ou les commandes : <commandName>
n’est (ne sont) pas prise(s) en charge dans Unity Catalog.
Pour plus d’informations, consultez UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
La ou les commandes : <commandName>
n’est (ne sont) pas prise(s) en charge pour les clusters Unity Catalog dans le mode d’accès partagé. Utilisez plutôt le mode d’accès utilisateur unique.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Le type d’informations d’identification spécifié n’est pas pris en charge.
UC_DATASOURCE_NOT_SUPPORTED
Le format de source de données <dataSourceFormatName>
n’est pas pris en charge dans Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Les options de source de données ne sont pas prises en charge dans Unity Catalog.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
La clause LOCATION doit être présente pour le volume externe. Veuillez vérifier la syntaxe « CREATE EXTERNAL VOLUME … LOCATION…» pour créer un volume externe.
UC_FAILED_PROVISIONING_STATE
La requête a échoué car elle a tenté de faire référence à la table <tableName>
, mais elle n’a pas pu le faire : <failureReason>
. Mettez à jour la table <tableName>
pour vous assurer qu’elle est dans un état d’approvisionnement Actif, puis réessayez la requête.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
La création d’une table dans Unity Catalog avec un schéma de fichiers <schemeName>
n’est pas prise en charge.
Au lieu de cela, créez une connexion de source de données fédérée à l’aide de la commande CREATE CONNECTION pour le même fournisseur de table, puis créez un catalogue basé sur la connexion avec une commande CREATE FOREIGN CATALOG pour référencer les tables qui s’y trouvent.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
La vue Fédération du metastore Hive ne prend pas en charge les dépendances entre plusieurs catalogues. L’affichage <view>
dans le catalogue de fédération de metastore Hive doit utiliser une dépendance à partir de hive_metastore ou spark_catalog catalogue, mais sa dépendance <dependency>
se trouve dans un autre catalogue <referencedCatalog>
. Mettez à jour les dépendances pour satisfaire cette contrainte, puis réessayez votre requête ou commande.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
La fédération de metastore Hive n’est pas activée sur ce cluster.
L’accès au catalogue <catalogName>
n’est pas pris en charge sur ce cluster.
UC_INVALID_DEPENDENCIES
Les dépendances de <viewName>
sont enregistrées comme <storedDeps>
alors qu’elles sont analysées en tant que <parsedDeps>
. Cela s’est probablement produit en cas d’utilisation incorrecte d’une API non SQL. Vous pouvez réparer les dépendances dans Databricks Runtime en exécutant ALTER VIEW <viewName>
comme <viewText>
.
UC_INVALID_NAMESPACE
Les espaces de noms imbriqués ou vides ne sont pas pris en charge dans Unity Catalog.
UC_INVALID_REFERENCE
L’objet Non-Unity-Catalog <name>
ne peut pas être référencé dans les objets Unity Catalog.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
La prise en charge de l’écriture de la fédération Unity Catalog Lakehouse n’est pas activée pour le fournisseur <provider>
sur ce cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Le volume géré n’accepte pas la clause LOCATION. Veuillez vérifier la syntaxe « CREATE VOLUME ... » pour créer un volume géré.
UC_NOT_ENABLED
Unity Catalog n’est pas activé sur ce cluster.
UC_QUERY_FEDERATION_NOT_ENABLED
Unity Catalog Query Federation n’est pas activée sur ce cluster.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Les informations d’identification du service ne sont pas activées sur ce cluster.
UC_VOLUMES_NOT_ENABLED
La prise en charge de Unity Catalog Volumes n’est pas activée sur cette instance.
UC_VOLUMES_SHARING_NOT_ENABLED
La prise en charge de Volume Sharing n’est pas activée sur cette instance.
UC_VOLUME_NOT_FOUND
Le fichier <name>
n'existe pas. Utilisez « SHOW VOLUMES » pour répertorier les volumes disponibles.
UDF_ERROR
SQLSTATE : aucune attribution
Échec d’exécution de la fonction <fn>
.
Pour plus d’informations, consultez UDF_ERROR.
UDF_LIMITS
Une ou plusieurs limites de fonction définie par l’utilisateur ont été enfreintes.
Pour plus d’informations, consultez UDF_LIMITS.
UDF_MAX_COUNT_EXCEEDED
Dépassement de la limite de fonctions définies par UDF de <maxNumUdfs>
UDFs (limitée pendant la préversion publique). Trouvé <numUdfs>
. Les fonctions définies par l’utilisateur étaient : <udfNames>
.
UDF_PYSPARK_ERROR
Le worker Python s’est arrêté de façon inattendue
Pour plus d’informations, consultez UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
La fonction UDF PySpark <udf>
(<eval-type>
) n’est pas prise en charge sur les clusters en mode d’accès partagé.
UDF_PYSPARK_USER_CODE_ERROR
L'exécution a échoué.
Pour plus d’informations, consultez UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
La valeur par défaut du paramètre n’est pas prise en charge pour la fonction <functionType>
définie par l’utilisateur.
UDF_USER_CODE_ERROR
Échec de l’exécution de la fonction <fn>
.
Pour plus d’informations, voir UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Le nombre d’alias fournis dans la clause AS ne correspond pas au nombre de colonnes sorties par l’UDTF.
Alias <aliasesSize>
attendus, mais obtenu <aliasesNames>
.
Assurez-vous que le nombre d’alias fournis correspond au nombre de colonnes sorties par l’UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Échec d’évaluation de la fonction table définie par l’utilisateur, car sa méthode « analyze » a retourné un OrderingColumn demandé dont l’expression de nom de colonne contenait un alias inutile <aliasName>
; supprimez cet alias, puis réessayez la requête.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Échec de l’évaluation de la fonction de table définie par l’utilisateur, car sa méthode « analyser » a retourné une expression « select » demandée (<expression>
) qui n’inclut pas d’alias correspondant ; mettez à jour l’UDTF pour spécifier un alias là-bas, puis réessayez la requête.
UNABLE_TO_ACQUIRE_MEMORY
Impossible d’acquérir <requestedBytes>
octets de mémoire, <receivedBytes>
obtenus.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Impossible de convertir le SQL de type <toType>
en Protobuf de type <protobufType>
.
UNABLE_TO_FETCH_HIVE_TABLES
Impossible d’extraire des tables de la base de données Hive : <dbName>
. Nom de la classe d’erreur : <className>
.
UNABLE_TO_INFER_SCHEMA
Impossible de déduire le schéma pour <format>
. Il doit être spécifié manuellement.
UNAUTHORIZED_ACCESS
Accès non autorisé :
<report>
UNBOUND_SQL_PARAMETER
A trouvé le paramètre non lié : <name>
. Corrigez args
et fournissez un mappage du paramètre à des fonctions de constructeur de littéral ou de collection SQL telles que map()
, array()
, struct()
.
UNCLOSED_BRACKETED_COMMENT
Un commentaire entre crochets non fermé a été trouvé. Ajoutez */ à la fin du commentaire.
UNEXPECTED_INPUT_TYPE
Le paramètre <paramIndex>
de la fonction <functionName>
nécessite le type <requiredType>
, mais <inputSql>
a le type <inputType>
.
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
<op>
Opérateur inattendu dans l’instruction CREATE VIEW en tant que source de streaming.
Une requête d’affichage de streaming doit se composer uniquement d’opérations SELECT, WHERE et UNION ALL.
UNEXPECTED_POSITIONAL_ARGUMENT
Impossible d’appeler la fonction <functionName>
, car elle contient des arguments positionnels à la suite de l’argument nommé affecté à ; réorganisez-les afin <parameterName>
que les arguments positionnels arrivent en premier, puis réessayez la requête.
UNEXPECTED_SERIALIZER_FOR_CLASS
La classe <className>
a un sérialiseur d’expression inattendu. « STRUCT
» ou « IF » qui retourne « STRUCT
» était attendu, mais <expr>
a été trouvé.
UNKNOWN_FIELD_EXCEPTION
Champs inconnus rencontrés lors de l’analyse : <unknownFieldBlob>
. Ceci peut être résolu par une nouvelle tentative automatique : <isRetryable>
Pour plus d’informations, voir UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
L’appel de la fonction <functionName>
contient un argument positionnel inconnu <sqlExpr>
à la position <pos>
. Ceci n’est pas valide.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Un type primitif inconnu avec l’ID <id>
a été trouvé dans une valeur variant.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Tentative de traitement de <descriptorName>
comme un message, mais il était <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT exige que toutes les expressions <given>
données soient des colonnes quand aucune expression <empty>
n’est donnée. Il ne s’agit pas de colonnes : [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Au moins une colonne de valeur doit être spécifiée pour UNPIVOT, et toutes les colonnes doivent être spécifiées en tant que ID.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Les colonnes de valeur UNPIVOT doivent partager un type moins commun, ce qui n’est pas le cas de certains types : [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Toutes les colonnes sans valeur pivot doivent avoir la même taille qu’il existe des noms de colonnes de valeur (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Impossible d’appeler la fonction <functionName>
, car l’appel de fonction incluait une référence d’argument nommé pour l’argument nommé <argumentName>
, mais cette fonction n’inclut aucune signature contenant un argument portant ce nom. Faisiez-vous allusion à l’une des suivantes ? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Type SQL non reconnu - nom : <typeName>
, ID : <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Impossible de résoudre <name>
en une fonction table.
Assurez-vous que est défini en tant que fonction table <name>
et que tous les paramètres requis sont fournis correctement.
Si <name>
n’est pas défini, créez la fonction table avant de l’utiliser.
Pour plus d’informations sur la définition des fonctions table, reportez-vous à la documentation Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Impossible de déduire le regroupement de colonnes pour GROUP BY ALL en fonction de la clause select. Spécifiez explicitement les colonnes de regroupement.
UNRESOLVED_COLUMN
Le nom <objectName>
d'une colonne, d'une variable ou d'un paramètre de fonction ne peut être résolu.
Pour plus de détails, voir UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Un champ portant le nom <fieldName>
ne peut pas être résolu avec la colonne de type struct <columnPath>
.
Pour plus de détails, voir UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Impossible de résoudre la colonne <objectName>
en tant que clé de mappage. Si la clé est un littéral de chaîne, entourez-la de guillemets simples.
Pour plus de détails, voir UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Impossible de résoudre la routine <routineName>
sur le chemin de recherche <searchPath>
.
Pour plus de détails, voir UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
La colonne <colName>
USING ne peut pas être résolue du <side>
côté de la jointure. Le côté <side>
des colonnes : [<suggestion>
].
UNRESOLVED_VARIABLE
Impossible de résoudre la variable <variableName>
sur le chemin de recherche <searchPath>
.
UNSUPPORTED_ADD_FILE
Ne prenez pas en charge l’ajout d’un fichier.
Pour plus d’informations, consultez UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
Type de flèche <typeName>
non pris en charge .
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
La fonction <funcName>
ne prend pas en charge le traitement de requêtes.
UNSUPPORTED_CALL
Impossible d’appeler la méthode « <methodName>
» de la classe « <className>
».
Pour plus d’informations, consultez UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Le type char/varchar ne peut pas être utilisé dans le schéma de table.
Si vous souhaitez que Spark les traite comme un type de chaîne identique à Spark 3.0 et versions antérieures, définissez « spark.sql.legacy.charVarcharAsString » sur « true ».
UNSUPPORTED_CLAUSE_FOR_OPERATION
<clause>
n’est pas pris en charge pour <operation>
.
UNSUPPORTED_COLLATION
Le classement <collationName>
n'est pas pris en charge pour :
Pour plus d’informations, consultez UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
L’ancêtre commun du chemin source et de sourceArchiveDir doit être inscrit auprès de UC.
Si vous voyez ce message d’erreur, il est probable que vous inscriviez le chemin d’accès source et sourceArchiveDir à différents emplacements externes.
Placez-les dans un emplacement externe unique.
UNSUPPORTED_CONSTRAINT_CLAUSES
Les clauses de contrainte <clauses>
ne sont pas prises en charge.
UNSUPPORTED_CONSTRAINT_TYPE
Type de contrainte non pris en charge. Seuls <supportedConstraintTypes>
sont pris en charge
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Type de source de données non pris en charge pour une requête directe sur les fichiers : <dataSourceType>
UNSUPPORTED_DATATYPE
Type de données non pris en charge<typeName>
.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
La source de données « <source>
» ne peut pas être écrite en mode <createMode>
. Utilisez plutôt le mode « Append » ou « Overwrite ».
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
La <format>
source de données ne prend pas en charge la colonne <columnName>
du type <columnType>
.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Impossible de créer l’encodeur pour <dataType>
. Utilisez un autre type de données de sortie pour votre UDF ou DataFrame.
UNSUPPORTED_DEFAULT_VALUE
Les valeurs de colonne DEFAULT ne sont pas prises en charge.
Pour plus d’informations, consultez UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Le désérialiseur n’est pas pris en charge :
Pour plus d’informations, consultez UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Impossible de créer une colonne <fieldName>
générée avec l’expression <expressionStr>
de génération, à cause de <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Un opérateur de requête contient une ou plusieurs expressions non prises en charge.
Envisagez de le réécrire pour éviter les fonctions de fenêtre, les fonctions d’agrégation et les fonctions de générateur dans la clause WHERE.
Expressions non valides : [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Un paramètre de requête contient une expression non prise en charge.
Les paramètres peuvent être des variables ou des littéraux.
Expression non valide : [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Expression <sqlExpr>
non prise en charge dans une fonction de fenêtre.
UNSUPPORTED_FEATURE
La fonctionnalité n’est pas prise en charge :
Pour plus d’informations, consultez UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Type de fonction défini par l’utilisateur non pris en charge : <language>
UNSUPPORTED_GENERATOR
Le générateur n’est pas pris en charge :
Pour plus d’informations, consultez UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() ne peut être utilisé qu’avec GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
avec la position initiale <initialPosition>
n’est pas pris en charge avec la source Kinesis
UNSUPPORTED_INSERT
Impossible d’insérer dans la cible.
Pour plus d’informations, consultez UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Type de jointure non pris en charge '<typ>
'. Les types de jointure pris en charge sont les suivants : <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
La création d’un tableau <tableName>
managé à l’aide d’une source de données <dataSource>
n’est pas prise en charge. Vous devez utiliser la source de données DELTA ou créer une table externe à l’aide de CREATE EXTERNAL TABLE <tableName>
..… Utilisation de <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
L’opération MERGE contient une condition non prise en charge <condName>
.
Pour plus d’informations, consultez UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
Le tableau <tableName>
dispose d’une stratégie de sécurité au niveau des lignes qui fait indirectement référence à un autre tableau avec une stratégie de sécurité au niveau des lignes ou un masque de colonne ; cette caractéristique n’est pas prise en charge. Séquence d’appels : <callSequence>
UNSUPPORTED_OVERWRITE
Impossible de remplacer la cible qui est également en cours de lecture.
Pour plus d’informations, consultez UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
Le mode d’enregistrement <saveMode>
n’est pas pris en charge pour :
Pour plus d’informations, consultez UNSUPPORTED_SAVE_MODE
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
mode de sortie non pris en charge pour <statefulOperator>
les DataFrames/DataSets de streaming sans filigrane.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Non pris en charge pour le streaming d’une vue. Motif :
Si vous souhaitez obtenir d’autres informations, consultez UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Les options de streaming <options>
ne sont pas prises en charge pour la source de données <source>
sur un cluster partagé. Vérifiez que les options sont spécifiées et orthographiées correctement et vérifiez leshttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode limitations.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
La source de données <sink>
n’est pas prise en charge en tant que récepteur de streaming sur un cluster partagé.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
La source de données<source>
n’est pas prise en charge en tant que source de streaming sur un cluster partagé.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
La fonction <funcName>
ne prend pas en charge le streaming. Supprimez le mot clé STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
n’est pas pris en charge avec la source Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Expression de sous-requête non prise en charge :
Pour plus de détails, voir UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
La création de clé primaire avec des colonnes de série chronologique n’est pas prise en charge
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
La création d’une clé primaire avec plusieurs colonnes <colSeq>
de série chronologique n’est pas prise en charge
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
n’est pas pris en charge avec la source Kinesis
UNSUPPORTED_TYPED_LITERAL
Les caractères littéraux de type <unsupportedType>
ne sont pas pris en charge. Les types pris en charge sont <supportedTypes>
.
UNTYPED_SCALA_UDF
Vous utilisez une API Scala UDF non typée, qui n’indique pas le type d’entrée.
Il se peut que Spark transmette à l’aveuglette la valeur Null à la fermeture Scala avec un argument de type primitif. La fermeture verra alors la valeur par défaut du type Java pour l’argument Null, par exemple udf((x: Int) => x, IntegerType)
, le résultat est 0 pour l’entrée Null. Pour vous débarrasser de cette erreur, vous pouvez :
- utiliser des API Scala UDF typées (sans paramètre de type de retour), ex.
udf((x: Int) => x)
. - utiliser des API UDF Java, ex.
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, si les types d’entrée sont tous non primitifs. - affecter la valeur « vrai » à « spark.sql.legacy.allowUntypedScalaUDF » et utiliser cette API avec prudence.
UPGRADE_NOT_SUPPORTED
La table n’est pas éligible pour une mise à niveau du metastore Hive vers Unity Catalog. Motif :
Pour plus d’informations, consultez UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
La fonction définie par l’utilisateur n’est pas valide :
Pour plus de détails, voir USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
La fonction raise_error()
a été utilisée pour déclencher la classe d’erreur : <errorClass>
qui attend des paramètres : <expectedParms>
.
Les paramètres fournis <providedParms>
ne correspondent pas aux paramètres attendus.
Veillez à fournir tous les paramètres attendus.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
La fonction raise_error()
a été utilisée pour déclencher une classe d’erreur inconnue : <errorClass>
VARIABLE_ALREADY_EXISTS
Impossible de créer la variable <variableName>
parce qu'elle existe déjà.
Choisissez un autre nom ou supprimez ou remplacez la variable existante.
VARIABLE_NOT_FOUND
La variable <variableName>
est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.
Si vous n’avez pas qualifié le nom avec un schéma et un catalogue, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.
Pour tolérer l’erreur lors de la suppression, utilisez DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Impossible de construire une Variante supérieure à 16 Mio. La taille maximale autorisée d’une valeur Variante est de 16 Mio.
VARIANT_DUPLICATE_KEY
Impossible de générer une variante en raison d’une clé d’objet <key>
en double.
VARIANT_SIZE_LIMIT
Impossible de générer une variante plus grande que <sizeLimit>
dans <functionName>
.
Évitez les chaînes d’entrée volumineuses dans cette expression (par exemple, ajouter des appels de fonction pour vérifier la taille de l’expression et la convertir en valeur NULL en premier si elle est trop grande).
VIEW_ALREADY_EXISTS
Impossible de créer l’affichage <relationName>
parce qu'il existe déjà.
Choisissez un autre nom, supprimez ou remplacez l’objet existant, ou ajoutez la clause IF NOT EXISTS pour tolérer les objets préexistants.
VIEW_EXCEED_MAX_NESTED_DEPTH
La profondeur de vue <viewName>
dépasse la profondeur de résolution de vue maximale (<maxNestedDepth>
).
L’analyse est abandonnée afin d’éviter les erreurs. Si vous souhaitez contourner ceci, veuillez essayer d’augmenter la valeur de « spark.sql.view.maxNestedViewDepth ».
VIEW_NOT_FOUND
L’affichage <relationName>
est introuvable. Vérifiez l’orthographe et l’exactitude du schéma et du catalogue.
Si vous n’avez pas qualifié le nom avec un schéma, vérifiez la sortie current_schema() ou qualifiez le nom avec le schéma et le catalogue appropriés.
Pour tolérer l’erreur lors de la suppression, utilisez DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Impossible de créer le volume <relationName>
parce qu'il existe déjà.
Choisissez un autre nom, supprimez ou remplacez l’objet existant, ou ajoutez la clause IF NOT EXISTS pour tolérer les objets préexistants.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
La fonction <funcName>
ne peut être évaluée que dans un cadre de fenêtre basé sur des lignes ordonnées avec un seul décalage : <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
La fonction <funcName>
Window nécessite une clause OVER.
WITH_CREDENTIAL
La syntaxe WITH CREDENTIAL n’est pas prise en charge pour « <type>
».
WRITE_STREAM_NOT_ALLOWED
writeStream
peut être appelé uniquement sur le jeu de données/dataframe de streaming.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Échec d’exécution de la commande, car les valeurs DEFAULT ne sont pas prises en charge lors de l’ajout de nouvelles
colonnes à des tables Delta précédemment existantes ; ajoutez d’abord la colonne sans valeur par défaut,
puis exécutez une deuxième commande ALTER TABLE ALTER COLUMN SET DEFAULT à appliquer
à la place pour les lignes insérées ultérieures.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Échec d’exécution de la commande <commandType>
, car elle a affecté une valeur DEFAULT de colonne,
mais la fonctionnalité de table correspondante n’était pas activée. Réessayez d’exécuter la commande
après avoir exécuté ALTER TABLE tableName SET
TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’).
WRONG_COMMAND_FOR_OBJECT_TYPE
L’opération <operation>
requiert un<requiredType>
. Mais <objectName>
est un <foundType>
. Utilisez <alternative>
à la place.
WRONG_NUM_ARGS
Le <functionName>
nécessite les paramètres <expectedNum>
, alors que le nombre est <actualNum>
.
Pour plus de détails, voir WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
L’option <rowTag>
est obligatoire pour la lecture des fichiers au format XML.
XML_UNSUPPORTED_NESTED_TYPES
XML ne prend pas en charge <innerDataType>
en tant que type interne de <dataType>
. Veuillez inclure dans un wrapper le <innerDataType>
au sein d’un champ StructType lors de son utilisation dans <dataType>
.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Les données sauvées et la colonne générique ne peuvent pas être activées simultanément. Supprimez l’option wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
La colonne ZOrderBy <columnName>
n’existe pas.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Impossible de trouver une session SparkSession active
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Impossible de définir une nouvelle transaction comme étant active quand il en existe déjà une
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Échec de l’ajout de la colonne <colName>
, car le nom est réservé.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
L’opération actuelle a tenté d’ajouter un vecteur de suppression à une table qui ne permet pas la création de nouveaux vecteurs de suppression. Veuillez créer un rapport de bug.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Toutes les opérations qui ajoutent des vecteurs de suppression doivent attribuer la valeur false à la colonne tightBounds dans les statistiques. Veuillez créer un rapport de bug.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
L’index <columnIndex>
à ajouter à la colonne <columnName>
est inférieur à 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Impossible d’ajouter <columnName>
, car son parent n’est pas un StructType. Trouvé <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct introuvable à la position <position>
DELTA_ADD_CONSTRAINTS
Utilisez ALTER TABLE ADD CONSTRAINT pour ajouter des contraintes CHECK.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Trouvé <sqlExpr>
. Une colonne générée ne peut pas utiliser une expression d’agrégation
DELTA_AGGREGATION_NOT_SUPPORTED
Les fonctions d’agrégation ne sont pas prises en charge dans <operation>
<predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Échec de la modification du classement de la colonne <column>
, car un index de filtre Bloom est appliqué. Conservez le classement existant ou supprimez l’index de filtre Bloom, puis réessayez d’exécuter la commande pour modifier le classement.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Échec de la modification du classement de la colonne <column>
, car il s’agit d’une colonne de clustering. Conservez le classement existant ou remplacez la colonne par une colonne qui n’est pas en cluster avec une commande ALTER TABLE, puis réessayez d’exécuter la commande pour modifier le classement.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN n’est pas pris en charge pour changer la colonne <currentType>
en <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY n’est pas pris en charge uniquement pour la table Delta avec des clustering liquides.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY ne peut pas être appliqué à une table partitionnée.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Opération non autorisée : ALTER TABLE RENAME TO n’est pas autorisé pour les tables Delta managées sur S3, car la cohérence éventuelle sur S3 peut endommager le journal des transactions Delta. Si vous insistez pour le faire et êtes certain qu’il n’y a jamais eu de table Delta avec le nouveau nom <newName>
auparavant, vous pouvez l’activer en affectant « vrai » à la valeur <key>
.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Impossible d’activer la fonctionnalité de table <tableFeature>
en utilisant ALTER TABLE SET TBLPROPERTIES. Utilisez CREATE OR REPLACE TABLE CLUSTER BY pour créer une table Delta avec clustering.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Impossible de modifier le type de données <column>
de <from>
à <to>
. Cette modification contient des suppressions et des ajouts de colonnes. Par conséquent, ils sont ambigus. Effectuez ces modifications individuellement à l’aide d’ALTER TABLE [ADD | DROP | RENOMMER] COLONNE.
DELTA_AMBIGUOUS_PARTITION_COLUMN
La colonne de partition ambiguë <column>
peut être <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE contient deux emplacements différents : <identifier>
et <location>
.
Vous pouvez supprimer la clause LOCATION de l’instruction CREATE TABLE ou définir
<config>
sur « vrai » pour ignorer cette vérification.
DELTA_ARCHIVED_FILES_IN_LIMIT
La table <table>
ne contient pas suffisamment d’enregistrements dans les fichiers non archivés pour satisfaire à la limite spécifiée d’enregistrements <limit>
.
DELTA_ARCHIVED_FILES_IN_SCAN
Fichiers <numArchivedFiles>
potentiellement archivés dans la table <table>
qui doivent être analysés dans le cadre de cette requête.
Impossible d’accéder aux fichiers archivés. Le temps écoulé jusqu'à l'archivage est configuré sur <archivalTime>
.
Ajustez vos filtres de requête pour exclure tous les fichiers archivés.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
L’opération « <opName>
» n’est pas autorisée lorsque les flux de changements de données (CDF) sont activés sur la table et que celle-ci a subi des modifications de schéma à l’aide de DROP COLUMN ou RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Impossible de supprimer les index de filtre bloom pour la ou les colonnes inexistantes suivantes : <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError s’est produit lors de l’écriture d’index de filtre bloom pour la ou les colonnes suivantes : <columnsWithBloomFilterIndices>
.
Vous pouvez réduire l’empreinte mémoire des index de filtre bloom en choisissant une valeur plus petite pour l’option « numItems », une plus grande valeur pour l’option « fpp » ou en indexant moins de colonnes.
DELTA_CANNOT_CHANGE_DATA_TYPE
Impossible de changer le type de données : <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Impossible de changer l’emplacement (« location ») de la table Delta à l’aide de SET TBLPROPERTIES. Utilisez plutôt ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
« provider » est une propriété de table réservée et ne peut pas être modifié.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Impossible de créer des index de filtre bloom pour la ou les colonnes inexistantes suivantes : <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Impossible de créer <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Impossible de décrire l’historique d’une vue.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Impossible de supprimer l’index de filtre de Bloom d’une colonne non indexée : <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Impossible de supprimer la fonctionnalité de table de contraintes CHECK.
Les contraintes suivantes doivent être supprimées en premier : <constraints>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Impossible d'évaluer l'expression : <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Une table Delta de compartimentage est attendue, mais impossible de trouver la spécification de compartiment dans la table
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Impossible de générer du code pour l’expression : <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Cette table est configurée pour autoriser uniquement les ajouts. Si vous souhaitez autoriser les mises à jour ou les suppressions, utilisez « ALTER TABLE <nom_table> SET TBLPROPERTIES (<config>
=false) ».
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
ne peut pas remplacer ou annuler les propriétés de la table d’horodatage dans la validation, car les validations coordonnées sont activées dans cette table et dépendent de celles-ci. Supprimez-les (« delta.enableInCommitTimestamps », « delta.inCommitTimestampEnablementVersion », « delta.inCommitTimestampEnablementTimestamp ») de la clause TBLPROPERTIES, puis réessayez la commande.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
La configuration de la table Delta <prop>
ne peut pas être spécifiée par l’utilisateur
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
ne peut pas remplacer les configurations de validation coordonnées pour une table cible existante. Supprimez-les (« delta.coordinatedCommits.commitCoordinator-preview », « delta.coordinatedCommits.commitCoordinatorConf-preview », « delta.coordinatedCommits.tableConf-preview ») de la clause TBLPROPERTIES, puis réessayez la commande.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Un uri (<uri>
) qui ne peut pas être transformé en chemin relatif a été trouvé dans le journal des transactions.
DELTA_CANNOT_RELATIVIZE_PATH
Chemin (<path>
) qui ne peut pas être relativisé avec l’entrée actuelle trouvée dans le
journal des transactions. Réexécutez-le comme suit :
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(« <userPath>
», vrai)
puis exécutez aussi :
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(« <path>
»)
DELTA_CANNOT_RENAME_PATH
Impossible de renommer <currentPath>
en <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
Impossible de remplacer la table <tableName>
, car elle n’existe pas. Utilisez CREATE OR REPLACE TABLE pour créer la table.
DELTA_CANNOT_RESOLVE_COLUMN
Impossible de résoudre la colonne <columnName>
dans <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Impossible de restaurer la table dans la version <version>
. Versions disponibles : [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Impossible de restaurer la table dans l’horodatage (<requestedTimestamp>
) car elle est antérieure à la version la plus ancienne disponible. Utilisez un horodatage postérieur à (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Impossible de restaurer la table en horodatage (<requestedTimestamp>
), car il est postérieur à la dernière version disponible. Utilisez un horodatage antérieur à (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
ne peut pas définir les propriétés de la table timestamp in-commit avec des validations coordonnées, car celle-ci dépend de l’ancien et définit l’ancien en interne. Supprimez-les (« delta.enableInCommitTimestamps », « delta.inCommitTimestampEnablementVersion », « delta.inCommitTimestampEnablementTimestamp ») de la clause TBLPROPERTIES, puis réessayez la commande.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Impossible de modifier l’emplacement d’une table basée sur le chemin d’accès.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Impossible de définir delta.managedDataSkippingStatsColumns sur une table non DLT
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER ne peut pas annuler les configurations de validation coordonnées. Pour rétrograder une table à partir de validations coordonnées, réessayez à l’aide ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
de .
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Impossible de mettre à jour le champ %1$s de type %2$s : mettez à jour l’élément en mettant à jour %2$s.element
DELTA_CANNOT_UPDATE_MAP_FIELD
Impossible de mettre à jour le champ %1$s de type %2$s : mettez à jour un mappage en mettant à jour %2$s.key ou %2$s.value
DELTA_CANNOT_UPDATE_OTHER_FIELD
Impossible de mettre à jour le champ <tableName>
de type <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Impossible de mettre à jour le champ <tableName>
de type <fieldName>
: mettez à jour le struct en ajoutant, supprimant ou mettant à jour ses champs
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Impossible d’utiliser toutes les colonnes pour les colonnes de partition
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
est une vue. Les écritures dans une vue ne sont pas prises en charge.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Échec de l’écriture d’une valeur de type <sourceType>
dans la <targetType>
colonne de type <columnName>
en raison d’un dépassement de capacité.
Utilisez try_cast
dans la valeur d’entrée pour tolérer le dépassement de capacité et retourner la valeur NULL à la place.
Si nécessaire, définissez <storeAssignmentPolicyFlag>
sur « LEGACY » pour contourner cette erreur ou définissez <updateAndMergeCastingFollowsAnsiEnabledFlag>
sur true pour revenir à l’ancien comportement et suivre <ansiEnabledFlag>
dans UPDATE et MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
La configuration delta.enableChangeDataFeed ne peut pas être définie. Le flux de données modifiées de Delta n’est pas encore disponible.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
La récupération des modifications de table entre la version <start>
et <end>
a échoué en raison d’un schéma de données incompatible.
Votre schéma de lecture est <readSchema>
à la version <readVersion>
, mais nous avons trouvé un schéma de données incompatible à la version <incompatibleVersion>
.
Si possible, récupérez les modifications de table à l’aide du schéma de la version de fin en définissant <config>
sur endVersion
, ou contactez le support technique.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
La récupération des modifications de table entre la version <start>
et <end>
a échoué en raison d’une modification de schéma incompatible.
Votre schéma de lecture est <readSchema>
à la version <readVersion>
, mais nous avons trouvé une modification de schéma incompatible à la version <incompatibleVersion>
.
Si possible, interrogez les modifications de table séparément de la version <start>
à <incompatibleVersion>
- 1 et de la version <incompatibleVersion>
à <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Le fichier <filePath>
référencé dans le journal des transactions est introuvable. Cela se produit quand des données ont été supprimées du système de fichiers manuellement et non pas à l’aide de l’instruction de tableDELETE
. Cette requête semble cibler le flux de données modifiées. Si tel est le cas, cette erreur peut se produire lorsque le fichier de données modifiées est hors de la période de rétention et a été supprimé par l’instruction VACUUM
. Pour plus d'informations, consultez <faqPath>
DELTA_CHANGE_TABLE_FEED_DISABLED
Impossible d’écrire dans la table si delta.enableChangeDataFeed est défini. Le flux de changements de données de Delta n’est pas disponible.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Impossible de contrôler une table <path>
non existante. Avez-vous supprimé manuellement des fichiers dans le répertoire _delta_log ?
DELTA_CLONE_AMBIGUOUS_TARGET
Deux chemins ont été fournis en tant que cible de CLONE afin que la préférence entre les deux reste ambiguë. Un emplacement
externe pour CLONE a été fourni à l’emplacement <externalLocation>
en même temps que le chemin
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
Fichier (<fileName>
) non copié entièrement. Taille de fichier attendue : <expectedSize>
. Trouvée : <actualSize>
. Pour poursuivre l’opération en ignorant la vérification de taille de fichier, définissez <config>
sur false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Source de clone <mode>
non prise en charge « <name>
», dont le format est <format>
.
Les formats pris en charge sont « delta », « iceberg » et « parquet ».
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE n’est pas pris en charge pour la table Delta avec Liquid clustering pour DBR version < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY n’est pas pris en charge, car la ou les colonnes suivantes : <columnsWithDataTypes>
ne prennent pas en charge les données ignorées.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Les colonnes de clustering fournies ne correspondent pas à celles des tables existantes.
- fourni :
<providedClusteringColumns>
- existant :
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Le clustering liquide nécessite que les colonnes de clustering aient des statistiques. Impossible de trouver la ou les colonnes de clustering « <columns>
» dans le schéma des statistiques :
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
La création d’une table externe sans clustering liquide à partir d’un répertoire de table avec clustering liquide n’est pas autorisée ; chemin d’accès : <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
« <operation>
» ne prend pas en charge le clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Impossible de terminer le <phaseOutType>
de la table avec la fonctionnalité de table <tableFeatureToAdd>
(raison : <reason>
). Réessayez d’exécuter la commande OPTIMIZE.
== Erreur ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
REPLACE une table Delta par Liquid clustering par une table partitionnée n’est pas autorisé.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE n’est pas pris en charge pour la table Delta avec Liquid clustering sans colonnes clustering.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
La transition d’une table Delta avec clustering liquide vers une table partitionnée n’est pas autorisée pour l’opération : <operation>
lorsque la table existante a des colonnes de clustering non vides.
Exécutez ALTER TABLE CLUSTER BY NONE pour supprimer d’abord les colonnes de clustering.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
Le mode de remplacement de partition dynamique n’est pas autorisé pour la table Delta avec des clustering liquides.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
La commande OPTIMIZE pour la table Delta avec Liquid clustering ne prend pas en charge les prédicats de partition. Supprimez les prédicats : <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
La commande OPTIMIZE pour la table Delta avec Liquid clustering ne peut pas spécifier ZORDER BY. Veuillez supprimer ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY pour Liquid clustering prend en charge jusqu’à <numColumnsLimit>
colonnes de clustering, mais le tableau a <actualNumColumns>
colonnes de clustering. Veuillez supprimer les colonnes de clustering supplémentaires.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Il n’est pas autorisé de spécifier CLUSTER BY lorsque le schéma n’est pas défini. Définissez le schéma pour le tableau <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Vous ne pouvez pas spécifier à la fois le clustering et le compartimentage. Veuillez supprimer CLUSTERED BY INTO BUCKETS / bucketBy si vous souhaitez créer une table Delta avec clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Vous ne pouvez pas spécifier à la fois le clustering et le partitionnement. Veuillez supprimer PARTITIONED BY / partitionBy / partitionedBy si vous souhaitez créer une table Delta avec clustering.
DELTA_COLLATIONS_NOT_SUPPORTED
Les classements ne sont pas pris en charge dans Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Le saut de données n’est pas pris en charge pour la colonne de partition '<column>
'.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Le saut de données n’est pas pris en charge pour la colonne '<column>
' de type <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
La propriété id de colonne maximale (<prop>
) n’est pas définie sur une table activée pour le mappage de colonnes.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
La propriété d’ID de colonne maximale (<prop>
) d’une table activée pour le mappage de colonnes est <tableMax>
, qui ne peut pas être plus petite que l’ID de colonne max pour tous les champs (<fieldMax>
).
DELTA_COLUMN_MISSING_DATA_TYPE
Le type de données de la colonne <colName>
n’a pas été fourni.
DELTA_COLUMN_NOT_FOUND
Impossible de trouver la colonne <columnName>
dans la liste [<columnList>
] donnée
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Impossible de trouver la colonne « <targetCol>
» de la table cible à partir des colonnes INSERT : <colNames>
. La clause INSERT doit spécifier la valeur de toutes les colonnes de la table cible.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Impossible de trouver la colonne <columnName>
dans :
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
<columnPath>
attendu comme un type de données imbriqué, mais <other>
trouvé. Était à la recherche de la
Index de <column>
dans un champ imbriqué.
Schéma :
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
Impossible d’insérer la colonne <source>
dans un <targetType>
champ <targetField>
dans <targetTable>
.
DELTA_COMPACTION_VALIDATION_FAILED
La validation du compactage du chemin d’accès à échoué de <compactedPath>
à <newPath>
: veuillez déposer un rapport de bug.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Valeur NullType imbriquée trouvée dans la colonne <columName>
qui est de type <dataType>
. Delta ne prend pas en charge l’écriture de valeurs NullType dans les types complexes.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException : les fichiers ont été ajoutés à <partition>
par une mise à jour simultanée. <retryMsg>
<conflictingCommit>
Pour plus d’informations, reportez-vous à <docLink>
.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException : cette transaction a tenté de supprimer un ou plusieurs fichiers supprimés (par exemple <file>
) par une mise à jour simultanée. Recommencez l'opération.<conflictingCommit>
Pour plus d’informations, reportez-vous à <docLink>
.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException : cette transaction a tenté de lire un ou plusieurs fichiers supprimés (par exemple <file>
) par une mise à jour simultanée. Recommencez l'opération.<conflictingCommit>
Pour plus d’informations, reportez-vous à <docLink>
.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException : cette erreur se produit lorsque plusieurs requêtes de streaming utilisent le même point de contrôle pour écrire dans cette table. Avez-vous exécuté plusieurs instances de la même requête de streaming en même temps ?<conflictingCommit>
Pour plus d’informations, reportez-vous à <docLink>
.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException : une transaction simultanée a écrit de nouvelles données depuis que la transaction actuelle a lu la table. Recommencez l'opération.<conflictingCommit>
Pour plus d’informations, reportez-vous à <docLink>
.
DELTA_CONFLICT_SET_COLUMN
Il existe un conflit à partir de ces colonnes SET : <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Pendant <command>
, la configuration «<configuration>
» ne peut pas être définie à partir de la commande. Supprimez-la de la clause TBLPROPERTIES, puis réessayez la commande.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Pendant <command>
, la configuration «<configuration>
» ne peut pas être définie à partir des configurations SparkSession. Annulez-la en exécutant spark.conf.unset("<configuration>")
, puis réessayez la commande.
DELTA_CONSTRAINT_ALREADY_EXISTS
La contrainte « <constraintName>
» existe déjà. Supprimez d’abord l’ancienne contrainte.
Ancienne contrainte :
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
La colonne <columnName>
a un type de données <columnType>
et ne peut pas être modifiée en type de données <dataType>
, car cette colonne est référencée par la ou les contraintes de vérification suivantes :
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Impossible de modifier la colonne <columnName>
, car cette colonne est référencée par la ou les contraintes de vérification suivantes :
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Impossible de supprimer une contrainte <constraintName>
inexistante de la table <tableName>
. Pour éviter de générer une erreur, complétez le paramètre IF EXISTS ou définissez la configuration de session SQL <config>
sur <confValue>
.
DELTA_CONVERSION_NO_PARTITION_FOUND
Aucune information de partition n’a été trouvée dans le catalogue pour la table <tableName>
. Avez-vous exécuté « MSCK REPAIR TABLE » sur votre table pour découvrir des partitions ?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Impossible de convertir une table Parquet avec une colonne <colName>
de partition compilée en delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
La configuration « <config>
» ne peut pas être définie sur <mode>
quand CONVERT TO DELTA est utilisé.
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA prend uniquement en charge les tables Parquet, mais vous essayez de convertir une <sourceName>
source : <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Impossible d’activer le suivi des lignes sans collecter des statistiques.
Si vous souhaitez activer le suivi des lignes, procédez comme suit :
Activer la collecte de statistiques en exécutant la commande
SET
<statisticsCollectionPropertyKey>
= true- Exécutez CONVERT TO DELTA sans l’option NO STATISTICS.
Si vous ne souhaitez pas collecter de statistiques, désactivez le suivi des lignes :
Désactivez l’activation de la fonctionnalité de tableau par défaut en exécutant la commande :
RESET
<rowTrackingTableFeatureDefaultKey>
Désactivez la propriété du tableau par défaut en exécutant :
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
La cible COPY INTO doit être une table Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Vous essayez de créer une table externe <tableName>
à partir de <path>
en utilisant Delta, mais le schéma n’est pas spécifié quand le
chemin d'entrée est vide.
Pour plus d’informations sur Delta, voir <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Vous essayez de créer une table externe <tableName>
à partir de %2$s
en utilisant Delta, mais aucun journal des transactions n’est présent à l’emplacement
%2$s/_delta_log
. Vérifiez le travail en amont pour vous assurer qu’il écrit en utilisant
format(“delta”) et que le chemin est la racine de la table.
Pour plus d’informations sur Delta, voir <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
La création d’une table Delta basée sur le chemin avec un autre emplacement n’est pas prise en charge. Identificateur : <identifier>
, Emplacement : <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
Le nom ou l’emplacement de la table doit être spécifié.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Le schéma spécifié ne correspond pas au schéma existant au niveau de <path>
.
== Spécifié ==
<specifiedSchema>
== Existant ==
<existingSchema>
== Différences ==
<schemaDifferences>
Si votre intention est de conserver le schéma existant, vous pouvez omettre le
schéma de la commande create table. Sinon, vérifiez que
le schéma correspond.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Impossible d’activer la fonctionnalité de table <tableFeature>
en utilisant TBLPROPERTIES. Utilisez CREATE OR REPLACE TABLE CLUSTER BY pour créer une table Delta avec clustering.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Les colonnes de clustering spécifiées ne correspondent pas aux colonnes de clustering existantes à <path>
.
== Spécifié ==
<specifiedColumns>
== Existant ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Le partitionnement spécifié ne correspond pas au partitionnement existant sur <path>
.
== Spécifié ==
<specifiedColumns>
== Existant ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Les propriétés spécifiées ne correspondent pas aux propriétés existantes sur <path>
.
== Spécifié ==
<specifiedProperties>
== Existant ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Impossible de créer la table (« <tableId>
»). L’emplacement associé (« <tableLocation>
») n’est pas vide, et il ne s’agit pas d’une table Delta.
DELTA_DATA_CHANGE_FALSE
Impossible de modifier les métadonnées de table, car l’option « dataChange » est définie sur false. Opération tentée : « <op>
».
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Le fichier <filePath>
référencé dans le journal des transactions est introuvable. Ce fichier Parquet peut être supprimé sous la stratégie de conservation des données Delta.
Durée de conservation des données Delta par défaut : <logRetentionPeriod>
. Heure de modification du fichier Parquet : <modificationTime>
. Heure de suppression du fichier Parquet : <deletionTime>
. Supprimé sur la version Delta : <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Il n'est pas valable de livrer des fichiers dont les vecteurs de suppression ne contiennent pas la statistique numRecords.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Action(s) DomainMetadata détectée(s) pour les domaines <domainNames>
, mais DomainMetadataTableFeature n’est pas activée.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
L’index <columnIndex>
auquel déposer la colonne est inférieur à 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Impossible de supprimer une colonne d’un schéma avec une seule colonne. Schéma :
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
L’opération de fichier «<actionType>
» pour le chemin d’accès <path>
a été spécifiée plusieurs fois.
Il est en conflit avec <conflictingPath>
.
Il n’est pas valide pour plusieurs opérations de fichiers avec le même chemin d’accès dans un seul commit.
DELTA_DUPLICATE_COLUMNS_FOUND
Colonne(s) en double trouvée(s) <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Noms de colonnes dupliquées dans la clause INSERT
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Supprimez les colonnes en double avant de mettre à jour votre table.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Données dupliquées qui ignorent les colonnes trouvées : <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Erreur interne : deux actions DomainMetadata au sein de la même transaction ont le même domaine <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Impossible de désérialiser l’histogramme des nombres d’enregistrements supprimés lors de la vérification de l’intégrité de la table.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
Le mode de remplacement de partition dynamique est spécifié par la configuration de session ou les options d’écriture, mais il est désactivé par spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Les données utilisées dans la création de la table Delta n’ont pas de colonnes.
DELTA_EMPTY_DIRECTORY
Aucun fichier trouvé dans le répertoire : <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
La valeur « <value>
» dépasse la limitation de longueur de type char/varchar. Échec case activée : <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Échec de la conversion de la valeur <value>
de partition en <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Impossible de trouver <newAttributeName>
parmi la sortie cible existante <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Échec de l’inférence du schéma à partir de la liste donnée de fichiers.
DELTA_FAILED_MERGE_SCHEMA_FILE
Échec de la fusion du schéma du fichier <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Impossible de lire le pied de page du fichier : <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Impossible de reconnaître le prédicat «<predicate>
»
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Attendez-vous à une analyse complète de la dernière version de la source Delta, mais vous avez trouvé une analyse historique de la version <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
Échec de la fusion des champs « <currentField>
» et « <updateField>
»
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Impossible de fonctionner sur cette table, car les fonctionnalités de table suivantes sont activées dans les métadonnées, mais pas répertoriées dans le protocole : <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Votre schéma de table nécessite l’activation manuelle des fonctionnalités de table suivantes : <unsupportedFeatures>
.
Pour ce faire, exécutez la commande suivante pour chacune des fonctionnalités répertoriées ci-dessus :
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Remplacez « table_name » et « feature_name » par des valeurs réelles.
Fonctionnalité(s) prise en charge actuelle(s) : <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Impossible de supprimer la fonctionnalité, car une transaction simultanée a modifié la table.
Recommencez l'opération.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Impossible de supprimer la fonctionnalité de table <feature>
, car certaines autres fonctionnalités (<dependentFeatures>
) de ce tableau dépendent de <feature>
.
Envisagez de les supprimer d’abord avant de supprimer cette fonctionnalité.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Impossible de supprimer <feature>
de cette table, car elle n’est actuellement pas présente dans le protocole de la table.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Impossible de supprimer <feature>
, car le journal Delta contient des versions historiques qui utilisent la fonctionnalité.
Attendez la période de rétention de l’historique (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
est passé depuis la dernière fois que la fonctionnalité a été active.
Veuillez également attendre l’expiration de la période de rétention TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>
)
, puis exécutez :
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
La fonctionnalité particulière ne nécessite pas de troncation d’historique.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Impossible de supprimer <feature>
, car la suppression de cette fonctionnalité n’est pas prise en charge.
Contactez le support Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Impossible de supprimer <feature>
, car elle n’est pas prise en charge par cette version de Databricks.
Envisagez d’utiliser Databricks avec une version supérieure.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
La suppression <feature>
a été partiellement réussie.
La fonctionnalité n’est plus utilisée dans la version actuelle de la table. Toutefois, la fonctionnalité
est toujours présent dans les versions historiques de la table. La fonctionnalité de table ne peut pas être supprimée
à partir du protocole de table jusqu’à ce que ces versions historiques aient expiré.
Pour supprimer la fonctionnalité de table du protocole, attendez que les versions historiques soient
expirer, puis répétez cette commande. La période de rétention pour les versions historiques est
actuellement configuré en tant que <logRetentionPeriodKey>
=<logRetentionPeriod>
.
Veuillez également attendre l’expiration de la période de rétention TRUNCATE HISTORY (<truncateHistoryLogRetentionPeriod>
)
, puis exécutez :
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Impossible d’activer la fonctionnalité <feature>
de table, car elle nécessite une version de protocole de lecteur supérieure (actuelle <current>
). Envisagez de mettre à niveau la version du protocole lecteur de la table vers <required>
ou vers une version qui prend en charge les fonctionnalités de la table de lecture. Reportez-vous à <docLink>
pour plus d’informations sur les versions du protocole de table.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Impossible d’activer la fonctionnalité <feature>
de table, car elle nécessite une version de protocole de lecteur supérieure (actuelle <current>
). Envisagez de mettre à niveau la version du protocole lecteur de la table vers <required>
ou vers une version qui prend en charge les fonctionnalités de la table de lecture. Reportez-vous à <docLink>
pour plus d’informations sur les versions du protocole de table.
DELTA_FILE_ALREADY_EXISTS
Chemin d’accès au fichier existant <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Impossible de spécifier à la fois la liste de fichiers et la chaîne de modèle.
DELTA_FILE_NOT_FOUND
Chemin d'accès au fichier <path>
DELTA_FILE_NOT_FOUND_DETAILED
Le fichier <filePath>
référencé dans le journal des transactions est introuvable. Cela se produit quand des données ont été supprimées du système de fichiers manuellement et non pas à l’aide de l’instruction de tableDELETE
. Pour plus d'informations, consultez <faqPath>
DELTA_FILE_OR_DIR_NOT_FOUND
Pas de fichier ou de répertoire correspondant : <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
Fichier (<path>
) à réécrire introuvable parmi les fichiers candidats :
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Un MapType a été trouvé. Pour accéder à la clé ou à la valeur d’un MapType, spécifiez un
de :
<key>
ou
<value>
suivi du nom de la colonne (uniquement si cette colonne est un type de struct).
Par exemple mymap.key.mykey
Si la colonne est un type de base, mymap.key ou mymap.value suffit.
Schéma :
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
La colonne <columnName>
a un type de données <columnType>
et ne peut pas être modifiée en type de données <dataType>
, car cette colonne est référencée par la ou les colonnes générées suivantes :
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Impossible de modifier la colonne <columnName>
, car cette colonne est référencée par la ou les colonnes générées suivantes :
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Le type d’expression de la colonne <columnName>
générée est <expressionType>
, mais le type de colonne est <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
La colonne <currentName>
est une colonne générée ou une colonne utilisée par une colonne générée. Le type de données est <currentDataType>
et ne peut pas être converti en type de données <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
La validation d’IcebergCompatV<version>
a échoué.
Pour plus d’infirmations, consultez DELTA_ICEBERG_COMPAT_V1_VIOLATION.
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN n’est pas pris en charge pour les colonnes IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY est uniquement pris en charge par Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY ne peut pas être appelé sur des colonnes non IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
La fourniture de valeurs pour la colonne <colName>
GENERATED ALWAYS AS IDENTITY n’est pas prise en charge.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
L’étape de colonne IDENTITY ne peut pas être 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
Les colonnes IDENTITY ne sont prises en charge que par Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
La colonne <colName>
PARTITIONED BY IDENTITY n’est pas prise en charge.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS n’est pas pris en charge pour la table avec des colonnes IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
Le DataType <dataType>
n’est pas pris en charge pour les colonnes IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE sur la colonne <colName>
IDENTITY n’est pas pris en charge.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
La colonne IDENTITY ne peut pas être spécifiée avec une expression de colonne générée.
DELTA_ILLEGAL_OPTION
Valeur « <input>
» non valide pour l’option « <name>
», <explain>
DELTA_ILLEGAL_USAGE
L’utilisation de <option>
n’est pas autorisée quand <operation>
est une table Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec sur la table compartimentée Delta ne correspond pas à BucketSpec à partir des métadonnées. Attendu : <expected>
. Actuel: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) ne peut pas être défini sur des valeurs différentes. Définissez uniquement l’un d’eux ou attribuez la même valeur à tous les deux.
DELTA_INCORRECT_ARRAY_ACCESS
Accès incorrect à un ArrayType. Utilisez la position de arrayname.element.elementname à
ajouter à un tableau.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Un ArrayType a été trouvé. Pour accéder aux éléments d’un ArrayType, spécifiez
<rightName>
plutôt que <wrongName>
.
Schéma :
<schema>
DELTA_INCORRECT_GET_CONF
Utiliser getConf()
au lieu de `conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
L’erreur se produit généralement quand l’implémentation de LogStore par défaut,
à savoir, HDFSLogStore, est utilisée pour écrire dans une table Delta sur un système de stockage non HDFS.
Pour obtenir les garanties ACID transactionnelles sur les mises à jour de table, vous devez utiliser
l’implémentation de LogStore qui convient à votre système de stockage.
Pour plus d’informations, consultez <docLink>
.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
L’index <position>
à supprimer de la colonne est égal à ou est supérieur à la longueur du struct : <length>
DELTA_INDEX_LARGER_THAN_STRUCT
L’index <index>
à ajouter à la colonne <columnName>
est supérieur à la longueur du struct : <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Impossible d’écrire dans « <tableName>
», <columnName>
; la table cible a <numColumns>
colonne(s), mais les données insérées ont <insertColumns>
colonne(s)
DELTA_INSERT_COLUMN_MISMATCH
La colonne <columnName>
n’est pas spécifiée dans INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
Type compact automatique non valide : <value>
. Valeurs autorisées : <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Nombre de compartiments non valide : <invalidBucketCount>
. Le nombre de compartiments doit être un nombre positif qui est une puissance de 2 et est égal au moins à 8. Vous pouvez utiliser <validBucketCount>
à la place.
DELTA_INVALID_BUCKET_INDEX
Impossible de trouver la colonne de compartiment dans les colonnes de partition
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
L’intervalle ne peut pas être null ou vide.
DELTA_INVALID_CDC_RANGE
La plage CDC débutant à <start>
et finissant à <end>
n’était pas valide. La fin ne peut pas précéder le début.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Le nom d’attribut «<columnName>
» contient le ou les caractères non valides parmi « ,;{} ()\n\t= ». Utilisez un alias pour le renommer.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Caractère(s) non valide(s) trouvé(s) parmi « ,;{} ()nt= » dans les noms de colonne de votre schéma.
Noms de colonne non valides : <invalidColumnNames>
.
Utilisez d’autres caractères et réessayez.
Vous pouvez également activer le mappage de colonnes pour continuer à utiliser ces caractères.
DELTA_INVALID_CLONE_PATH
L’emplacement cible pour CLONE doit être un chemin absolu ou un nom de table. Utilisez un
chemin d’accès absolu au lieu de <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Caractère(s) non valide(s) trouvé(s) parmi « ,;{} ()nt= » dans les noms de colonne de votre schéma.
Noms de colonne non valides : <invalidColumnNames>
.
Le mappage de colonnes ne peut pas être supprimé lorsqu’il existe des caractères non valides dans les noms de colonnes.
Renommez les colonnes pour supprimer les caractères non valides et réexécutez cette commande.
DELTA_INVALID_FORMAT
Format incompatible détecté.
Un journal des transactions pour Delta a été trouvé dans <deltaRootPath>
/_delta_log'',
mais vous essayez de <operation>
<path>
à l’aide de format(« <format>
»). Vous devez utiliser
'format(“delta”)' lorsque vous lisez et écrivez des données dans une table delta.
Pour plus d’informations sur Delta, voir <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Une colonne générée ne peut pas utiliser une colonne non existante ou une autre colonne générée
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Options non valides pour les écritures de dataframe idempotentes : <reason>
DELTA_INVALID_INTERVAL
<interval>
n’est pas un INTERVALLE valide.
DELTA_INVALID_INVENTORY_SCHEMA
Le schéma de l’INVENTORY spécifié ne contient pas tous les champs requis. Les champs requis sont : <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
Niveau d’isolation « <isolationLevel>
» non valide
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) et (<schemeConfig>
) ne peuvent pas être définis en même temps. Définissez un seul groupe de ceux-ci.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Vous essayez de créer une table managée <tableName>
à l’aide de Delta, mais le schéma n’est pas spécifié.
Pour plus d’informations sur Delta, voir <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
n’est pas une colonne de partition valide dans la table <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Des colonnes de partition avec des caractères non valides parmi ” ,;{}()nt=” ont été trouvées. Remplacez le nom par vos colonnes de partition. Cette vérification peut être désactivée en définissant spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false). Toutefois, cela n’est pas recommandé, car d’autres fonctionnalités de Delta pourront ne pas fonctionner correctement.
DELTA_INVALID_PARTITION_COLUMN_TYPE
L’utilisation d’une colonne <name>
de type <dataType>
comme colonne de partition n’est pas prise en charge.
DELTA_INVALID_PARTITION_PATH
Un fragment de chemin de partition doit se présenter sous la forme part1=foo/part2=bar
. Chemin de partition : <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
La version du protocole ne peut pas être rétrogradée de <oldProtocol>
à <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Version du protocole Delta non prise en charge : la table « <tableNameOrPath>
» nécessite un lecteur de version <readerRequired>
et un enregistreur de version <writerRequired>
, mais cette version de Databricks prend en charge les lecteurs de version <supportedReaders>
et les enregistreurs de version <supportedWriters>
. Effectuez une mise à niveau vers une version plus récente.
DELTA_INVALID_TABLE_VALUE_FUNCTION
La fonction <function>
est une fonction table non prise en charge pour les lectures CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
L’horodatage <timestamp>
fourni ne correspond pas à la syntaxe <format>
attendue .
DELTA_LOG_ALREADY_EXISTS
Un journal Delta existe déjà à l’adresse <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Si vous ne l’avez jamais supprimé, il est probable que votre requête soit en retard. Supprimez son point de contrôle pour redémarrer à partir de zéro. Pour éviter que cela ne se reproduise, vous pouvez mettre à jour votre stratégie de rétention de votre table Delta
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Nom de colonne matérialisée <rowTrackingColumn>
manquant pour <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Utilisez une limite inférieure à Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Cette validation a échoué, car elle a été tentée <numAttempts>
fois, mais sans succès.
Cela peut être dû au fait que la table Delta est commitée en permanence par de nombreux commits
concurrents.
Validation démarrée à la version : <startVersion>
Échec de la validation à la version : <failVersion>
Nombre d’actions tentées de valider : <numActions>
Temps total passé à tenter cette validation : <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
La liste de fichiers doit avoir au maximum <maxFileListSize>
entrées, et en avait <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Impossible d’ajouter une colonne <newColumn>
avec le type VOID. Spécifiez explicitement un type non-void.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Échec de la fusion des types de données incompatibles <currentDataType>
et <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Échec de la fusion des types décimaux avec incompatibles <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
La conservation de la source de l’instruction MERGE matérialisée a échoué à plusieurs reprises.
DELTA_MERGE_MISSING_WHEN
Il doit y avoir au moins une clause WHEN dans une instruction MERGE.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Attribut(s) résolu(s) manquant(<missingAttributes>
s) sur <input>
dans l’opérateur<merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Clé d’affectation inattendue : <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Impossible de résoudre <sqlExpr>
dans <clause>
étant donné<cols>
.
DELTA_METADATA_CHANGED
MetadataChangedException : les métadonnées de la table Delta ont été modifiées par une mise à jour simultanée. Recommencez l'opération.<conflictingCommit>
Pour plus d’informations, reportez-vous à <docLink>
.
DELTA_MISSING_CHANGE_DATA
Erreur lors de l’obtention des données modifiées pour la plage [<startVersion>
, <endVersion>
] car les données modifiées n’étaient pas
enregistré pour la version [<version>
]. Si vous avez activé le flux des changements de données sur cette table,
utilisez DESCRIBE HISTORY
pour voir à quel moment il a été activé pour la première fois.
Sinon, pour démarrer l’enregistrement des données de modification, utilisez « ALTER TABLE table_name SET TBLPROPERTIES
(<key>
= vrai) ».
DELTA_MISSING_COLUMN
Impossible de trouver <columnName>
dans les colonnes de table : <columnList>
DELTA_MISSING_COMMIT_INFO
La fonctionnalité <featureName>
est activée sur cette table, ce qui nécessite la présence de l’action CommitInfo dans chaque validation. Toutefois, l’action CommitInfo est manquante dans la version de validation <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
La fonctionnalité <featureName>
est activée sur cette table, ce qui nécessite la présence de l’action commitTimestamp dans l’action CommitInfo. Toutefois, ce champ n’a pas été défini dans la version de validation <version>
.
DELTA_MISSING_DELTA_TABLE
<tableName>
n’est pas une table Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
La table n’existe pas. Créez d’abord une table Delta vide à l’aide de CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
La classe Iceberg n’a pas été trouvée. Vérifiez que la prise en charge de Delta Iceberg est installée.
Pour plus d’informations, reportez-vous à <docLink>
.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
La colonne <columnName>
, qui a une contrainte NOT NULL, est manquante dans les données en cours d’écriture dans la table.
DELTA_MISSING_PARTITION_COLUMN
Colonne de partition <columnName>
introuvable dans le schéma <columnList>
DELTA_MISSING_PART_FILES
Impossible de trouver tous les fichiers de partie de la version du point de contrôle : <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA prend uniquement en charge les tables parquet. Réécrivez votre cible au format parquet.<path>
s’il s’agit d’un répertoire parquet.
DELTA_MISSING_SET_COLUMN
Colonne SET <columnName>
introuvable en fonction des colonnes : <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Format incompatible détecté.
Vous essayez de <operation>
<path>
à l’aide de Delta, mais il n’y a pas de
journal des transactions n’est présent. Vérifiez le travail en amont pour vous assurer qu’il écrit les données
à l’aide de format(“delta”), et vérifiez que vous essayez bien de %1$s le chemin de base de la table.
Pour plus d’informations sur Delta, voir <docLink>
DELTA_MODE_NOT_SUPPORTED
Le mode spécifié « <mode>
» n’est pas pris en charge. Les modes pris en charge sont les suivants : <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Plusieurs <startingOrEnding>
arguments fournis pour la lecture CDC. Indiquez l’un des <startingOrEnding>
horodatages ou <startingOrEnding>
la version.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Plusieurs configurations d’index de filtre bloom passées à la commande pour la colonne : <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Impossible d’effectuer la fusion, car plusieurs lignes sources correspondaient et ont tenté de modifier la même
ligne cible dans la table Delta de manière éventuellement conflictuelle. D’après la sémantique SQL de fusion,
lorsque plusieurs lignes sources correspondent à la même ligne cible, le résultat peut être ambigu
car il est difficile d’identifier quelle ligne source doit être utilisée pour mettre à jour ou supprimer la ligne cible
correspondante. Vous pouvez prétraiter la table source pour éliminer le risque de
correspondances multiples. Consultez la section
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Pendant <command>
, les deux configurations de validations coordonnées (« delta.coordinatedCommits.commitCoordinator-preview », « delta.coordinatedCommits.commitCoordinatorConf-preview ») sont définies dans la commande ou aucune d’entre elles. Manquant : «<configuration>
». Spécifiez cette configuration dans la clause TBLPROPERTIES ou supprimez l’autre configuration, puis réessayez la commande.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Pendant <command>
, les deux configurations de validations coordonnées (« coordinatedCommits.commitCoordinator-preview », « coordinatedCommits.commitCoordinatorConf-preview ») sont définies dans les configurations SparkSession ou aucune d’entre elles. Manquant : «<configuration>
». Définissez cette configuration dans SparkSession ou annulez la configuration de l’autre configuration, puis réessayez la commande.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Les noms de colonne suivants sont uniquement réservés à l’utilisation interne de la table compartimentée Delta : <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Le schéma d’entrée contient des champs imbriqués qui sont capitalisés différemment de la table cible.
Ils doivent être renommés pour éviter la perte de données dans ces champs lors de l’écriture dans Delta.
Champs :
<fields>
.
Schéma d’origine :
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Le <nestType>
type du champ <parent>
contient une contrainte NOT NULL. Delta ne prend pas en charge les contraintes NOT NULL imbriquées dans des tableaux ou des cartes. Pour supprimer cette erreur et ignorer silencieusement les contraintes spécifiées, définissez <configKey>
= vrai.
Type <nestType>
analysé :
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
La sous-requête imbriquée n’est pas prise en charge dans la <operation>
condition.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
lignes dans <tableName>
ne respectent pas la nouvelle contrainte CHECK (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
lignes dans <tableName>
enfreignent la nouvelle contrainte NOT NULL sur <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
La contrainte CHECK « <name>
» (<expr>
) doit être une expression booléenne.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Trouvé <expr>
. Une colonne générée ne peut pas utiliser une expression non déterministe.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Les fonctions non déterministes ne sont pas prises en charge dans <operation>
<expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quand il existe plusieurs clauses MATCHED dans une instruction MERGE, seule la dernière clause MATCHED peut omettre la condition.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quand il existe plusieurs clauses NOT MATCHED BY SOURCE dans une instruction MERGE, seule la dernière clause NOT MATCHED BY SOURCE peut omettre la condition.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Quand il existe plusieurs clauses NOT MATCHED dans une instruction MERGE, seule la dernière clause NOT MATCHED peut omettre la condition
DELTA_NON_PARSABLE_TAG
Impossible d’analyser la balise <tag>
.
Les balises de fichier sont les suivantes : <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Les données écrites dans Delta doivent contenir au moins une colonne non partitionnée.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Le prédicat fait référence à une colonne non partitionnée «<columnName>
». Seules les colonnes de partition peuvent être référencées : [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Des colonnes autres que de partitionnement <columnList>
sont spécifiées là où seules des colonnes de partitionnement sont attendues : <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Le catalogue Delta nécessite un espace de noms en une seule partie, mais <identifier>
est en plusieurs parties.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
n’est pas une table Delta. Supprimez d’abord cette table si vous souhaitez la recréer avec Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
n’est pas une table Delta. Supprimez d’abord ce tableau si vous souhaitez le recréer avec Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Colonne non annulable introuvable dans struct : <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
Contrainte NOT NULL enfreinte pour la colonne : <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Un champ imbriqué non nullable ne peut pas être ajouté à un parent nullable. Définissez la nullabilité de la colonne parente en conséquence.
DELTA_NO_COMMITS_FOUND
Aucun commit trouvé dans <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Aucun commit recréable trouvé dans <logPath>
DELTA_NO_RELATION_TABLE
Table <tableIdent>
introuvable
DELTA_NO_START_FOR_CDC_READ
Aucun startingVersion ni startingTimestamp n’a été fourni pour la lecture CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta n’accepte pas les NullTypes dans le schéma pour les écritures en streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Indiquez « timestampAsOf » ou « versionAsOf » pour le voyage dans le temps.
DELTA_ONLY_OPERATION
<operation>
est pris en charge uniquement pour les tables Delta.
DELTA_OPERATION_MISSING_PATH
Indiquez le chemin d’accès ou l’identificateur de table pour <operation>
.
DELTA_OPERATION_NOT_ALLOWED
Opération non autorisée : <operation>
n’est pas pris en charge pour les tables Delta
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Opération non autorisée : <operation>
n’est pas prise en charge pour les tables Delta : <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
n’est pas pris en charge pour la colonne <colName>
avec un classement non défini par défaut <collation>
.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
n’est pas pris en charge pour l’expression <exprText>
, car un classement non par défaut est utilisé.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
la commande d’une vue temporaire faisant référence à une table Delta qui contient des colonnes générées n’est pas prise en charge. Exécutez la commande <operation>
directement sur la table Delta
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Opération non autorisée : <operation>
ne peut pas être effectuée sur une vue.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL est uniquement pris en charge pour les tables en cluster avec des colonnes de clustering non vides.
DELTA_OVERWRITE_MUST_BE_TRUE
L’option de copie overwriteSchema ne peut pas être spécifiée sans définir OVERWRITE = 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchema' ne peut pas être utilisé en mode de remplacement de partition dynamique.
DELTA_PARTITION_COLUMN_CAST_FAILED
Échec du cast de la valeur <value>
en <dataType>
pour la colonne de partition <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
Colonne de partition <columnName>
introuvable dans le schéma [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Il n’est pas possible de spécifier un schéma de partition pendant la conversion de tables Iceberg. Elle est déduite automatiquement.
DELTA_PATH_DOES_NOT_EXIST
<path>
n’existe pas ou n’est pas une table Delta.
DELTA_PATH_EXISTS
Impossible d’écrire dans le chemin <path>
existant sans définir OVERWRITE = « vrai ».
DELTA_POST_COMMIT_HOOK_FAILED
La validation dans la version <version>
de la table Delta a réussi, mais une erreur est survenue lors de l’exécution du hook post-commit <name>
<message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException : la version du protocole de la table Delta a été modifiée par une mise à jour simultanée. <additionalInfo>
<conflictingCommit>
Pour plus d’informations, reportez-vous à <docLink>
.
DELTA_PROTOCOL_PROPERTY_NOT_INT
La propriété de protocole <key>
doit être un entier. Trouvé <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Impossible de mettre à niveau uniquement la version du protocole lecteur pour utiliser les fonctionnalités de table. La version du protocole de l'écrivain doit être au moins égale à <writerVersion>
pour continuer. Reportez-vous à <docLink>
pour plus d’informations sur les versions du protocole de table.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Vous essayez de lire une table Delta <tableName>
qui n’a pas de colonnes.
Écrivez de nouvelles données avec l’option mergeSchema = true
permettant de lire la table.
DELTA_REGEX_OPT_SYNTAX_ERROR
Vérifiez à nouveau votre syntaxe pour « <regExpOption>
»
DELTA_REPLACE_WHERE_IN_OVERWRITE
Vous ne pouvez pas utiliser replaceWhere conjointement avec un remplacement par filtre
DELTA_REPLACE_WHERE_MISMATCH
Les données écrites ne sont pas conformes à la condition de remplacement partielle de la table ou à la contrainte ‘<replaceWhere>
’.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Une expression ‘replaceWhere’ et ‘partitionOverwriteMode’=’dynamic’ ne peut pas être définie dans les options DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
‘replaceWhere’ ne peut pas être utilisé avec des filtres de données lorsque ‘dataChange’ a la valeur false. Filtres : <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Impossible d’attribuer des ID de ligne sans statistiques du nombre de lignes.
Collectez des statistiques pour le tableau en exécutant le code suivant dans un bloc-notes Scala, puis réessayez :
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Changement de schéma détecté :
schéma source de streaming : <readSchema>
schéma de fichier de données : <dataSchema>
Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans
en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre
interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Changement de schéma détecté dans la version <version>
:
schéma source de streaming : <readSchema>
schéma de fichier de données : <dataSchema>
Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans
en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre
interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle. Si le problème persiste après
avoir changé vers un nouveau répertoire de point de contrôle, vous devrez peut-être modifier l’option
'startingVersion' ou 'startingTimestamp' pour démarrer à partir d’une version plus récente que
<version>
avec un nouveau répertoire de point de contrôle.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Changement de schéma détecté dans la version <version>
:
schéma source de streaming : <readSchema>
schéma de fichier de données : <dataSchema>
Essayez de redémarrer la requête. Si ce problème se répète entre les redémarrages de requête sans
en cours de progression, vous avez apporté un changement de schéma incompatible et vous devez démarrer votre
interroger à partir de zéro à l’aide d’un nouveau répertoire de point de contrôle.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Le schéma de votre table Delta a changé de manière incompatible depuis la création de votre
objet DeltaTable ou DataFrame. Redéfinissez votre objet DeltaTable ou DataFrame.
Modifications :
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Le schéma de table n’est pas fourni. Fournissez le schéma (définition de colonne) de la table lors de l’utilisation de la table REPLACE et une requête AS SELECT n’est pas fournie.
DELTA_SCHEMA_NOT_SET
Le schéma de table n’est pas défini. Écrivez des données dedans ou utilisez CREATE TABLE pour définir le schéma.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Le schéma du nouvel emplacement Delta est différent du schéma de table actuel.
schéma d’origine :
<original>
schéma de destination :
<destination>
S’il s’agit d’une modification prévue, vous pouvez désactiver cette vérification en exécutant :
%%sql set <config>
= vrai
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Le fichier <filePath>
référencé dans le journal des transactions est introuvable. Cela se produit quand des données ont été supprimées du système de fichiers manuellement et non pas à l’aide de l’instruction de tableDELETE
. Cette table semble être un clone superficiel. Si tel est le cas, cette erreur peut se produire lorsque la table d’origine à partir de laquelle cette table a été clonée a supprimé un fichier que le clone utilise toujours. Si vous souhaitez que les clones soient indépendants de la table d’origine, utilisez plutôt un clone DEEP.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Les propriétés prédéfinies qui commencent par <prefix>
ne peuvent pas être modifiées.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Les données sont limitées par la propriété du destinataire <property>
qui ne s’applique pas au destinataire actuel dans la session.
Pour plus d’informations, consultez DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
ne peut pas être utilisé dans les vues de partage Delta qui sont partagées entre comptes.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Type <authenticationType>
d’authentification illégal pour le fournisseur <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Type <authenticationType>
d’authentification illégal pour le destinataire <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nom non valide pour référencer un <type>
partage à l’intérieur d’un partage. Vous pouvez utiliser <type>
le nom de la table à l’intérieur du partage suivant le format [schéma].[<type>
], ou vous pouvez également utiliser le nom complet d’origine de la table en suivant le format [catalog].[ schéma]. [>type>].
Si vous ne savez pas quel nom utiliser, vous pouvez exécuter « SHOW ALL IN SHARE [share] » et trouver le nom de la <type>
colonne à supprimer : la colonne « name » est le <type>
nom du partage et de la colonne « shared_object » est le <type>
nom complet d’origine.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Il existe plus de deux jetons pour le destinataire <recipient>
.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
La propriété <property>
Recipient n’existe pas.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Les jetons de destinataire sont manquants pour le destinataire <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
La ou les colonnes de non-partitionnement <badCols>
sont spécifiées pour SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS n’est pas autorisé sur une table qui n’est pas partitionnée : <tableName>
DELTA_SOURCE_IGNORE_DELETE
Détection de données supprimées (par exemple <removedFile>
) de la source de streaming à la version <version>
. Non pris en charge actuellement. Si vous souhaitez ignorer les suppressions, affectez la valeur ‘true’ à l’option ‘ignoreDeletes’. La table source se trouve dans le chemin d’accès <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Détection d’une mise à jour des données (par exemple <file>
) dans la table source à la version <version>
. Non pris en charge actuellement. Si cela se produit régulièrement et que vous pouvez ignorer les modifications, définissez l’option « skipChangeCommits » sur « true ». Si vous souhaitez que la mise à jour des données soit reflétée, redémarrez cette requête avec un répertoire de point de contrôle nouveau ou effectuez une actualisation complète si vous utilisez DLT. Si vous avez besoin de gérer ces modifications, basculez vers les MVS. La table source se trouve dans le chemin d’accès <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Indiquez «<version>
» ou «<timestamp>
»
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
statistiques introuvables pour la colonne dans les métadonnées Parquet : <columnPath>
.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Nous avons détecté une ou plusieurs modifications de schéma non additives (<opType>
) entre les versions <previousSchemaChangeVersion>
et <currentSchemaChangeVersion>
Delta dans la source de streaming Delta.
Veuillez vérifier si vous souhaitez propager manuellement cette ou ces modifications de schéma dans la table récepteur avant que nous procédions au traitement du flux en utilisant le schéma finalisé dans <currentSchemaChangeVersion>
.
Une fois que vous avez corrigé le schéma de la table récepteur ou que vous avez décidé qu’il n’est pas nécessaire de corriger, vous pouvez définir l’une des configurations SQL suivantes pour débloquer cette ou ces modifications de schéma non additives et poursuivre le traitement du flux.
Pour débloquer ce flux particulier uniquement pour cette série de modifications de schéma unique : définissez <allowCkptVerKey>` = `<allowCkptVerValue>
.
Pour débloquer ce flux particulier : définissez <allowCkptKey>` = `<allowCkptValue>
Pour débloquer tous les flux : définissez <allowAllKey>` = `<allowAllValue>
.
Sinon, le cas échéant, vous pouvez remplacer le <allowAllMode>
par <opSpecificMode>
dans la conf SQL pour débloquer le flux uniquement pour ce type de modification de schéma.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Impossible d’obtenir l’instantané du journal Delta pour la version de démarrage lors de la vérification des modifications du schéma de mappage de colonnes. Choisissez une autre version de démarrage ou forcez l’activation de la lecture en continu à vos propres risques en définissant «<config>
» sur « vrai ».
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
Le streaming n’est pas prise en charge sur les tables avec des modifications de schéma incompatibles en lecture (ex. changement de nom, de suppression ou de type de données).
Pour plus d’informations et pour les étapes suivantes permettant de résoudre ce problème, reportez-vous à la documentation à l’adresse <docLink>
Schéma de lecture : <readSchema>
. Schéma de données incompatibles : <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
Le streaming n’est pas prise en charge sur les tables avec des modifications de schéma incompatibles en lecture (ex. changement de nom, de suppression ou de type de données).
Fournissez un « schemaTrackingLocation » pour permettre une évolution non additive du schéma pour le traitement du flux Delta.
Consultez <docLink>
pour plus d’informations.
Schéma de lecture : <readSchema>
. Schéma de données incompatibles : <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Le schéma, la configuration de table ou le protocole de votre table Delta a changé pendant la diffusion en continu.
Le journal de suivi du schéma ou des métadonnées a été mis à jour.
Redémarrez le flux pour continuer le traitement à l’aide des métadonnées mises à jour.
Schéma mis à jour : <schema>
.
Configurations de table mises à jour : <config>
.
Protocole de table mis à jour : <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
La diffusion en continu à partir d’un tableau source <tableId>
avec un suivi de schéma ne prend pas en charge les filtres de lignes ou les masques de colonne.
Veuillez supprimer les filtres de lignes ou les masques de colonne, ou désactivez le suivi de schéma.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Détection d’un emplacement de schéma en conflit «<loc>
» lors de la diffusion en continu à partir d’une table ou d’une table située sur « <table>
».
Un autre flux peut réutiliser le même emplacement de schéma, ce qui n'est pas autorisé.
Fournissez un nouveau chemin d’accès unique schemaTrackingLocation
ou streamingSourceTrackingId
en tant qu’option de lecteur pour l’un des flux de cette table.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
L’emplacement du schéma « <schemaTrackingLocation>
» doit être placé sous l’emplacement du point de contrôle « <checkpointLocation>
».
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Fichier journal incomplet dans le journal du schéma source de streaming Delta à l’emplacement « <location>
».
Le journal de schéma a peut-être été endommagé. Choisissez un nouvel emplacement de schéma.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Détection d’un ID de table Delta incompatible lors de la tentative de lecture du flux Delta.
ID de table persistant : <persistedId>
, ID de table : <tableId>
Le journal de schéma a peut-être été réutilisé. Choisissez un nouvel emplacement de schéma.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Détection d’un schéma de partition incompatible lors de la tentative de lecture du flux Delta.
Schéma persistant : <persistedSchema>
, Schéma de partition Delta : <partitionSchema>
Choisissez un nouvel emplacement de schéma pour réinitialiser le journal du schéma si vous avez récemment modifié manuellement le schéma de partition de la table.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Nous n'avons pas pu initialiser le journal des schémas de la source de streaming Delta car
nous avons détecté une modification de schéma ou de protocole incompatible lors du traitement d’un lot de streaming allant de la version de table <a>
à la <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Échec de l’analyse du schéma à partir du journal du schéma source de diffusion delta.
Le journal de schéma a peut-être été endommagé. Choisissez un nouvel emplacement de schéma.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Impossible d’activer la capture des changements de données sur la table. La table contient déjà
des colonnes <columnList>
réservées qui vont
être utilisées en interne comme métadonnées pour le flux des changements de données de la table. Pour activer
le flux des changements de données sur la table, renommez/supprimez ces colonnes.
DELTA_TABLE_ALREADY_EXISTS
La table <tableName>
existe déjà.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Actuellement, DeltaTable.forPath prend uniquement en charge les clés de configuration hadoop à partir de <allowedPrefixes>
, mais il en a obtenu <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
La table Delta à <tableLocation>
a été remplacée pendant que cette commande utilisait la table.
L’ID de table était <oldId>
mais est maintenant <newId>
.
Réessayez la commande actuelle pour vous assurer qu’elle lit une vue cohérente de la table.
DELTA_TABLE_LOCATION_MISMATCH
L’emplacement de la table <tableName>
existante est <existingTableLocation>
. Il ne correspond pas à l’emplacement spécifié <tableLocation>
.
DELTA_TABLE_NOT_FOUND
La table Delta <tableName>
n’existe pas.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
La table n’est pas prise en charge dans <operation>
. Utilisez un chemin à la place.
DELTA_TABLE_ONLY_OPERATION
<tableName>
n’est pas une table Delta. <operation>
est pris en charge uniquement pour les tables Delta.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Le schéma final de la table cible est vide.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
L’horodatage fourni (<providedTimestamp>
) se trouve après la dernière version disponible pour cette
table (<tableName>
). Utilisez un horodatage antérieur ou équivalent à <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
L’horodatage fourni (<expr>
) ne peut pas être converti en horodatage valide.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
doit être une valeur de début valide.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: impossible de reconstruire l’état au niveau de la version<version>
, car le journal des transactions a été tronqué en raison d’une suppression manuelle ou de la politique de conservation des journaux (<logRetentionKey>
=<logRetention>
) et de la politique de conservation de point de contrôle (<checkpointRetentionKey>
=<checkpointRetention>
)
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Opération non autorisée : TRUNCATE TABLE sur les tables Delta ne prend pas en charge les prédicats de partition ; utilisez DELETE pour supprimer des partitions ou des lignes spécifiques.
DELTA_UDF_IN_GENERATED_COLUMN
Trouvé <udfExpr>
. Une colonne générée ne peut pas utiliser une fonction définie par l’utilisateur
DELTA_UNEXPECTED_ACTION_EXPRESSION
Expression d’action inattendue <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Attente de <expectedColsSize>
colonne(s) de partition : <expectedCols>
, mais <parsedColsSize>
colonne(s) de partition trouvée(s). <parsedCols>
à partir de l’analyse du nom de fichier : <path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Une analyse complète des sources Delta était attendue, mais une analyse partielle a été trouvée. chemin : <path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Attente de <expectedCol>
colonne(s) de partition, mais colonne(s) de partition <parsedCol>
trouvée(s) en analysant le nom de fichier : <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA a été appelé avec un schéma de partition différent de celui déduit du catalogue. Évitez de fournir le schéma afin que le schéma de partition puisse être choisi dans le catalogue.
Schéma de partition du catalogue :
<catalogPartitionSchema>
Schéma de partition fourni :
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
La lecture d’Iceberg avec Delta Uniform a échoué.
Pour plus d’informations, consultez DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
La table d’entrée Create ou Refresh Uniform n’est pas prise en charge.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Le format <fileFormat>
n'est pas pris en charge. Seul Iceberg est pris en charge comme format de fichier d’origine.
DELTA_UNIFORM_NOT_SUPPORTED
Le format universel est pris en charge uniquement dans les tableaux Unity Catalog.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Échec de la conversion de la version <version>
du tableau au format universel <format>
. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
La validation du format universel (<format>
) a échoué : <violation>
DELTA_UNKNOWN_CONFIGURATION
Une configuration inconnue a été spécifiée : <config>
DELTA_UNKNOWN_PRIVILEGE
Privilège inconnu : <privilege>
DELTA_UNKNOWN_READ_LIMIT
ReadLimit inconnu : <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Modification de colonne <otherClass>
non reconnue. Vous exécutez peut-être une version obsolète de Delta Lake.
DELTA_UNRECOGNIZED_INVARIANT
Invariant non reconnu. Mettez à niveau votre version de Spark.
DELTA_UNRECOGNIZED_LOGFILE
Fichier journal <fileName>
non reconnu
DELTA_UNSET_NON_EXISTENT_PROPERTY
Tentative d’annulation de la propriété non existante « <property>
» dans la table <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
ne prend pas en charge l’ajout de fichiers avec un chemin absolu
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN n’est pas pris en charge pour changer la colonne <fieldPath>
de <oldField>
à <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Opération ALTER TABLE REPLACE COLUMNS non prise en charge. Raison : <details>
Échec de la modification du schéma de :
<oldSchema>
to:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Vous avez essayé de REPLACE une table existante (<tableName>
) par un CLONE. Cette opération est
non pris en charge. Essayez une autre cible pour CLONE ou supprimez la table dans la cible actuelle.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
Changer le mode de mappage de colonnes de « <oldMode>
» à « <newMode>
» n’est pas pris en charge.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
Votre version actuelle du protocole de table ne prend pas en charge le changement de mode de mappage de colonnes
en utilisant <config>
.
Version du protocole Delta nécessaire au mappage de colonnes :
<requiredVersion>
Version actuelle du protocole Delta de votre table :
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Un changement de schéma est détectée :
ancien schéma :
<oldTableSchema>
Nouveau schéma :
<newTableSchema>
Les changements de schéma ne sont pas autorisées pendant le changement du mode de mappage de colonnes.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
L’écriture de données avec le mode mappage de colonnes n’est pas prise en charge.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
La création d’un index de filtre de Bloom sur une colonne de type <dataType>
n’est pas prise en charge : <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Impossible d’ajouter un commentaire à <fieldPath>
. L’ajout d’un commentaire à une clé/valeur de carte ou à un élément de tableau n’est pas pris en charge.
DELTA_UNSUPPORTED_DATA_TYPES
Colonnes trouvées utilisant des types de données non pris en charge : <dataTypeList>
. Vous pouvez définir «<config>
» sur « faux » pour désactiver la vérification du type. La désactivation de cette vérification du type peut permettre aux utilisateurs de créer des tables Delta non prises en charge et ne doit être utilisée que lors d’une tentative de lecture/écriture de tables héritées.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
ne peut pas être le résultat d’une colonne générée
DELTA_UNSUPPORTED_DEEP_CLONE
Le clone profond n’est pas pris en charge pour cette version de Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
est une vue. DESCRIBE DETAIL est uniquement pris en charge pour les tables.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
L’annulation des colonnes de clustering (<columnList>
) n’est pas autorisée.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN n’est pas pris en charge pour votre table Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Peut uniquement supprimer des colonnes imbriquées à partir de StructType. Trouvé <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
La suppression des colonnes de partition (<columnList>
) n’est pas autorisée.
DELTA_UNSUPPORTED_EXPRESSION
Type d’expression non pris en charge (<expType>
) pour <causedBy>
. Les types pris en charge sont [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
ne peut pas être utilisé dans une colonne générée
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Fonctionnalité de lecture de table Delta non prise en charge : la table « <tableNameOrPath>
» nécessite une ou plusieurs fonctionnalités de table de lecteur qui ne sont pas prises en charge par cette version de Databricks : <unsupported>
. Pour plus d’informations sur la compatibilité des fonctionnalités Delta Lake, consultez cette section <link>
.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Fonctionnalité d’écriture de table Delta non prise en charge : la table « <tableNameOrPath>
» nécessite une ou plusieurs fonctionnalités de table d’écriture qui ne sont pas prises en charge par cette version de Databricks : <unsupported>
. Pour plus d’informations sur la compatibilité des fonctionnalités Delta Lake, consultez cette section <link>
.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Les fonctionnalités de table configurées dans les configurations Spark ou les propriétés de table Delta suivantes ne sont pas reconnues par cette version de Databricks : <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Attendez-vous à ce que le statut pour la fonctionnalité de table <feature>
soit « pris en charge », mais obtenu «<status>
».
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
La mise à jour des champs imbriqués n’est prise en charge que pour StructType, mais vous essayez de mettre à jour un champ de <columnName>
, qui est de type : <dataType>
.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
La commande 'FSCK REPAIR TABLE' n'est pas prise en charge pour les versions de tables dont les fichiers de vecteurs de suppression sont manquants.
Contactez le support.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
La commande « GENERATE symlink_format_manifest » n’est pas prise en charge sur les versions de table comprenant des vecteurs de suppression.
Pour produire une version de la table sans vecteurs de suppression, exécutez « REORG TABLE APPLY (PURGE) ». Réexécutez ensuite la commande « GENERATE ».
Assurez-vous qu’aucune transaction simultanée n’ajoute de vecteurs de suppression entre REORG et GENERATE.
Si vous devez générer des manifestes régulièrement ou si vous ne pouvez pas empêcher les transactions simultanées, envisagez de désactiver les vecteurs de suppression sur cette table en utilisant "ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)".
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Les invariants au niveau des champs imbriqués autres que StructTypes ne sont pas pris en charge.
DELTA_UNSUPPORTED_IN_SUBQUERY
La sous-requête imbriquée n’est pas prise en charge dans la condition <operation>
.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix non disponible
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
La génération de manifeste n’est pas prise en charge pour les tables qui exploitent le mappage de colonnes, car les lecteurs externes ne peuvent pas lire ces tables Delta. Pour plus d’informations, consultez la documentation Delta.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
Les opérations MERGE INTO avec évolution du schéma ne prennent actuellement pas en charge l’écriture de sortie CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Les prédicats multi-colonnes ne sont pas pris en charge dans la condition <operation>
.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
La création d’un index de filtre de Bloom au niveau d’une colonne imbriquée n’est actuellement pas prise en charge : <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Le champ imbriqué n’est pas pris en charge dans <operation>
(champ = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
La table de destination de clone n’est pas vide. Veuillez TRUNCATE ou DELETE FROM de la table avant d’exécuter CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
La source de données <dataSource>
ne prend pas en charge le mode de sortie <mode>
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
La création d’un index de filtre de Bloom au niveau d’une colonne de partitionnement n’est pas prise en charge : <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
Le changement de nom de colonne n’est pas pris en charge pour votre table Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta ne prend pas en charge la spécification du schéma au moment de la lecture.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY n’est pas pris en charge pour les tables compartimentées Delta
DELTA_UNSUPPORTED_SOURCE
La destination <operation>
prend uniquement en charge les sources Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
La spécification de partitions statiques dans la spécification de partition n’est actuellement pas prise en charge pendant les insertions
DELTA_UNSUPPORTED_STRATEGY_NAME
Nom de la stratégie non prise en charge : <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Les sous-requêtes ne sont pas prises en charge dans <operation>
(condition = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
La sous-requête n’est pas prise en charge dans les prédicats de partition.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Impossible de spécifier le voyage dans le temps dans plusieurs formats.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Impossible de faire des vues de voyage dans le temps, des sous-requêtes, des flux ou des requêtes de flux de données de modification.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
L’écriture dans des exemples de tables n’est pas prise en charge
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Impossible d’opérer sur cette table, car une modification d’un type non pris en charge a été appliquée. Le champ <fieldName>
a été modifié de <fromType>
à <toType>
.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Indiquez le chemin de base (<baseDeltaPath>
) lors du nettoyage des tables Delta. Actuellement, le nettoyage de partitions spécifiques n’est pas pris en charge.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
L’implémentation de table ne prend pas en charge les écritures : <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Vous essayez d’effectuer des écritures sur une table qui a été inscrite auprès du coordinateur <coordinatorName>
de validation. Toutefois, aucune implémentation de ce coordinateur n’est disponible dans l’environnement actuel et les écritures sans coordinateurs ne sont pas autorisées.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
L’écriture dans des exemples de tables n’est pas prise en charge
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Impossible de lancer <fromCatalog>
sur <toCatalog>
. Toutes les colonnes imbriquées doivent correspondre.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM sur les fichiers de données a réussi, mais le nettoyage de mémoire d’état COPY INTO a échoué.
DELTA_VERSIONS_NOT_CONTIGUOUS
Les versions (<versionList>
) ne sont pas contiguës.
Pour plus de détails, voirDELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
Contrainte CHECK <constraintName>
<expression>
enfreinte par la ligne contenant les valeurs :
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
La validation des propriétés de la table <table>
a été violée :
Pour plus d’informations, consultez DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
est une vue. Vous ne pouvez pas écrire des données dans une vue.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
La colonne <columnName>
Ordre Z n’existe pas dans le schéma de données.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
L’ordre de Z sur <cols>
sera
pas d’effet, car nous ne collectons actuellement pas de statistiques pour ces colonnes. Consultez la section
<link>
pour plus d’informations sur le saut de données et l’organisation selon l’ordre de plan. Vous pouvez désactiver
cette vérification en définissant
‘%%sql set <zorderColStatKey>
= faux »
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
est une colonne de partition. L’organisation selon l’ordre de plan ne peut être effectuée que sur des colonnes de données
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
Le mode d’évolution de schéma <addNewColumnsMode>
n’est pas pris en charge quand le schéma est spécifié. Pour utiliser ce mode, vous pouvez indiquer le schéma via cloudFiles.schemaHints
à la place.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Options d’authentification de la configuration des notifications trouvées pour le répertoire (par défaut)
mode de liste :
<options>
Si vous souhaitez utiliser le mode de notification des fichiers, définissez explicitement :
.option(« cloudFiles.<useNotificationsKey>
», « vrai »)
Sinon, si vous souhaitez ignorer la validation de vos options et ignorer ces
options d’authentification, vous pouvez définir :
.option(“cloudFiles.ValidateOptionsKey>”, “false”)
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Mode de liste incrémentielle (cloudFiles.<useIncrementalListingKey>
)
et notification de fichier (cloudFiles.<useNotificationsKey>
)
ont été activés en même temps.
Veillez à sélectionner une seule option uniquement.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Exige adlsBlobSuffix et adlsDfsSuffix pour Azure
CF_BUCKET_MISMATCH
Le <storeType>
dans l’événement de fichier <fileEvent>
est différent de celui attendu par la source : <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Impossible de faire évoluer le schéma quand le journal du schéma est vide. Emplacement du journal de schéma : <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Impossible d’analyser le message de file d’attente suivant : <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Impossible de résoudre le nom du conteneur à partir du chemin d’accès : <path>
, URI résolu : <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Impossible d’exécuter une liste de répertoires pendant qu’un thread de renvoi asynchrone s’exécute
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Impossible d’activer cloudFiles.cleanSource et cloudFiles.allowOverwrites en même temps.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Auto Loader ne peut pas supprimer les fichiers traités, car il ne dispose pas d’autorisations d’écriture dans le répertoire source.
<reason>
Pour résoudre le problème, vous pouvez :
- Accorder des autorisations d’écriture au répertoire source OU
- Définir cleanSource sur « OFF »
Vous pouvez également débloquer votre flux en définissant la valeur « vrai » dans SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors.
CF_DUPLICATE_COLUMN_IN_DATA
Une erreur s’est produite pendant la tentative d’inférence du schéma de partition de votre table. Vous avez la même colonne dupliquée dans vos chemins de données et de partition. Pour ignorer la valeur de partition, indiquez explicitement vos colonnes de partition en utilisant : .option(« cloudFiles.<partitionColumnsKey>
», « {comma-separated-list} »)
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Impossible d’inférer le schéma quand le chemin d’entrée <path>
est vide. Essayez de démarrer le flux quand il y a des fichiers dans le chemin d’entrée, ou spécifiez le schéma.
CF_EVENT_GRID_AUTH_ERROR
Échec de la création d’un abonnement Event Grid. Vérifiez que votre principal
le principal a <permissionType>
des abonnements Event Grid. Pour plus d’informations, consultez :
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Échec de la création d’un abonnement Event Grid. Vérifiez que Microsoft.EventGrid est
inscrit en tant que fournisseur de ressources dans votre abonnement. Pour plus d’informations, consultez :
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Échec de la création d’un abonnement Event Grid. Vérifiez que votre compte
de stockage (<storageAccount>
) se trouve sous votre groupe de ressources (<resourceGroup>
) et que
le compte de stockage est un compte « StorageV2 (v2 universel) ». Pour plus d’informations, consultez :
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Le mode de notification d’événement Auto Loader n’est pas pris en charge pour <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Échec de la vérification pour déterminer si le flux est nouveau
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Échec de la création de l'abonnement : <subscriptionName>
. Un abonnement de même nom existe déjà et est associé à une autre rubrique : <otherTopicName>
. La rubrique souhaitée est <proposedTopicName>
. Supprimez l’abonnement existant ou créez-en un avec un nouveau suffixe de ressource.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Échec de la création de la rubrique : <topicName>
. Il existe déjà une rubrique avec ce nom.<reason>
Supprimez la rubrique existante ou réessayez avec un autre suffixe de ressource
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Échec de la suppression de la notification avec l’ID <notificationId>
sur le compartiment <bucketName>
pour la rubrique <topicName>
. Réessayez ou supprimez manuellement la notification via la console GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Échec de désérialisation du schéma persistant à partir de la chaîne : « <jsonSchema>
»
CF_FAILED_TO_EVOLVE_SCHEMA
Impossible de faire évoluer le schéma sans un journal de schéma.
CF_FAILED_TO_FIND_PROVIDER
Échec de la recherche de fournisseur pour <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Échec de l’inférence de schéma pour le format <fileFormatInput>
à partir de fichiers existants dans le chemin d’entrée <path>
.
Pour plus d’informations, consultez CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Échec de l’écriture dans le journal du schéma à l’emplacement <path>
.
CF_FILE_FORMAT_REQUIRED
Impossible de trouver l’option nécessaire : cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Plusieurs abonnements (<num>
) trouvés avec le préfixe Auto Loader pour la rubrique <topicName>
:
<subscriptionList>
Il ne doit existe qu’un seul abonnement par rubrique. Vérifiez manuellement que votre rubrique n’a pas plusieurs abonnements.
CF_GCP_AUTHENTICATION
Spécifiez toutes les éléments suivants : <clientEmail>
, <client>
<privateKey>
et <privateKeyId>
ou n’en spécifiez aucun pour utiliser la valeur par défaut
Chaîne de fournisseur d’informations d’identification GCP pour l’authentification auprès de ressources GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Reçu trop d’étiquettes (<num>
) pour la ressource GCP. Le nombre maximal d’étiquettes par ressource est <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Reçu trop de balises de ressource (<num>
) pour la ressource GCP. Le nombre maximal de balises de ressource par ressource est de <maxNum>
, car les balises de ressource sont stockées sous forme d’e balises GCP au niveau des ressources, et les balises propres à Databricks consomment une partie de ce quota de balises.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Fichier journal incomplet dans le journal du schéma sur le chemin d’accès <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Fichier de métadonnées incomplet dans le point de contrôle Auto Loader
CF_INCORRECT_SQL_PARAMS
La méthode cloud_files accepte deux paramètres de chaîne obligatoires : le chemin à partir duquel charger et le format de fichier. Les options de lecteur de fichier doivent être fournies dans un mappage clé-valeur de chaîne. Par exemple cloud_files(“path”, “json”, map(“option1”, “value1”)). Reçu : <params>
CF_INTERNAL_ERROR
Erreur interne.
Si vous souhaitez obtenir plus d’informations, voir CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN non valide : <arn>
CF_INVALID_AZURE_CERTIFICATE
La clé privée fournie avec l’option cloudFiles.certificate ne peut pas être analysée. Indiquez une clé publique valide au format PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
La clé privée fournie avec l’option cloudFiles.certificatePrivateKey ne peut pas être analysée. Indiquez une clé privée valide au format PEM.
CF_INVALID_CHECKPOINT
Ce point de contrôle n’est pas une source CloudFiles valide
CF_INVALID_CLEAN_SOURCE_MODE
Mode non valide pour l’option <value>
de source propre .
CF_INVALID_GCP_RESOURCE_TAG_KEY
Clé d’étiquette de ressource non valide pour la ressource GCP : <key>
. Les clés doivent commencer par une lettre minuscule, comporter entre 1 et 63 caractères et contenir uniquement des lettres minuscules, des chiffres, des traits de soulignement (_) et des traits d’union (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Valeur d’étiquette de ressource non valide pour la ressource GCP : <value>
. Les valeurs doivent être comprises entre 0 et 63 caractères et doivent contenir uniquement des lettres minuscules, des chiffres, des traits de soulignement (_) et des traits d’union (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Le Chargeur automatique ne prend pas en charge les options suivantes lorsqu’il est utilisé avec des événements de fichiers managés :
<optionList>
Nous vous recommandons de supprimer ces options, puis de redémarrer le flux.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Réponse non valide du service des événements de fichier managé. Pour obtenir de l’aide, contactez le support Databricks.
Pour plus d’informations, consultez CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
doit faire partie de {
« <addNewColumns>
»
« <failOnNewColumns>
»
« <rescue>
»
« <noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Les indicateurs de schéma ne peuvent spécifier qu’une seule colonne en particulier.
Dans ce cas, redéfinissez la colonne : <columnName>
plusieurs fois dans schemaHints :
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Les indicateurs de schéma ne peuvent pas être utilisés pour remplacer les types imbriqués des mappages et des tableaux.
Colonne en conflit : <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset doit être appelé avec un élément ReadLimit défini au niveau de cette source.
CF_LOG_FILE_MALFORMED
Le fichier journal a été mal crée : échec de la lecture de la version du journal à partir de <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Vous avez demandé à Auto Loader d’ignorer les fichiers existants dans votre emplacement externe en définissant includeExistingFiles sur false. Toutefois, le service d’événements de fichiers managés découvre toujours des fichiers existants dans votre emplacement externe. Réessayez une fois que les événements de fichiers managés auront fini dé découvrir tous les fichiers dans votre emplacement externe.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Vous utilisez Auto Loader avec des événements de fichiers managés, mais il semble que l’emplacement externe de votre chemin ‘d’accès d’entrée « <path>
» n’a pas d’événements de fichier activés ou que le chemin d’entrée n’est pas valide. Demandez à votre administrateur Databricks d’activer les événements de fichier sur l’emplacement externe de votre chemin d’entrée.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Vous utilisez Auto Loader avec des événements de fichiers managés, mais vous n’avez pas accès à l’emplacement externe ou au volume de votre chemin d’accès d’entrée « <path>
», ou le chemin d’entrée n’est pas valide. Demandez à votre administrateur Databricks d’accorder des autorisations de lecture pour l’emplacement ou le volume externe ou fournissez un chemin d’accès d’entrée valide dans un emplacement ou un volume externe existant.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Auto Loader avec les événements de fichier managés n’est disponible que sur Databricks serverless. Pour continuer, déplacez cette charge de travail vers Databricks serverless ou désactivez l’option cloudFiles.useManagedFileEvents.
CF_MAX_MUST_BE_POSITIVE
max doit être positif
CF_METADATA_FILE_CONCURRENTLY_USED
Plusieurs requêtes de streaming utilisent simultanément <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
Le fichier de métadonnées dans le répertoire de point de contrôle de la source de streaming est manquant. Ce fichier
de métadonnées contenant des options par défaut importantes pour le flux, ce dernier ne peut pas être redémarré
dans l’immédiat. Pour obtenir de l’aide, contactez le support Databricks.
CF_MISSING_PARTITION_COLUMN_ERROR
La colonne de partition <columnName>
n’existe pas dans le schéma fourni :
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Spécifiez un schéma à l’aide de .schema() si le chemin de la source CloudFiles n’est pas indiqué et que vous utilisez le mode de notification des fichiers. Sinon, pour permettre à Auto Loader d’inférer le schéma, indiquez un chemin de base dans .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Notifications existantes trouvées pour la rubrique <topicName>
dans le compartiment <bucketName>
:
notification,id
<notificationList>
Pour éviter de polluer l’abonné avec des événements inattendus, supprimez les notifications précédentes et réessayez.
CF_NEW_PARTITION_ERROR
Les nouvelles colonnes de partition ont été inférées à partir de vos fichiers : [<filesList>
]. Indiquez toutes les colonnes de partition de votre schéma ou fournissez une liste de colonnes de partition pour lesquelles vous souhaitez extraire des valeurs en utilisant : .option(“cloudFiles.partitionColumns”, “{comma-separated-list|empty-string}”)
CF_PARTITON_INFERENCE_ERROR
Une erreur s’est produite lors de la tentative d’inférence du schéma de partition du lot actuel de fichiers. Indiquez explicitement vos colonnes de partition en utilisant : .option(« cloudFiles.<partitionColumnOption>
», « {comma-separated-list} »)
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Impossible de lire les fichiers lorsque le chemin d’entrée <path>
n’existe pas. Vérifiez que le chemin d’entrée existe et réessayez.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Le renvoi périodique n’est pas pris en charge si le renvoi asynchrone est désactivé. Vous pouvez activer le renvoi asynchrone/listage de répertoire en définissant spark.databricks.cloudFiles.asyncDirListing
sur true
CF_PREFIX_MISMATCH
L’événement trouvé ne correspond pas : la clé <key>
n’a pas le préfixe : <prefix>
CF_PROTOCOL_MISMATCH
<message>
Si vous n’avez pas besoin d’apporter d’autres modifications à votre code, définissez la configuration
configuration: « <sourceProtocolVersionKey>
= <value>
»
pour reprendre votre flux. Voir les rubriques suivantes :
<docLink>
.
CF_REGION_NOT_FOUND_ERROR
Impossible d’obtenir la région AWS par défaut. Spécifiez une région à l’aide de l’option cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Échec de la création des services de notification : le suffixe de ressource ne peut pas être vide.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Échec de la création des services de notification : le suffixe de ressource ne peut comporter que des caractères alphanumériques, des traits d’union (-) et des traits de soulignement (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Échec de la création des services de notification : le suffixe de ressource ne peut comporter que des lettre minuscules, des chiffres et des tirets (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Échec de la création de services de notification : le suffixe de ressource ne peut comporter que des caractères alphanumériques, des traits d’union (-), des traits de soulignement (_), des points (.), des signes tildes (~), des signes plus (+) et des signes de pourcentage (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Échec de la création des services de notification : le suffixe de ressource ne peut pas comporter plus de <limit>
caractères.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Échec de la création des services de notification : le suffixe de ressource doit comporter entre <lowerLimit>
et <upperLimit>
caractères.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Clé d’étiquette de ressource GCP restreinte (<key>
) trouvée. Les clés d’étiquette de ressource GCP suivantes sont restreintes pour Auto Loader : [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
La valeur de cloudFiles.cleanSource.retentionDuration ne peut pas être supérieure à celle de cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Échec de la création de la notification pour la rubrique : <topic>
avec le préfixe : <prefix>
. Il existe déjà une rubrique de même nom avec un autre préfixe : <oldPrefix>
. Essayez d’utiliser un autre suffixe de ressource pour configurer ou supprimer la configuration existante.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Indiquez le chemin du répertoire source avec l’option path
CF_SOURCE_UNSUPPORTED
La source de fichiers cloud prend uniquement en charge les chemins S3, Stockage Blob Azure (wasb/wasbs) et Azure Data Lake Gen1 (adl) et Gen2 (abfs/abfss) pour le moment. Chemin : « <path>
», uri résolu : « <uri>
»
CF_STATE_INCORRECT_SQL_PARAMS
La fonction cloud_files_state accepte un paramètre de chaîne représentant le répertoire de point de contrôle d’un flux en continu cloudFiles ou un tableName en plusieurs parties identifiant un tableau de diffusion en continu, ainsi qu’un deuxième paramètre entier facultatif représentant la version de point de contrôle pour laquelle l’état de chargement doit être utilisé. Le deuxième paramètre peut également être « latest » pour lire le dernier point de contrôle. Reçu : <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Le chemin du point de contrôle d’entrée <path>
n’est pas valide. Soit le chemin d’accès n’existe pas, soit il n’existe aucune source cloud_files trouvée.
CF_STATE_INVALID_VERSION
La version spécifiée <version>
n’existe pas ou a été supprimée pendant l’analyse.
CF_THREAD_IS_DEAD
<threadName>
thread est mort.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Impossible de déterminer l’emplacement du point de contrôle de flux à partir de l’emplacement du point de contrôle source : <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Impossible de détecter le format de fichier source à partir de <fileSize>
fichier(s) échantillonné(s), <formats>
trouvé(s). Spécifiez le format.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Impossible d’extraire les informations de compartiment. Chemin : « <path>
», uri résolu : « <uri>
».
CF_UNABLE_TO_EXTRACT_KEY_INFO
Impossible d’extraire les informations de clé. Chemin : « <path>
», uri résolu : « <uri>
».
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Impossible d’extraire les informations du compte de stockage ; chemin : « <path>
», uri résolu : « <uri>
»
CF_UNABLE_TO_LIST_EFFICIENTLY
Nous avons reçu un événement de changement de nom de répertoire pour le chemin <path>
, mais nous ne pouvons pas lister efficacement ce répertoire. Pour que le flux continue, définissez l’option « cloudFiles.ignoreDirRenames » sur true et envisagez d’activer les renvois réguliers avec cloudFiles.backfillInterval pour que ces données soient traitées.
CF_UNEXPECTED_READ_LIMIT
ReadLimit inattendu : <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Clés d’option inconnues trouvées :
<optionList>
Vérifiez que toutes les clés d’option fournies sont correctes. Si vous voulez éviter la
validation de vos options et ignorer ces options inconnues, vous pouvez définir :
.option(« cloudFiles.<validateOptions>
», « faux »)
CF_UNKNOWN_READ_LIMIT
Valeur de ReadLimit inconnue : <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
La fonction SQL « cloud_files » pour créer une source de streaming du chargeur automatique est prise en charge uniquement dans un pipeline Delta Live Tables. Pour plus d’informations, consultez :
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
L’inférence de schéma n’est pas prise en charge pour le format : <format>
. Spécifiez le schéma.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion : la version maximale prise en charge du journal est v<maxVersion>``, but encountered v``<version>
. Le fichier journal a été produit par une version plus récente de DBR et ne peut pas être lu par cette version. Procédez à une mise à niveau.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
Le mode d’évolution de schéma <mode>
n’est pas pris en charge pour le format : <format>
. Définissez le mode d’évolution du schéma sur « aucun ».
CF_USE_DELTA_FORMAT
La lecture à partir d’une table Delta n’est pas prise en charge avec cette syntaxe. Si vous souhaitez consommer des données à partir de Delta, reportez-vous à la documentation : lire une table Delta (<deltaDocLink>
) ou lire une table Delta en tant que source de flux (<streamDeltaDocLink>
). La source de streaming à partir de Delta est déjà optimisée pour la consommation incrémentielle des données.
Géospatial
EWKB_PARSE_ERROR
Erreur d’analyse d’EWKB : <parseError>
à la position <pos>
GEOJSON_PARSE_ERROR
Erreur lors de l’analyse de GeoJSON : <parseError>
à la position <pos>
Pour plus d’informations, voir GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
n’est pas un ID de cellule H3 valide
Pour plus d’informations, voir H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
La distance <k>
de grille H3 doit être non négative
Pour plus d’informations, voir H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
La résolution H3 <r>
doit être comprise entre <minR>
et <maxR>
(inclus)
Pour plus d’informations, voir H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
est désactivé ou non pris en charge. Envisagez d’activer Photon ou de basculer vers un niveau qui prend en charge les expressions H3
Pour plus d’informations, voir H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Un pentagone a été rencontré lors du calcul de l’anneau hexadécimal de <h3Cell>
avec la distance de grille <k>
H3_UNDEFINED_GRID_DISTANCE
La distance de grille H3 entre <h3Cell1>
et <h3Cell2>
n’est pas définie
ST_DIFFERENT_SRID_VALUES
Les arguments de « <sqlFunction>
» doivent avoir la même valeur SRID. Valeurs SRID trouvées : <srid1>
, <srid2>
ST_INVALID_ARGUMENT
« <sqlFunction>
» : <reason>
ST_INVALID_ARGUMENT_TYPE
L’argument de « <sqlFunction>
» doit être du type <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: transformation CRS non valide ou non prise en charge du SRID <srcSrid>
vers le SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Endianness <e>
doit être « NDR » (little-endian) ou « XDR » (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: valeur geohash non valide : « <geohash>
». Les valeurs geohash doivent être des chaînes base32 minuscules valides, comme décrit dans https://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
La précision <p>
doit être comprise entre <minP>
et <maxP>
inclus
ST_INVALID_SRID_VALUE
SRID <srid>
non valide ou non prise en charge
ST_NOT_ENABLED
<stExpression>
est désactivé ou non pris en charge. Envisagez d’activer Photon ou de basculer vers un niveau qui prend en charge les expressions ST
ST_UNSUPPORTED_RETURN_TYPE
Les types de données GEOGRAPHY et GEOMETRY ne peuvent pas être retournés dans les requêtes. Utilisez l’une des expressions SQL suivantes pour les convertir en formats d’échange standard : <projectionExprs>
.
WKB_PARSE_ERROR
Erreur d’analyse de WKB : <parseError>
à la position <pos>
Pour plus d’informations, voir WKB_PARSE_ERROR
WKT_PARSE_ERROR
Erreur d’analyse de WKT : <parseError>
à la position <pos>
Pour plus d’informations, voir WKT_PARSE_ERROR