Classi di errore in Azure Databricks
Si applica a: Databricks SQL Databricks Runtime 12.2 e versioni successive
Le classi di errore sono descrittive, leggibili, stringhe univoche per la condizione di errore.
È possibile usare le classi di errore per gestire gli errori nell'applicazione a livello di codice senza dover analizzare il messaggio di errore.
Questo è un elenco di condizioni di errore denominate comuni restituite da Azure Databricks.
Databricks Runtime e Databricks SQL
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
L'espressione <sqlExpr>
non deterministica non deve essere visualizzata negli argomenti di una funzione di aggregazione.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Impossibile analizzare l'output del modello durante il cast al returnType specificato: "<dataType>
", la risposta JSON era: "<responseString>
". Aggiornare returnType in modo che corrisponda al contenuto del tipo rappresentato dal codice JSON della risposta e quindi ripetere la query.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
L'output effettivo del modello ha più di una colonna "<responseString>
". Tuttavia, il tipo restituito specificato[""<dataType>
] include una sola colonna. Aggiornare returnType in modo che contenga lo stesso numero di colonne dell'output del modello e quindi ripetere la query.
AI_FUNCTION_HTTP_REQUEST_ERROR
Errore durante l'esecuzione di una richiesta HTTP per la funzione <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Risposta HTTP non valida per la funzione <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
Il numero massimo di parole deve essere un numero intero non negativo, ma ha ottenuto <maxWords>
.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
I parametri del modello forniti (<modelParameters>
) non sono validi nella funzione AI_QUERY per la gestione dell'endpoint "<endpointName>
".
Per altri dettagli, vedere AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
Errore durante l'analisi della risposta JSON per la funzione <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Impossibile analizzare lo schema per l'endpoint di servizio "<endpointName>
": <errorMessage>
, la risposta JSON era: "<responseJson>
".
Impostare il parametro manualmente nella funzione AI_QUERY per eseguire l'override returnType
della risoluzione dello schema.
AI_FUNCTION_UNSUPPORTED_ERROR
La funzione <funcName>
non è supportata nell'ambiente corrente. È disponibile solo in Databricks SQL Pro e Serverless.
AI_FUNCTION_UNSUPPORTED_REQUEST
Impossibile valutare la funzione SQL "<functionName>
" perché l'argomento fornito di <invalidValue>
ha "<invalidDataType>
", ma sono supportati solo i tipi seguenti: <supportedDataTypes>
. Aggiornare la chiamata di funzione per fornire un argomento di tipo stringa e ripetere la query.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Funzione di intelligenza artificiale: "<functionName>
" non supporta il tipo seguente come tipo restituito: "<typeName>
". Il tipo restituito deve essere un tipo SQL valido riconosciuto da Catalyst e supportato dalla funzione di intelligenza artificiale. I tipi attualmente supportati includono: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
Il valore specificato "<argValue>
" non è supportato dall'argomento "<argName>
". I valori supportati sono: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Se "<sqlExpr>
" non è supportato dall'argomento returnType.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
La ricerca vettoriale con tipo di <embeddingColumnType>
colonna di incorporamento non è supportata.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
La ricerca vettoriale con tipo di <indexType>
indice non è supportata.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Errore durante la materializzazione della query di ricerca vettoriale dal tipo <dataType>
spark a oggetti nativi scala durante la codifica delle richieste con errore: <errorMessage>
.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
Ricerca vettoriale con num_results maggiore di <maxLimit>
non è supportato. Il limite specificato è .<requestedLimit>
Pleaase riprovare con num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
L'uso di query con parametri nome richiede che tutti i parametri siano denominati. Nomi mancanti dei parametri: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Impossibile utilizzare tutte le colonne per le colonne di partizione.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
La colonna ALTER TABLE <type>
specifica il descrittore "<optionName>
" più volte, che non è <columnName>
valido.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
Il nome <name>
è ambiguo in CTE annidato.
Impostare su <config>
"CORRETTO" in modo che il nome definito in CTE interno ha la precedenza. Se impostato su "LEGACY", le definizioni CTE esterne avranno la precedenza.
Vedere https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine'.
AMBIGUOUS_COLUMN_OR_FIELD
La colonna o il campo <name>
è ambiguo e presenta <n>
corrispondenze.
AMBIGUOUS_COLUMN_REFERENCE
La colonna <name>
è ambigua. Perché sono stati uniti diversi dataframe e alcuni di questi dataframe sono gli stessi.
Questa colonna punta a uno dei dataframe, ma Spark non è in grado di capire quale.
Aliasare i dataframe con nomi diversi tramite DataFrame.alias
prima di aggiungerli,
e specificare la colonna usando il nome completo, ad esempio df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Riferimento ambiguo al vincolo <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
L'alias di colonna laterale è ambiguo <name>
e presenta <n>
corrispondenze.
AMBIGUOUS_REFERENCE
Il riferimento <name>
è ambiguo, potrebbe essere: <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
Riferimento ambiguo al campo <field>
. Vengono visualizzate <count>
volte nello schema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
I VINCOLI ANALYZE non sono supportati.
ANSI_CONFIG_CANNOT_BE_DISABLED
Impossibile disabilitare la configurazione <config>
SQL ANSI in questo prodotto.
AQE_THREAD_INTERRUPTED
Il thread AQE viene interrotto, probabilmente a causa dell'annullamento delle query da parte dell'utente.
ARGUMENT_NOT_CONSTANT
La funzione <functionName>
include un parametro <parameterName>
in corrispondenza della posizione <pos>
che richiede un argomento costante. Calcolare l'argomento <sqlExpr>
separatamente e passare il risultato come costante.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Se necessario, impostare su <config>
"false" per ignorare questo errore.
Per altri dettagli, vedere ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
Numero di colonne o variabili assegnate o con alias: <numTarget>
non corrisponde al numero di espressioni di origine: <numExpr>
.
AS_OF_JOIN
Join non valido.
Per altri dettagli, vedere AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
L'uso dei valori predefiniti non è supportato quandorescuedDataColumn
è abilitato. È possibile rimuovere questo controllo impostando spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
su false, ma i valori predefiniti non verranno applicati e verranno comunque usati valori Null.
AVRO_INCOMPATIBLE_READ_TYPE
Non è possibile convertire Avro <avroPath>
in SQL <sqlPath>
perché il tipo di dati codificato originale è <avroType>
, ma si sta provando a leggere il campo come <sqlType>
, che causerebbe una risposta errata.
Per consentire la lettura di questo campo, abilitare la configurazione SQL: "spark.sql.legacy.avro.allowIncompatibleSchema".
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
L'uso della corrispondenza dei campi posizionale non è supportato quando rescuedDataColumn
o failOnUnknownFields
è abilitato. Rimuovere queste opzioni per continuare.
BATCH_METADATA_NOT_FOUND
Impossibile trovare il batch <batchMetadataFile>
.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
Le credenziali di connessione BigQuery devono essere specificate con il parametro 'GoogleServiceAccountKeyJson' o con tutti i parametri 'projectId', 'OAuthServiceAcctEmail', 'OAuthPvtKey'
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
ha causato l'overflow.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
Istruzione booleana <invalidStatement>
non valida. Riga singola prevista con un valore del BOOLEAN
tipo, ma ha una riga vuota.
BUILT_IN_CATALOG
<operation>
non supporta i cataloghi predefiniti.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
Il metodo <methodName>
non può essere chiamato nel set di dati di streaming/dataframe.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN non può modificare le regole di confronto dei tipi/sottotipi delle colonne del bucket, ma è stata trovata la colonna <columnName>
bucket nella tabella <tableName>
.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN non è supportato per le colonne di partizione, ma è stata trovata la colonna <columnName>
di partizione nella tabella <tableName>
.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
La filigrana deve essere definita per riassegnare la colonna dell'ora dell'evento. Impossibile trovare la definizione della filigrana nella query di streaming.
CANNOT_CAST_DATATYPE
Impossibile eseguire il cast <sourceType>
a <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Impossibile convertire Protobuf <protobufColumn>
in SQL <sqlColumn>
perché lo schema non è compatibile (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Impossibile convertire <protobufType>
Protobuf in tipo <toType>
SQL.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Impossibile convertire SQL <sqlColumn>
in Protobuf <protobufColumn>
perché lo schema non è compatibile (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Impossibile convertire SQL <sqlColumn>
in Protobuf <protobufColumn>
perché <data>
non è in valori definiti per l'enumerazione: <enumString>
.
CANNOT_COPY_STATE
Impossibile copiare lo stato del catalogo, ad esempio il database corrente e le viste temporanee dal catalogo Unity a un catalogo legacy.
CANNOT_CREATE_DATA_SOURCE_TABLE
Impossibile creare la tabella <tableName>
dell'origine dati:
Per altri dettagli, vedere CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
L'URL specificato non può essere decodificato: <url>
. Assicurarsi che l'URL sia formattato correttamente e riprovare.
CANNOT_DELETE_SYSTEM_OWNED
Impossibile eliminare la proprietà <resourceType>
del sistema.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Impossibile eliminare il vincolo con il nome <constraintName>
condiviso da un vincolo CHECK
e un vincolo PRIMARY KEY o FOREIGN KEY. È possibile eliminare la CHIAVE PRIMARIA o
Vincolo FOREIGN KEY per query:
- ALTER TABLE .. DROP PRIMARY KEY o
- ALTER TABLE .. DROP FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
Impossibile stabilire la connessione al database remoto <jdbcDialectName>
. Controllare le informazioni di connessione e le credenziali, ad esempio host, porta, utente, password e opzioni di database. ** Se si ritiene che le informazioni siano corrette, controllare la configurazione di rete dell'area di lavoro e assicurarsi che non siano previste restrizioni in uscita per l'host. Verificare anche che l'host non blocchi le connessioni in ingresso dalla rete in cui vengono distribuiti i cluster Spark dell'area di lavoro. ** Messaggio di errore dettagliato: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Impossibile stabilire la connessione al database remoto <jdbcDialectName>
. Controllare le informazioni di connessione e le credenziali, ad esempio host, porta, utente, password e opzioni di database. ** Se si ritiene che le informazioni siano corrette, consentire il traffico in ingresso da Internet all'host, in quanto si usa l'ambiente di calcolo serverless. Se i criteri di rete non consentono il traffico Internet in ingresso, usare un ambiente di calcolo senza server oppure contattare il rappresentante di Databricks per informazioni sulla rete privata serverless. ** Messaggio di errore dettagliato: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
Le trasformazioni e le azioni del set di dati possono essere richiamate solo dal driver, non all'interno di altre trasformazioni del set di dati; Ad esempio, dataset1.map(x => dataset2.values.count() * x) non è valido perché non è possibile eseguire l'azione di trasformazione dei valori e conteggio all'interno della trasformazione dataset1.map. Per altre informazioni, vedere SPARK-28702.
CANNOT_LOAD_FUNCTION_CLASS
Impossibile caricare la classe <className>
durante la registrazione della funzione <functionName>
, assicurarsi che si tratti del classpath.
CANNOT_LOAD_PROTOBUF_CLASS
Impossibile caricare la classe Protobuf con il nome <protobufClassName>
. <explanation>
.
CANNOT_LOAD_STATE_STORE
Si è verificato un errore durante lo stato di caricamento.
Per altri dettagli, vedere CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Impossibile unire tipi di <left>
dati incompatibili e <right>
. Controllare i tipi di dati delle colonne unite e assicurarsi che siano compatibili. Se necessario, valutare la possibilità di eseguire il cast delle colonne in tipi di dati compatibili prima di tentare l'unione.
CANNOT_MERGE_SCHEMAS
Unione di schemi non riuscita:
Schema iniziale:
<left>
Schema che non può essere unito allo schema iniziale:
<right>
.
CANNOT_MODIFY_CONFIG
Impossibile modificare il valore della configurazione di Spark: <key>
.
Vedere anche https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements'.
CANNOT_PARSE_DECIMAL
Impossibile analizzare decimali. Assicurarsi che l'input sia un numero valido con separatori decimali o virgole facoltativi.
CANNOT_PARSE_INTERVAL
Impossibile analizzare <intervalString>
. Assicurarsi che il valore specificato sia in un formato valido per la definizione di un intervallo. È possibile fare riferimento alla documentazione per il formato corretto. Se il problema persiste, verificare che il valore di input non sia null o vuoto e riprovare.
CANNOT_PARSE_JSON_FIELD
Impossibile analizzare il nome <fieldName>
del campo e il valore <fieldValue>
del tipo di <jsonType>
token JSON per specificare come destinazione il tipo di <dataType>
dati Spark.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Errore durante l'analisi dei byte del descrittore in Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Se necessario, impostare su <ansiConfig>
"false" per ignorare questo errore.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Impossibile eseguire query su MV/ST durante l'inizializzazione.
Per altri dettagli, vedere CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Impossibile leggere il file nel percorso <path>
perché è stato archiviato. Modificare i filtri di query per escludere i file archiviati.
CANNOT_READ_FILE
Impossibile leggere il <format>
file nel percorso: <path>
.
Per altri dettagli, vedere CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Impossibile leggere la chiave sensibile '<key>
' dal provider sicuro.
CANNOT_RECOGNIZE_HIVE_TYPE
Impossibile riconoscere la stringa del tipo hive: <fieldType>
, colonna: <fieldName>
. Il tipo di dati specificato per il campo non può essere riconosciuto da Spark SQL. Controllare il tipo di dati del campo specificato e assicurarsi che sia un tipo di dati Spark SQL valido. Vedere la documentazione di Spark SQL per un elenco di tipi di dati validi e il relativo formato. Se il tipo di dati è corretto, assicurarsi di usare una versione supportata di Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Impossibile fare riferimento a un catalogo <objType>
Unity negli oggetti Metastore Hive.
CANNOT_RENAME_ACROSS_CATALOG
La ridenominazione di un oggetto <type>
tra cataloghi non è consentita.
CANNOT_RENAME_ACROSS_SCHEMA
La ridenominazione di un oggetto <type>
tra gli schemi non è consentita.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Impossibile risolvere la colonna <name>
del dataframe. Probabilmente è dovuto a riferimenti illegali come df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
Impossibile risolvere <targetString>
.* colonne di input <columns>
specificate. Verificare che la tabella o lo struct specificato esista ed è accessibile nelle colonne di input.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Impossibile impostare le autorizzazioni sul percorso <path>
creato su <permission>
.
CANNOT_SAVE_VARIANT
Impossibile salvare il tipo di dati variant in una risorsa di archiviazione esterna.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Non è possibile clonare tabelle superficiali in Unity Catalog e Hive Metastore.
CANNOT_SHALLOW_CLONE_NESTED
Non è possibile clonare superficialmente una tabella <table>
che è già un clone superficiale.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
Il clone superficiale è supportato solo per il tipo di tabella GESTITo. La tabella <table>
non è gestita.
CANNOT_UPDATE_FIELD
Impossibile aggiornare il <table>
tipo di campo <fieldName>
:
Per altri dettagli, vedere CANNOT_UPDATE_FIELD
CANNOT_UP_CAST_DATATYPE
Impossibile eseguire il cast <expression>
da <sourceType>
a <targetType>
.
<details>
CANNOT_VALIDATE_CONNECTION
La convalida della <jdbcDialectName>
connessione non è supportata. Contattare il supporto di Databricks per soluzioni alternative oppure impostare "spark.databricks.testConnectionBeforeCreation" su "false" per ignorare i test di connessione prima di creare un oggetto connessione.
CANNOT_WRITE_STATE_STORE
Errore durante la scrittura dei file dell'archivio stati per il provider <providerClass>
.
Per altri dettagli, vedere CANNOT_WRITE_STATE_STORE
CAST_INVALID_INPUT
Il valore <expression>
del tipo <sourceType>
non può essere sottoposto a <targetType>
cast perché non è valido. Correggere il valore in base alla sintassi o modificarne il tipo di destinazione. Usare try_cast
per tollerare l'input in formato non valido e restituire invece NULL.
Per altri dettagli, vedere CAST_INVALID_INPUT
CAST_OVERFLOW
Impossibile eseguire il cast del valore <value>
del tipo <sourceType>
a <targetType>
causa di un overflow. Usare try_cast
invece per tollerare l'overflow e restituire NULL.
CAST_OVERFLOW_IN_TABLE_INSERT
Non è possibile assegnare un valore di tipo alla colonna o alla <targetType>
variabile <columnName>
di <sourceType>
tipo a causa di un overflow. Usare try_cast
sul valore di input per tollerare l'overflow e restituire NULL.
CATALOG_NOT_FOUND
<catalogName>
Catalogo non trovato. Prendere in considerazione la possibilità di impostare la configurazione <config>
SQL su un plug-in di catalogo.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
<rddBlockId>
Blocco di checkpoint non trovato.
L'executor che ha originariamente eseguito il checkpoint di questa partizione non è più attivo oppure il RDD originale non è persistente.
Se il problema persiste, è consigliabile usare rdd.checkpoint()
invece un checkpoint più lento rispetto al checkpoint locale ma a tolleranza di errore.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
deve eseguire l'override di <method1>
o <method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
non supporta la classe <cls>
come raccolta risultante.
CLEANROOM_COMMANDS_NOT_SUPPORTED
I comandi clean room non sono supportati
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nome non valido per fare riferimento a un <type>
oggetto all'interno di una stanza pulita. Usare il nome di un <type>
oggetto all'interno della stanza pulita in base al formato [catalogo].[ schema]. [<type>
].
Se non si è certi del nome da usare, è possibile eseguire "SHOW ALL IN CLEANROOM [clean_room]" e usare il valore nella colonna "name".
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
È stata ricevuta una notifica di file per il file, <filePath>
ma non esiste più. Assicurarsi che i file non vengano eliminati prima dell'elaborazione. Per continuare il flusso, è possibile impostare la configurazione <config>
di Spark SQL su true.
CLOUD_PROVIDER_ERROR
Errore del provider di servizi cloud: <message>
CLUSTERING_COLUMNS_MISMATCH
Il clustering specificato non corrisponde a quello della tabella <tableName>
esistente.
Colonne di clustering specificate: [<specifiedClusteringString>
].
Colonne di clustering esistenti: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
'<operation>
' non supporta il clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Contattare il rappresentante di Databricks per abilitare la funzionalità cluster-by-auto.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Abilitare clusteringTable.enableClusteringTableFeature per usare CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO richiede l'abilitazione dell'ottimizzazione predittiva.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
CLUSTER BY AUTO è supportato solo nelle tabelle gestite dal punto di controllo dell'utilità.
CODEC_NOT_AVAILABLE
Il codec <codecName>
non è disponibile.
Per altri dettagli, vedere CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Impossibile trovare un nome breve per il codec <codecName>
.
COLLATION_INVALID_NAME
Il valore <collationName>
non rappresenta un nome corretto delle regole di confronto. Nomi di regole di confronto validi suggeriti: [<proposals>
].
COLLATION_INVALID_PROVIDER
Il valore <provider>
non rappresenta un provider di regole di confronto corretto. I provider supportati sono: [<supportedProviders>
].
COLLATION_MISMATCH
Impossibile determinare le regole di confronto da utilizzare per le funzioni stringa e gli operatori.
Per altri dettagli, vedere COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Non è possibile creare una matrice con <numberOfElements>
elementi che superano il limite <maxRoundedArrayLength>
di dimensioni della matrice ,
Per altri dettagli, vedere COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Gli alias di colonna non sono consentiti in <op>
.
COLUMN_ALREADY_EXISTS
La colonna <columnName>
esiste già. Scegliere un altro nome o rinominare la colonna esistente.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
La creazione di vincoli CHECK nella tabella <tableName>
con i criteri della maschera di colonna non è supportata.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Un'istruzione <statementType>
ha tentato di assegnare un criterio maschera di colonna a una colonna che includeva due o più altre colonne a cui si fa riferimento nell'elenco USING COLUMNS con lo stesso nome <columnName>
, che non è valido.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
I criteri della maschera di colonna per <tableName>
non sono supportati:
Per altri dettagli, vedere COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Impossibile passare dalla <statementType>
<columnName>
tabella <tableName>
perché viene fatto riferimento in un criterio della maschera di colonna per la colonna <maskedColumn>
. Il proprietario della tabella deve rimuovere o modificare questo criterio prima di procedere.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
Le operazioni MERGE INTO non supportano i criteri della maschera di colonna nella tabella <tableName>
di origine .
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
Le operazioni MERGE INTO non supportano la scrittura nella tabella <tableName>
con i criteri della maschera di colonna.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Questa istruzione ha tentato di assegnare criteri di maschera di colonna a una colonna <columnName>
con più parti del nome, che non sono valide.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Questa istruzione ha tentato di assegnare un criterio di maschera di colonna a una colonna e l'elenco USING COLUMNS includeva il nome con più parti del nome <columnName>
, che non è valido.
COLUMN_MASKS_NOT_ENABLED
Il supporto per la definizione delle maschere di colonna non è abilitato
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
I criteri della maschera di colonna sono supportati solo in Unity Catalog.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
clonare dalla tabella <tableName>
con criteri di maschera di colonna non è supportato.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
clonare nella tabella <tableName>
con i criteri della maschera di colonna non è supportato.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
L'uso di una costante come parametro in un criterio della maschera di colonna non è supportato. Aggiornare il comando SQL per rimuovere la costante dalla definizione della maschera di colonna e quindi ripetere il comando.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Impossibile eseguire <statementType>
il comando perché l'assegnazione dei criteri della maschera di colonna non è supportata per l'origine dati di destinazione con provider di tabelle: "<provider>
".
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
Impossibile eseguire <operation>
per la tabella <tableName>
perché contiene uno o più criteri della maschera di colonna con espressioni di sottoquery, che non sono ancora supportate. Per continuare, contattare il proprietario della tabella per aggiornare i criteri della maschera di colonna.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
La colonna ha lo stesso nome della colonna <columnName>
di destinazione, che non è valida. Rimuovere la colonna dall'elenco USING COLUMNS e ripetere il comando.
COLUMN_NOT_DEFINED_IN_TABLE
<colType>
la colonna <colName>
non è definita nella tabella , le colonne della tabella <tableName>
definite sono: <tableCols>
.
COLUMN_NOT_FOUND
Impossibile trovare la colonna <colName>
. Verificare l'ortografia e la correttezza del nome della colonna in base alla configurazione <caseSensitiveConfig>
SQL .
COMMA_PRECEDING_CONSTRAINT_ERROR
',' imprevisto prima della definizione dei vincoli. Assicurarsi che la clausola di vincolo non inizi con una virgola quando le colonne (e le aspettative) non sono definite.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
Il comando COMMENT ON CONNECTION non è ancora implementato
COMPARATOR_RETURNS_NULL
Il comparatore ha restituito un valore NULL per un confronto tra <firstValue>
e <secondValue>
.
Deve restituire un numero intero positivo per "maggiore di", 0 per "uguale" e un numero intero negativo per "minore di".
Per ripristinare il comportamento deprecato in cui NULL viene considerato uguale a 0, è necessario impostare "spark.sql.legacy.allowNullComparisonResultInArraySort" su "true".
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Impossibile elaborare i tipi di dati di input per l'espressione: <expression>
.
Per altri dettagli, vedere COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Un'altra istanza di questa query [id: <queryId>
] è stata appena avviata da una sessione simultanea [runId esistente: <existingQueryRunId>
new runId: <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Aggiornamento simultaneo al log. Sono stati rilevati più processi di streaming per <batchId>
.
Assicurarsi che un solo processo di streaming venga eseguito in una posizione del checkpoint specifica alla volta.
CONFIG_NOT_AVAILABLE
La configurazione <config>
non è disponibile.
CONFLICTING_PARTITION_COLUMN_NAMES
Rilevati nomi di colonna di partizione in conflitto:
<distinctPartColLists>
Per le directory di tabella partizionate, i file di dati devono essere presenti solo nelle directory foglia.
E le directory allo stesso livello devono avere lo stesso nome della colonna di partizione.
Controllare le directory seguenti per i file imprevisti o i nomi delle colonne di partizione incoerenti:
<suspiciousPaths>
CONFLICTING_PROVIDER
Il provider <provider>
specificato non è coerente con il provider di <expectedProvider>
catalogo esistente. Usare "USING <expectedProvider>
" e ripetere il comando.
CONNECT
Errore generico di Spark Connect.
Per altri dettagli, vedere CONNECT
CONNECTION_ALREADY_EXISTS
Impossibile creare la connessione <connectionName>
perché esiste già.
Scegliere un nome diverso, eliminare o sostituire la connessione esistente oppure aggiungere la clausola IF NOT EXISTS per tollerare le connessioni preesistenti.
CONNECTION_NAME_CANNOT_BE_EMPTY
Impossibile eseguire questo comando perché il nome della connessione deve essere non vuoto.
CONNECTION_NOT_FOUND
Impossibile eseguire questo comando perché il nome <connectionName>
della connessione non è stato trovato.
CONNECTION_OPTION_NOT_SUPPORTED
Le connessioni di tipo '<connectionType>
' non supportano le opzioni seguenti: <optionsNotSupported>
. Opzioni supportate: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Impossibile creare una connessione di tipo '<connectionType>
. Tipi di connessione supportati: <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
I vincoli di tabella sono supportati solo in Unity Catalog.
CONVERSION_INVALID_INPUT
Il valore <str>
(<fmt>
) non può essere convertito in <targetType>
perché non è valido. Correggere il valore in base alla sintassi o modificarne il formato. Usare <suggestion>
per tollerare l'input in formato non valido e restituire invece NULL.
COPY_INTO_COLUMN_ARITY_MISMATCH
Impossibile scrivere in <tableName>
, il motivo è
Per altri dettagli, vedere COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Schema <scheme>
non valido. Le credenziali di origine COPY INTO supportano attualmente solo s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
Le credenziali di origine COPY INTO devono specificare <keyList>
.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
È stato eseguito il commit di file duplicati in un'operazione COPY INTO simultanea. Riprova più tardi.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Schema <scheme>
non valido. La crittografia di origine COPY INTO supporta attualmente solo s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
La crittografia COPY INTO supporta solo ADLS Gen2 o abfss:// schema di file
COPY_INTO_ENCRYPTION_REQUIRED
La crittografia di origine COPY INTO deve specificare '<key>
'.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Opzione di crittografia <requiredKey>
non valida. La crittografia di origine COPY INTO deve specificare '<requiredKey>
' = '<keyValue>
'.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
La funzionalità COPY INTO '<feature>
' non è compatibile con '<incompatibleSetting>
'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
COPY INTO diverso dall'accodamento dei dati non può essere eseguito simultaneamente con altre transazioni. Riprova più tardi.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
COPY INTO non è riuscito a caricarne lo stato, è stato superato il numero massimo di tentativi.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
È stata rilevata una mancata corrispondenza dello schema durante la copia nella tabella Delta (tabella: <table>
).
Ciò può indicare un problema con i dati in ingresso oppure lo schema della tabella Delta può essere evoluto automaticamente in base ai dati in ingresso impostando:
COPY_OPTIONS ('mergeSchema' = 'true')
Differenza dello schema:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
Il formato dei file di origine deve essere uno dei file CSV, JSON, AVRO, ORC, PARQUET, TEXT o BINARYFILE. L'uso di COPY INTO nelle tabelle Delta perché l'origine non è supportata perché i dati duplicati possono essere inseriti dopo le operazioni OPTIMIZE. Questo controllo può essere disattivato eseguendo il comando set spark.databricks.delta.copyInto.formatCheck.enabled = false
SQL .
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
La directory di origine non contiene file analizzabili di tipo <format>
. Controllare il contenuto di '<source>
'.
L'errore può essere disattivato impostando '<config>
' su 'false'.
COPY_INTO_STATE_INTERNAL_ERROR
Si è verificato un errore interno durante l'elaborazione dello stato COPY INTO.
Per altri dettagli, vedere COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Impossibile analizzare il comando COPY INTO.
Per altri dettagli, vedere COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
La funzionalità COPY INTO '<feature>
' non è supportata.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Impossibile scaricare i dati nel formato '<formatType>
'. I formati supportati per <connectionType>
sono: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
Il comando CREATE FOREIGN SCHEMA non è ancora implementato
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
Il comando CREATE FOREIGN TABLE non è ancora implementato
CREATE_OR_REFRESH_MV_ST_ASYNC
Impossibile creare o aggiornare viste materializzate o tabelle di streaming con ASYNC specificato. Rimuovere ASYNC dall'istruzione CREATE OR REFRESH o usare REFRESH ASYNC per aggiornare le viste materializzate esistenti o le tabelle di streaming in modo asincrono.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Non è consentito creare la visualizzazione <name>
permanente senza assegnare in modo esplicito un alias per l'espressione <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
La colonna <columnName>
CREATE TABLE specifica il descrittore "<optionName>
" più volte, che non è valido.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Impossibile creare la vista <viewName>
, il motivo è
Per altri dettagli, vedere CREATE_VIEW_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Specificare le credenziali durante la creazione o l'aggiornamento di percorsi esterni.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
Non è possibile impostare l'opzione enforceSchema
CSV quando si usa rescuedDataColumn
o failOnUnknownFields
, perché le colonne vengono lette in base al nome anziché all'ordinale.
CYCLIC_FUNCTION_REFERENCE
Rilevato riferimento alla funzione ciclico: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta non è abilitato nell'account.<hints>
DATATYPE_MISMATCH
Impossibile risolvere <sqlExpr>
a causa della mancata corrispondenza del tipo di dati:
Per altri dettagli, vedere DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
DataType <type>
richiede un parametro di lunghezza, ad esempio <type>
(10). Specificare la lunghezza.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Scrittura derivazione non riuscita: relazione corrispondente mancante con i criteri per CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
L'origine dati '<provider>
' esiste già. Scegliere un nome diverso per la nuova origine dati.
DATA_SOURCE_EXTERNAL_ERROR
Errore durante il salvataggio in un'origine dati esterna.
DATA_SOURCE_NOT_EXIST
Origine dati '<provider>
' non trovata. Assicurarsi che l'origine dati sia registrata.
DATA_SOURCE_NOT_FOUND
Impossibile trovare l'origine dati: <provider>
. Assicurarsi che il nome del provider sia corretto e che il pacchetto sia registrato correttamente e compatibile con la versione di Spark.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
L'opzione <option>
non deve essere vuota e non deve contenere caratteri non validi, stringhe di query o parametri.
DATA_SOURCE_OPTION_IS_REQUIRED
L'opzione <option>
è obbligatoria.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
Lo schema della tabella dell'origine dati non corrisponde allo schema previsto. Se si usa l'API DataFrameReader.schema o si crea una tabella, evitare di specificare lo schema.
Schema origine dati: <dsSchema>
Schema previsto: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
L'URL JDBC non è consentito nelle opzioni dell'origine dati. Specificare invece le opzioni 'host', 'port' e 'database'.
DATETIME_OVERFLOW
Overflow dell'operazione Datetime: <operation>
.
DC_API_QUOTA_EXCEEDED
È stata superata la quota API per l'origine <sourceName>
dati .
Per altri dettagli, vedere DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Impossibile stabilire una connessione all'origine <sourceName>
. Codice errore: <errorCode>
.
Per altri dettagli, vedere DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Si è verificato un errore nelle chiamate api Dynamics, errorCode: <errorCode>
.
Per altri dettagli, vedere DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Si è verificato un errore nelle chiamate JDBC netsuite, errorCode: <errorCode>
.
Per altri dettagli, vedere DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: non assegnato
Si è verificata una modifica dello schema nella tabella <tableName>
dell'origine <sourceName>
.
Per altri dettagli, vedere DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Si è verificato un errore nelle chiamate dell'API ServiceNow, errorCode: <errorCode>
.
Per altri dettagli, vedere DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
L'inserimento per l'oggetto <objName>
è incompleto perché il processo di query dell'API Salesforce ha richiesto troppo tempo, non è riuscito o è stato annullato manualmente.
Per riprovare, è possibile eseguire nuovamente l'intera pipeline o aggiornare questa tabella di destinazione specifica. Se l'errore persiste, inviare un ticket. ID processo: <jobId>
. Stato processo: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Si è verificato un errore nelle chiamate API di SharePoint, errorCode: <errorCode>
.
Per altri dettagli, vedere DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Si è verificato un errore nella <sourceName>
chiamata API. Tipo di API di origine: <apiType>
. Codice errore: <errorCode>
.
Ciò può verificarsi a volte quando è stato raggiunto un <sourceName>
limite api. Se non è stato superato il limite api, provare a eseguire nuovamente il connettore. Se il problema persiste, inviare un ticket.
DC_UNSUPPORTED_ERROR
Si è verificato un errore non supportato nell'origine <sourceName>
dati .
Per altri dettagli, vedere DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Si è verificato un errore nelle chiamate api RAAS di Workday, errorCode: <errorCode>
.
Per altri dettagli, vedere DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
La precisione <precision>
decimale supera la precisione <maxPrecision>
massima.
DEFAULT_DATABASE_NOT_EXISTS
Il database <defaultDatabase>
predefinito non esiste, crearlo prima o modificare il database predefinito in <defaultDatabase>
.
DEFAULT_FILE_NOT_FOUND
È possibile che i file sottostanti siano stati aggiornati. È possibile invalidare in modo esplicito la cache in Spark eseguendo il comando 'REFRESH TABLE tableName' in SQL o ricreando il set di dati/dataframe coinvolto. Se la cache del disco non è aggiornata o se i file sottostanti sono stati rimossi, è possibile invalidare manualmente la cache del disco riavviando il cluster.
DEFAULT_PLACEMENT_INVALID
Impossibile assegnare direttamente una parola chiave DEFAULT in un comando MERGE, INSERT, UPDATE o SET VARIABLE a una colonna di destinazione perché faceva parte di un'espressione.
Ad esempio: UPDATE SET c1 = DEFAULT
è consentito, ma UPDATE T SET c1 = DEFAULT + 1
non è consentito.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
La query di streaming ha letto da una tabella Delta imprevista (id = '<newTableId>
').
Usato per leggere da un'altra tabella Delta (id = '<oldTableId>
') in base al checkpoint.
Questo problema può verificarsi quando il codice è stato modificato per leggere da una nuova tabella o è stato eliminato e
è stata ricreata una tabella. Ripristinare la modifica o eliminare il checkpoint della query di streaming
per riavviare da zero.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Le funzioni della finestra distinct non sono supportate: <windowExpr>
.
DIVIDE_BY_ZERO
Divisione per zero. Usare try_divide
per tollerare che il divisore sia 0 e restituire NULL. Se necessario, impostare su <config>
"false" per ignorare questo errore.
Per altri dettagli, vedere DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
Le aspettative sono supportate solo all'interno di una pipeline Delta Live Tables.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
Le VIEW MATERIALIZED con una clausola CLUSTER BY sono supportate solo in una pipeline delta live tables.
DLT_VIEW_LOCATION_NOT_SUPPORTED
I percorsi MATERIALIZED VIEW sono supportati solo in una pipeline di tabelle live Delta.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
Gli schemi MATERIALIZED VIEW con un tipo specificato sono supportati solo in una pipeline di tabelle live Delta.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
Le clausole CONSTRAINT in una vista sono supportate solo in una pipeline delta live tables.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
I nomi di campo duplicati in Struct freccia non sono consentiti, ottenuto <fieldNames>
.
DUPLICATED_MAP_KEY
È stata trovata la chiave <key>
della mappa duplicata. Controllare i dati di input.
Se si desidera rimuovere le chiavi duplicate, è possibile impostare <mapKeyDedupPolicy>
su "LAST_WIN" in modo che la chiave inserita alla fine ha la precedenza.
DUPLICATED_METRICS_NAME
Il nome della metrica non è univoco: <metricName>
. Non è possibile usare lo stesso nome per le metriche con risultati diversi.
Tuttavia, sono consentite più istanze di metriche con lo stesso risultato e lo stesso nome (ad esempio, self-join).
DUPLICATE_ASSIGNMENTS
Le colonne o le variabili <nameList>
vengono visualizzate più volte come destinazioni di assegnazione.
DUPLICATE_CLAUSES
Clausole duplicate trovate: <clauseName>
. Rimuovere uno di essi.
DUPLICATE_KEY
Sono state trovate chiavi <keyColumn>
duplicate.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
La chiamata alla routine <functionName>
non è valida perché include più assegnazioni di argomenti allo stesso nome <parameterName>
di parametro .
Per altri dettagli, vedere DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
È stato trovato uno o più nomi duplicati nell'elenco dei parametri della routine <routineName>
definita dall'utente : <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Sono state trovate colonne duplicate nell'elenco di colonne della clausola RETURNS della routine <routineName>
definita dall'utente : <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
Il nodo precedente ha generato una riga con eventTime=<emittedRowEventTime>
precedente a current_watermark_value=<currentWatermark>
Ciò può causare problemi di correttezza negli operatori con stato downstream nella pipeline di esecuzione.
Correggere la logica dell'operatore per generare righe dopo il valore limite globale corrente.
EMPTY_JSON_FIELD_VALUE
Impossibile analizzare una stringa vuota per il tipo di <dataType>
dati .
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
File locale vuoto nella query di gestione temporanea <operation>
ENCODER_NOT_FOUND
Non è stato trovato un codificatore del tipo <typeName>
per la rappresentazione interna di Spark SQL.
Prendere in considerazione la possibilità di modificare il tipo di input in uno dei tipi supportati in '<docroot>
/sql-ref-datatypes.html'.
END_LABEL_WITHOUT_BEGIN_LABEL
L'etichetta finale non può esistere senza l'etichetta <endLabel>
iniziale.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Alcune partizioni nel report degli argomenti Kafka disponibili sono inferiori all'offset finale durante l'esecuzione di query con Trigger.AvailableNow. L'errore potrebbe essere temporaneo: riavviare la query e segnalare se viene ancora visualizzato lo stesso problema.
offset più recente: <latestOffset>
, offset finale: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Per l'origine dati Kafka con Trigger.AvailableNow, l'offset finale deve avere offset inferiore o uguale per ogni partizione di argomento rispetto all'offset prelettura. L'errore potrebbe essere temporaneo: riavviare la query e segnalare se viene ancora visualizzato lo stesso problema.
offset prelettura: <prefetchedOffset>
, offset finale: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Errore durante la lettura dei dati avro: rilevata un'impronta digitale sconosciuta: <fingerprint>
, non si è certi dello schema da usare.
Questo problema può verificarsi se sono stati registrati schemi aggiuntivi dopo l'avvio del contesto spark.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Non è possibile eseguire query sui log eventi da un cluster Assegnato o Nessun isolamento condiviso. Usare invece un cluster condiviso o un databricks SQL Warehouse.
EVENT_LOG_UNAVAILABLE
Nessun registro eventi disponibile per <tableOrPipeline>
. Riprovare più tardi dopo la generazione degli eventi
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
Il tipo di tabella di <tableIdentifier>
è <tableType>
.
L'esecuzione di query sui log eventi supporta solo viste materializzate, tabelle di streaming o pipeline di tabelle live Delta
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
L'ora <eventName>
dell'evento ha il tipo <eventType>
non valido , ma previsto "TIMESTAMP
".
EXCEED_LIMIT_LENGTH
Supera la limitazione della lunghezza del tipo char/varchar: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
La colonna <columnName>
EXCEPT è stata risolta e dovrebbe essere StructType, ma è stato trovato il tipo <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
Le colonne in un elenco EXCEPT devono essere distinte e non sovrapposte, ma ottenute (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
Le colonne EXCEPT [<exceptColumns>
] sono state risolte, ma non corrispondono ad alcuna delle colonne [<expandedColumns>
] dall'espansione a stella.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
Impossibile risolvere il nome <objectName>
di colonna/campo nella clausola EXCEPT. Si intende uno dei seguenti: [<objectList>
]?
Nota: le colonne annidate nella clausola EXCEPT potrebbero non includere qualificatori (nome tabella, nome colonna struct padre e così via) durante un'espansione dello struct; provare a rimuovere i qualificatori se vengono usati con colonne annidate.
EXECUTOR_BROADCAST_JOIN_OOM
Memoria insufficiente per compilare la relazione <relationClassName>
di trasmissione. Dimensione relazione = <relationSize>
. Memoria totale usata da questa attività = <taskMemoryUsage>
. Metriche di Gestione memoria executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
La clausola USING di questo comando EXECUTE IMMEDIATE contiene più argomenti con lo stesso alias (<aliases>
), che non è valido. Aggiornare il comando per specificare alias univoci e riprovare.
EXPECT_PERMANENT_VIEW_NOT_TEMP
'<operation>
' prevede una visualizzazione permanente, ma <viewName>
è una visualizzazione temporanea.
EXPECT_TABLE_NOT_VIEW
'<operation>
' prevede una tabella, ma <viewName>
è una vista.
Per altri dettagli, vedere EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
La tabella <tableName>
non supporta <operation>
.
Per altri dettagli, vedere EXPECT_VIEW_NOT_TABLE
EXPRESSION_DECODING_FAILED
Impossibile decodificare una riga in un valore delle espressioni: <expressions>
.
EXPRESSION_ENCODING_FAILED
Impossibile codificare un valore delle espressioni: <expressions>
in una riga.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
Impossibile ordinare l'espressione <expr>
di colonna perché il tipo <exprType>
non è ordinabile.
EXTERNAL_TABLE_INVALID_SCHEME
Le tabelle esterne non supportano lo <scheme>
schema.
FABRIC_REFRESH_INVALID_SCOPE
Errore durante l'esecuzione di 'REFRESH FOREIGN <scope>
<name>
'. Impossibile aggiornare direttamente un'infrastruttura <scope>
. Usare invece 'REFRESH FOREIGN CATALOG <catalogName>
' per aggiornare il catalogo infrastruttura.
FAILED_EXECUTE_UDF
La funzione definita dall'utente (: (<functionName>
<signature>
) =><result>
) non è riuscita a causa di: <reason>
.
FAILED_FUNCTION_CALL
Preparazione non riuscita della funzione <funcName>
per la chiamata. Verificare gli argomenti della funzione.
FAILED_JDBC
JDBC <url>
non riuscito nell'operazione:
Per altri dettagli, vedere FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Struct di analisi non riuscito: <raw>
.
FAILED_READ_FILE
Errore durante la lettura del file <path>
.
Per altri dettagli, vedere FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Impossibile registrare le classi con Kryo.
FAILED_RENAME_PATH
Impossibile rinominarlo <sourcePath>
<targetPath>
come destinazione già esistente.
FAILED_RENAME_TEMP_FILE
Impossibile rinominare il file <srcPath>
<dstPath>
temporaneo in come FileSystem.rename ha restituito false.
FAILED_ROW_TO_JSON
Impossibile convertire il valore <value>
della riga della classe <class>
nel tipo SQL di <sqlType>
destinazione nel formato JSON.
FAILED_TO_PARSE_TOO_COMPLEX
L'istruzione, incluse le potenziali funzioni SQL e le viste a cui si fa riferimento, era troppo complessa da analizzare.
Per attenuare questo errore, dividere l'istruzione in più blocchi meno complessi.
FEATURE_NOT_ENABLED
La funzionalità <featureName>
non è abilitata. Valutare la possibilità di impostare la configurazione <configKey>
su <configValue>
per abilitare questa funzionalità.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
non è supportato nei data warehouse SQL classici. Per usare questa funzionalità, usare un'istanza di SQL Warehouse Pro o Serverless. Per altre informazioni sui tipi di magazzino, vedere <docLink>
FEATURE_REQUIRES_UC
<feature>
non è supportato senza Il catalogo unity. Per usare questa funzionalità, abilitare Unity Catalog. Per altre informazioni su Unity Catalog, vedere <docLink>
FEATURE_UNAVAILABLE
<feature>
non è supportato nell'ambiente in uso. Per usare questa funzionalità, contattare il supporto tecnico di Databricks.
FIELD_ALREADY_EXISTS
Impossibile <op>
eseguire la colonna perché <fieldNames>
esiste già in <struct>
.
FIELD_NOT_FOUND
Nessun campo <fieldName>
struct di questo tipo in <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
Il file nel percorso <path>
di staging esiste già, ma OVERWRITE non è impostato
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Si è verificato un errore nella funzione fornita dall'utente in flatMapGroupsWithState. Ragione: <reason>
FORBIDDEN_OPERATION
L'operazione <statement>
non è consentita in <objectType>
: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Si è verificato un errore nella funzione fornita dall'utente nel sink batch foreach. Ragione: <reason>
FOREACH_USER_FUNCTION_ERROR
Si è verificato un errore nella funzione fornita dall'utente nel sink foreach. Ragione: <reason>
FOREIGN_KEY_MISMATCH
Le colonne <parentColumns>
padre di chiave esterna non corrispondono alle colonne <childColumns>
figlio della chiave primaria.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Impossibile eseguire questo comando perché il nome esterno <objectType>
deve essere non vuoto.
FOUND_MULTIPLE_DATA_SOURCES
Sono stati rilevati più origini dati con il nome '<provider>
'. Verificare che l'origine dati non sia registrata contemporaneamente e che si trovi nel classpath.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
from_json inferenza rilevata aggiornamenti dello schema in conflitto in: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) presente
in un oggetto JSON e non può più procedere. Configurare un valore diverso per
opzione 'columnNameOfCorruptRecord'.
FROM_JSON_CORRUPT_SCHEMA
from_json inferenza non è riuscita a leggere lo schema archiviato in: <location>
FROM_JSON_INFERENCE_FAILED
from_json non è stato in grado di dedurre lo schema. Specificarne una.
FROM_JSON_INFERENCE_NOT_SUPPORTED
from_json inferenza è supportata solo quando si definiscono le tabelle di streaming
FROM_JSON_INVALID_CONFIGURATION
from_json configurazione non è valida:
Per altri dettagli, vedere FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json non poteva evolversi da <old>
a <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
La funzione <function>
richiede parametri denominati. Nomi mancanti dei parametri: <exprs>
. Aggiornare la chiamata di funzione per aggiungere nomi per tutti i parametri, <function>
ad esempio (param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Una colonna non può avere sia un valore predefinito che un'espressione di generazione, ma la colonna <colName>
ha un valore predefinito: (<defaultValue>
) e un'espressione di generazione: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
Hive 2.2 e versioni precedenti non supportano getTablesByType. Usare Hive 2.3 o versione successiva.
GET_WARMUP_TRACING_FAILED
Impossibile ottenere la traccia di riscaldamento. Causa: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Funzione get_warmup_tracing() non consentita.
GRAPHITE_SINK_INVALID_PROTOCOL
Protocollo Graphite non valido: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
Il sink Graphite richiede la proprietà '<property>
'.
GROUPING_COLUMN_MISMATCH
La colonna di raggruppamento (<grouping>
) non è disponibile nelle colonne <groupingColumns>
di raggruppamento .
GROUPING_ID_COLUMN_MISMATCH
Le colonne di grouping_id (<groupingIdColumn>
) non corrispondono alle colonne di raggruppamento (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
Le dimensioni dei set di raggruppamento non possono essere maggiori di <maxSize>
.
GROUP_BY_AGGREGATE
Le funzioni di aggregazione non sono consentite in GROUP BY, ma sono state trovate <sqlExpr>
.
Per altri dettagli, vedere GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
fa riferimento a un'espressione <aggExpr>
che contiene una funzione di aggregazione. Le funzioni di aggregazione non sono consentite in GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
La posizione <index>
GROUP BY non è nell'elenco di selezione (l'intervallo valido è [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
L'espressione <sqlExpr>
non può essere utilizzata come espressione di raggruppamento perché il tipo di <dataType>
dati non è un tipo di dati ordinabile.
HDFS_HTTP_ERROR
Quando si tenta di leggere da HDFS, la richiesta HTTP non è riuscita.
Per altri dettagli, vedere HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Chiamata non valida a <function>
. Sono supportati solo buffer di schizzo HLL validi come input( ad esempio quelli prodotti dalla hll_sketch_agg
funzione).
HLL_INVALID_LG_K
Chiamata non valida a <function>
. Il lgConfigK
valore deve essere compreso tra <min>
e <max>
, inclusivo: <value>
.
HLL_UNION_DIFFERENT_LG_K
Gli schizzi hanno valori diversi lgConfigK
: <left>
e <right>
. Impostare il allowDifferentLgConfigK
parametro su true per chiamare <function>
con valori diversi lgConfigK
.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
non è un identificatore valido perché contiene più di 2 parti del nome.
ILLEGAL_STATE_STORE_VALUE
Valore non valido fornito all'archivio stati
Per altri dettagli, vedere ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
Colonna pivot <columnName>
non valida. Le colonne pivot devono essere confrontabili.
INCOMPATIBLE_COLUMN_TYPE
<operator>
può essere eseguita solo su tabelle con tipi di colonna compatibili. La <columnOrdinalNumber>
colonna della <tableOrdinalNumber>
tabella è <dataType1>
di tipo che non è compatibile con <dataType2>
la stessa colonna della prima tabella.<hint>
INCOMPATIBLE_DATASOURCE_REGISTER
Rilevato un oggetto DataSourceRegister non compatibile. Rimuovere la libreria incompatibile da classpath o aggiornarla. Errore: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Impossibile scrivere dati incompatibili per la tabella <tableName>
:
Per altri dettagli, vedere INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
I tipi di <joinType1>
join e <joinType2>
non sono compatibili.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
La query SQL della vista <viewName>
presenta una modifica dello schema incompatibile e la colonna <colName>
non può essere risolta. Colonne previste denominate <expectedNum>
<colName>
ma ottenute <actualCols>
.
Provare a ricreare la vista eseguendo: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Tipo complesso incompleto:
Per altri dettagli, vedere INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
È possibile ottenere un risultato diverso a causa dell'aggiornamento a
Per altri dettagli, vedere INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
richiede almeno <minArgs>
argomenti e al massimo <maxArgs>
argomenti.
INCORRECT_RAMP_UP_RATE
L'offset massimo con <rowsPerSecond>
rowsPerSecond è <maxSeconds>
, ma 'rampUpTimeSeconds' è <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
La funzione chiamata richiede la conoscenza delle regole di confronto da applicare, ma sono state trovate regole di confronto indeterminato. Usare la funzione COLLATE per impostare le regole di confronto in modo esplicito.
INDEX_ALREADY_EXISTS
Impossibile creare l'indice <indexName>
nella tabella <tableName>
perché esiste già.
INDEX_NOT_FOUND
Impossibile trovare l'indice <indexName>
nella tabella <tableName>
.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Il tipo di <trigger>
trigger non è supportato per questo tipo di cluster.
Usa un tipo di trigger diverso, ad esempio AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Impossibile scrivere in <tableName>
, il motivo è
Per altri dettagli, vedere INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Impossibile scrivere in '<tableName>
', <reason>
:
Colonne di tabella: <tableColumns>
.
Partizionare colonne con valori statici: <staticPartCols>
.
Colonne di dati: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Privilegi insufficienti:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
L'utente <user>
dispone di privilegi insufficienti per la posizione <location>
esterna.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Non esiste alcun proprietario per <securableName>
. Chiedere all'amministratore di impostare un proprietario.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
L'utente non è proprietario <securableName>
di .
INSUFFICIENT_PERMISSIONS_SECURABLE
L'utente non dispone dell'autorizzazione <action>
per <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
Il proprietario di <securableName>
è diverso dal proprietario di <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
Le credenziali <credentialName>
di archiviazione non hanno privilegi sufficienti.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
L'utente non può <action>
usare a <securableName>
causa delle autorizzazioni per le entità a protezione diretta sottostanti.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
L'utente non può <action>
usare a <securableName>
causa delle autorizzazioni per le entità a protezione diretta sottostanti:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Divisione per zero. Usare try_divide
per tollerare che il divisore sia 0 e restituire NULL.
INVALID_AGGREGATE_FILTER
L'espressione <filterExpr>
FILTER in una funzione di aggregazione non è valida.
Per altri dettagli, vedere INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
L'indice <indexValue>
non è compreso nei limiti. La matrice contiene <arraySize>
elementi. Usare la funzione get()
SQL per tollerare l'accesso all'elemento in corrispondenza di un indice non valido e restituire invece NULL. Se necessario, impostare su <ansiConfig>
"false" per ignorare questo errore.
Per altri dettagli, vedere INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
L'indice <indexValue>
non è compreso nei limiti. La matrice contiene <arraySize>
elementi. Usare try_element_at
per tollerare l'accesso all'elemento in corrispondenza dell'indice non valido e restituire invece NULL. Se necessario, impostare su <ansiConfig>
"false" per ignorare questo errore.
Per altri dettagli, vedere INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
La posizione <bitPosition>
bitmap indicizzata a 0 non rientra nei limiti. La bitmap ha <bitmapNumBits>
bit (<bitmapNumBytes>
byte).
INVALID_BOOLEAN_STATEMENT
L'istruzione booleana è prevista nella condizione , ma <invalidStatement>
è stata trovata.
INVALID_BOUNDARY
Il limite <boundary>
non è valido: <invalidValue>
.
Per altri dettagli, vedere INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Impossibile usare <type>
per la colonna bucket. I tipi di dati compressi non sono supportati per il bucket.
INVALID_BUCKET_FILE
File bucket non valido: <path>
.
INVALID_BYTE_STRING
Il formato previsto è ByteString, ma è (<unsupported>
<class>
).
INVALID_COLUMN_NAME_AS_PATH
L'origine <datasource>
dati non può salvare la colonna <columnName>
perché il nome contiene alcuni caratteri non consentiti nei percorsi di file. Usare un alias per rinominarlo.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
La colonna o il campo <name>
è di tipo <type>
mentre è necessario essere <expectedType>
.
INVALID_CONF_VALUE
Il valore '<confValue>
' nella configurazione "<confName>
" non è valido.
Per altri dettagli, vedere INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
current_recipient
la funzione può essere usata solo nell'istruzione o nell'istruzione CREATE VIEW
ALTER VIEW
per definire una visualizzazione di condivisione solo in Unity Catalog.
INVALID_CURSOR
Il cursore non è valido.
Per altri dettagli, vedere INVALID_CURSOR
INVALID_DATETIME_PATTERN
Modello datetime non riconosciuto: <pattern>
.
Per altri dettagli, vedere INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Impossibile eseguire <statement>
il comando perché la colonna o la variabile <colName>
di destinazione ha un valore <defaultValue>
DEFAULT,
Per altri dettagli, vedere INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Valore non valido per il delimitatore.
Per altri dettagli, vedere INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
Il catalogo di destinazione del comando SYNC deve essere all'interno del catalogo unity. Trovato <catalog>
.
INVALID_DRIVER_MEMORY
La memoria <systemMemory>
di sistema deve essere almeno <minSystemMemory>
.
Aumentare le dimensioni dell'heap usando l'opzione –driver-memory o "<config>
" nella configurazione di Spark.
INVALID_DYNAMIC_OPTIONS
Le opzioni passate <option_list> non sono consentite per i table_name> di tabella <esterna.
INVALID_EMPTY_LOCATION
Il nome della posizione non può essere una stringa vuota, ma <location>
è stato assegnato.
INVALID_ESC
Trovato una stringa di escape non valida: <invalidEscape>
. La stringa di escape deve contenere un solo carattere.
INVALID_ESCAPE_CHAR
EscapeChar
deve essere un valore letterale stringa di lunghezza 1, ma ha ottenuto <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
La memoria <executorMemory>
dell'executor deve essere almeno <minSystemMemory>
.
Aumentare la memoria dell'executor usando l'opzione –executor-memory o "<config>
" nella configurazione di Spark.
INVALID_EXPRESSION_ENCODER
Trovato un codificatore di espressioni non valido. Prevede un'istanza di ExpressionEncoder ma ha ottenuto <encoderType>
. Per altre informazioni, vedere '<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html'.
INVALID_EXTRACT_BASE_FIELD_TYPE
Non è possibile estrarre un valore da <base>
. È necessario un tipo complesso [STRUCT
, ARRAY
, MAP
] ma è stato ottenuto <other>
.
INVALID_EXTRACT_FIELD
Impossibile estrarre <field>
da <expr>
.
INVALID_EXTRACT_FIELD_TYPE
Il nome del campo deve essere un valore letterale stringa non Null, ma è <extraction>
.
INVALID_FIELD_NAME
<fieldName>
Nome campo non valido: <path>
non è uno struct.
INVALID_FORMAT
Il formato non è valido: <format>
.
Per altri dettagli, vedere INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
La frazione di sec deve essere zero. L'intervallo valido è [0, 60]. Se necessario, impostare su <ansiConfig>
"false" per ignorare questo errore.
INVALID_HANDLE
L'handle <handle>
non è valido.
Per altri dettagli, vedere INVALID_HANDLE
INVALID_IDENTIFIER
L'identificatore <ident>
senza virgolette non è valido e deve essere riportato tra virgolette come : <ident>
.
Gli identificatori senza virgolette possono contenere solo lettere ASCII ('a' - 'z', 'A' - 'Z'), cifre ('0' - '9') e barra inferiore ('_').
Anche gli identificatori senza virgolette non devono iniziare con una cifra.
Origini dati e meta archivi diversi possono imporre restrizioni aggiuntive per gli identificatori validi.
INVALID_INDEX_OF_ZERO
L'indice 0 non è valido. Un indice deve essere < 0 o > 0 (il primo elemento ha indice 1).
INVALID_INLINE_TABLE
Tabella inline non valida.
Per altri dettagli, vedere INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Errore durante l'analisi di '<input>
' in intervallo. Assicurarsi che il valore specificato sia in un formato valido per la definizione di un intervallo. È possibile fare riferimento alla documentazione per il formato corretto.
Per altri dettagli, vedere INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Funzione di distribuzione <funcName>
inversa non valida.
Per altri dettagli, vedere INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JOIN_TYPE_FOR_JOINWITH
Tipo di join non valido in joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Impossibile convertire la stringa JSON '<invalidType>
' in un tipo di dati. Immettere un tipo di dati valido.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
Le regole di confronto possono essere applicate solo ai tipi stringa, ma il tipo di dati JSON è <jsonType>
.
INVALID_JSON_ROOT_FIELD
Impossibile convertire il campo radice JSON nel tipo spark di destinazione.
INVALID_JSON_SCHEMA_MAP_TYPE
Lo schema <jsonSchema>
di input può contenere STRING
solo come tipo di chiave per un oggetto MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
Il valore della configurazione "<bufferSizeConfKey>
" deve essere minore di 2048 MiB, ma ha ottenuto <bufferSizeConfValue>
MiB.
INVALID_LABEL_USAGE
L'utilizzo dell'etichetta <labelName>
non è valido.
Per altri dettagli, vedere INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Chiamata di funzione lambda non valida.
Per altri dettagli, vedere INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
La <joinType>
correlazione JOIN con LATERAL non è consentita perché una sottoquery OUTER non può essere correlata al partner di join. Rimuovere la correlazione LATERAL o usare un INNER JOIN o LEFT OUTER JOIN.
INVALID_LIMIT_LIKE_EXPRESSION
Il limite come l'espressione <expr>
non è valida.
Per altri dettagli, vedere INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
Il nome della posizione non può essere un URI non valido, ma <location>
è stato assegnato.
INVALID_NON_ABSOLUTE_PATH
Il percorso <path>
non assoluto specificato non può essere qualificato. Aggiornare il percorso in modo che sia un percorso di montaggio dbfs valido.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
L'operatore prevede un'espressione deterministica, ma l'espressione effettiva è <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
Il valore letterale numerico <rawStrippedQualifier>
non è compreso nell'intervallo valido per <typeName>
con il valore minimo di <minValue>
e il valore massimo di <maxValue>
. Modificare il valore di conseguenza.
INVALID_OBSERVED_METRICS
Metriche osservate non valide.
Per altri dettagli, vedere INVALID_OBSERVED_METRICS
INVALID_OPTIONS
Opzioni non valide:
Per altri dettagli, vedere INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
La funzione definita <functionList>
dall'utente pandas aggregate del gruppo non può essere richiamata insieme ad altre funzioni di aggregazione non pandas.
INVALID_PARAMETER_MARKER_VALUE
È stato fornito un mapping di parametri non valido:
Per altri dettagli, vedere INVALID_PARAMETER_MARKER_VALUE
INVALID_PARAMETER_VALUE
Il valore dei parametri <parameter>
in <functionName>
non è valido:
Per altri dettagli, vedere INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Impossibile utilizzare <type>
per la colonna di partizione.
INVALID_PARTITION_OPERATION
Il comando di partizione non è valido.
Per altri dettagli, vedere INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
ID <pipelineId>
pipeline non valido.
Un ID pipeline deve essere un UUID nel formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
INVALID_PRIVILEGE
Il privilegio <privilege>
non è valido per <securable>
.
INVALID_PROPERTY_KEY
<key>
è una chiave di proprietà non valida, usare virgolette, ad esempio SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
è un valore di proprietà non valido, usare virgolette, ad esempio SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
La query con parametri deve usare parametri posizionali o denominati, ma non entrambi.
INVALID_S3_COPY_CREDENTIALS
Le credenziali COPY INTO devono includere AWS_ACCESS_KEY, AWS_SECRET_KEY e AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
La modalità di <mode>
salvataggio specificata non è valida. Le modalità di salvataggio valide includono "append", "overwrite", "ignore", "error", "errorifexists" e "default".
INVALID_SCHEMA
Lo schema di input non è una stringa di <inputSchema>
schema valida.
Per altri dettagli, vedere INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
non è un nome valido per tabelle/schemi. I nomi validi contengono solo caratteri alfabetici, numeri e _.
INVALID_SCHEME
Il catalogo unity non supporta <name>
lo schema di file predefinito.
INVALID_SECRET_LOOKUP
Ricerca segreta non valida:
Per altri dettagli, vedere INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
Il formato previsto è 'SET', 'SET key' o 'SET key=value'. Se si desidera includere caratteri speciali nella chiave o includere il punto e virgola nel valore, usare le virgolette, ad esempio SET key
=value
.
INVALID_SHARED_ALIAS_NAME
Il nome dell'alias <sharedObjectType>
deve essere del formato "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
L'opzione singleVariantColumn
non può essere utilizzata se è presente anche uno schema specificato dall'utente.
INVALID_SOURCE_CATALOG
Il catalogo di origine non deve trovarsi all'interno del catalogo Unity per il comando SYNC. Trovato <catalog>
.
INVALID_SQL_ARG
L'argomento <name>
di sql()
non è valido. Prendere in considerazione la possibilità di sostituirla con un valore letterale SQL o tramite funzioni del costruttore di raccolta, ad map()
esempio , array()
, struct()
.
INVALID_SQL_SYNTAX
Sintassi SQL non valida:
Per altri dettagli, vedere INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Percorso di staging non valido nella query di staging <operation>
: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
La clausola INTO di EXECUTE IMMEDIATE è valida solo per le query, ma l'istruzione specificata non è una query: <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
Istruzione o clausola: <operation>
non valida.
INVALID_SUBQUERY_EXPRESSION
Sottoquery non valida:
Per altri dettagli, vedere INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
Impossibile creare l'oggetto <objName>
permanente del tipo <obj>
perché fa riferimento all'oggetto <tempObjName>
temporaneo del tipo <tempObj>
. Rendere persistente l'oggetto <tempObjName>
temporaneo o rendere temporaneo l'oggetto <objName>
permanente.
INVALID_TIMESTAMP_FORMAT
Il timestamp <timestamp>
specificato non corrisponde alla sintassi <format>
prevista.
INVALID_TIME_TRAVEL_SPEC
Impossibile specificare sia la versione che il timestamp quando si sposta la tabella.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
L'espressione <expr>
timestamp di spostamento temporale non è valida.
Per altri dettagli, vedere INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
Il valore del valore letterale <valueType>
tipizzato non è valido: <value>
.
INVALID_UDF_IMPLEMENTATION
La funzione <funcName>
non implementa scalarFunction o AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
la tabella di origine si trova nel metastore Hive e la tabella di destinazione si trova nel catalogo unity.
INVALID_URL
L'URL non è valido: <url>
. Se necessario, impostare su <ansiConfig>
"false" per ignorare questo errore.
INVALID_USAGE_OF_STAR_OR_REGEX
Utilizzo non valido di <elem>
in <prettyName>
.
INVALID_UTF8_STRING
Sequenza di byte UTF8 non valida trovata nella stringa: <str>
.
INVALID_UUID
L'input <uuidInput>
non è un UUID valido.
L'UUID deve essere nel formato 'xxxxxxxx-xxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx'
Controllare il formato dell'UUID.
INVALID_VARIABLE_DECLARATION
Dichiarazione di variabile non valida.
Per altri dettagli, vedere INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
Il tipo di variabile deve essere di tipo stringa, ma ha ottenuto <varType>
.
INVALID_VARIANT_CAST
Non è possibile eseguire il cast del valore <value>
variant in <dataType>
. Usare invece try_variant_get
.
INVALID_VARIANT_FROM_PARQUET
Variante non valida.
Per altri dettagli, vedere INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
Il percorso non è un percorso <path>
di estrazione variante valido in <functionName>
.
Un percorso valido deve iniziare con $
e è seguito da zero o più segmenti come [123]
, .name
['name']
, o ["name"]
.
INVALID_WHERE_CONDITION
La condizione <condition>
WHERE contiene espressioni non valide: <expressionList>
.
Riscrivere la query per evitare funzioni finestra, funzioni di aggregazione e funzioni generatori nella clausola WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Impossibile specificare ORDER BY o un frame di finestra per <aggFunc>
.
INVALID_WRITER_COMMIT_MESSAGE
Il writer dell'origine dati ha generato un numero non valido di messaggi di commit. Previsto esattamente un messaggio di commit del writer da ogni attività, ma ha ricevuto <detail>
.
INVALID_WRITE_DISTRIBUTION
La distribuzione di scrittura richiesta non è valida.
Per altri dettagli, vedere INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
La condizione <joinCondition>
di join ha il tipo <conditionType>
non valido , previsto "BOOLEAN
".
KAFKA_DATA_LOSS
Alcuni dati potrebbero essere stati persi perché non sono più disponibili in Kafka;
i dati sono stati obsoleti da Kafka o l'argomento potrebbe essere stato eliminato prima di tutti i dati in
l'argomento è stato elaborato.
Se non si vuole che la query di streaming non riesca in questi casi, impostare l'opzione di origine failOnDataLoss su false.
Motivo:
Per altri dettagli, vedere KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Impossibile leggere fino al numero <endSeqNum>
di sequenza desiderato per la partizione <shardId>
in
flusso <stream>
delle librerie con modalità <consumerMode>
consumer . La query avrà esito negativo a causa di
potenziale perdita di dati. L'ultimo record di lettura era in corrispondenza del numero <lastSeqNum>
di sequenza .
Questo problema può verificarsi se i dati con endSeqNum sono già stati obsoleti o se il flusso delle Classi era
eliminato e ricostruito con lo stesso nome. È possibile eseguire l'override del comportamento di errore
impostando spark.databricks.gateways.failOnDataLoss su false nella configurazione di Spark.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
Il valore minimo di shardId recuperatodaoe (<fetchedShardId>
)
è minore del valore minimo di shardId rilevato (<trackedShardId>
).
Si tratta di un evento imprevisto e si verifica quando viene eliminato e ricreato un flusso con lo stesso nome,
e una query di streaming che usa questo flusso di Xamls viene riavviata usando una posizione di checkpoint esistente.
Riavviare la query di streaming con un nuovo percorso del checkpoint oppure creare un flusso con un nuovo nome.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Per la partizione <shard>
, l'ultimo record letto da Esegue nelle operazioni di recupero precedenti ha il numero <lastSeqNum>
di sequenza ,
maggiore del record letto nel recupero corrente con numero <recordSeqNum>
di sequenza .
Ciò è imprevisto e può verificarsi quando la posizione iniziale di ripetizione o recupero successivo viene inizializzata in modo non corretto e può comportare record duplicati downstream.
KRYO_BUFFER_OVERFLOW
Serializzazione kryo non riuscita: <exceptionMsg>
. Per evitare questo problema, aumentare il valore "<bufferSizeConfKey>
".
LABELS_MISMATCH
L'etichetta <beginLabel>
Begin non corrisponde all'etichetta <endLabel>
finale .
LOAD_DATA_PATH_NOT_EXISTS
Il percorso di input LOAD DATA non esiste: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
LOCAL deve essere usato insieme allo schema di file
, ma ottenuto: <actualSchema>
.
LOCATION_ALREADY_EXISTS
Impossibile denominare la tabella gestita come <identifier>
, perché esiste già la posizione <location>
associata. Selezionare un nome di tabella diverso o rimuovere prima la posizione esistente.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Alcune partizioni negli argomenti Kafka sono state perse durante l'esecuzione di query con Trigger.AvailableNow. L'errore potrebbe essere temporaneo: riavviare la query e segnalare se viene ancora visualizzato lo stesso problema.
topic-partitions per l'offset più recente: <tpsForLatestOffset>
, topic-partitions per l'offset finale: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
I messaggi Avro in formato non valido vengono rilevati nella deserializzazione dei messaggi. Modalità analisi: <mode>
. Per elaborare il messaggio Avro in formato non valido come risultato null, provare a impostare l'opzione 'mode' su 'PERMISSIVE'.
MALFORMED_CHARACTER_CODING
Valore non valido trovato durante l'esecuzione <function>
con <charset>
MALFORMED_CSV_RECORD
Record CSV in formato non valido: <badRecord>
MALFORMED_RECORD_IN_PARSING
I record in formato non valido vengono rilevati nell'analisi dei record: <badRecord>
.
Modalità analisi: <failFastMode>
. Per elaborare record in formato non valido come risultato Null, provare a impostare l'opzione 'mode' su 'PERMISSIVE'.
Per altri dettagli, vedere MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
Il file binario variant non è valido. Verificare che l'origine dati sia valida.
MANAGED_TABLE_WITH_CRED
La creazione di una tabella gestita con credenziali di archiviazione non è supportata.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
Impossibile <refreshType>
materializzare la vista perché precede la presenza di un valore pipelineId. Per abilitare <refreshType>
rilasciare e ricreare la visualizzazione materializzata.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
L'operazione <operation>
di visualizzazione materializzata non è consentita:
Per altri dettagli, vedere MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
L'espressione <expression>
di output in una vista materializzata deve essere in modo esplicito con alias.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Impossibile creare la vista <name>
materializzata con la query di streaming. Usare CREATE [OR REFRESH] STREAMING TABLE o rimuovere la parola chiave STREAM nella clausola FROM per trasformare questa relazione in una query batch.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
L'operazione <operation>
non è supportata nelle viste materializzate per questa versione.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Impossibile creare la nuova variabile <variableName>
perché il numero di variabili nella sessione supera il numero massimo consentito (<maxNumVariables>
).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch deve essere un numero intero positivo minore o uguale a <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
La condizione di ricerca ON dell'istruzione MERGE corrisponde a una singola riga della tabella di destinazione con più righe della tabella di origine.
Ciò potrebbe comportare l'esecuzione della riga di destinazione più volte con un'operazione di aggiornamento o eliminazione e non è consentita.
METRIC_CONSTRAINT_NOT_SUPPORTED
VINCOLO METRICA non abilitato.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
Il valore specificato "<argValue>
" non è supportato dall'argomento "<argName>
" per la funzione tabella METRIC_STORE.
Per altri dettagli, vedere METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
La funzione <functionName>
Metric Store è attualmente disabilitata in questo ambiente.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
L'origine dati Kafka in Trigger.AvailableNow deve fornire le stesse partizioni degli argomenti nell'offset prelettura fino all'offset finale per ogni microbatch. L'errore potrebbe essere temporaneo: riavviare la query e segnalare se viene ancora visualizzato lo stesso problema.
topic-partitions for pre-fetched offset: <tpsForPrefetched>
, topic-partitions for end offset: <tpsForEndOffset>
.
MISSING_AGGREGATION
L'espressione <expression>
non di aggregazione si basa su colonne che non fanno parte della clausola GROUP BY.
Aggiungere le colonne o l'espressione all'oggetto GROUP BY, aggregare l'espressione oppure usare <expressionAnyValue>
se non si ha attenzione a quale dei valori all'interno di un gruppo viene restituito.
Per altri dettagli, vedere MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
Le connessioni di tipo '<connectionType>
' devono includere le opzioni seguenti: <requiredOptions>
.
MISSING_GROUP_BY
La query non include una clausola GROUP BY. Aggiungere GROUP BY o trasformarlo nelle funzioni finestra usando le clausole OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
Il vincolo CHECK deve avere un nome.
MISSING_PARAMETER_FOR_KAFKA
Il parametro <parameterName>
è obbligatorio per Kafka, ma non è specificato in <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
Il parametro <parameterName>
è obbligatorio, ma non è specificato in <functionName>
.
MISSING_WINDOW_SPECIFICATION
La specifica della finestra non è definita nella clausola WINDOW per <windowName>
. Per altre informazioni sulle clausole WINDOW, vedere "<docroot>
/sql-ref-syntax-qry-select-window.html".
MODIFY_BUILTIN_CATALOG
La modifica del catalogo <catalogName>
predefinito non è supportata.
MULTIPLE_LOAD_PATH
Databricks Delta non supporta più percorsi di input nell'API load().
paths: <pathList>
. Per compilare un singolo dataframe caricando
più percorsi dalla stessa tabella Delta, caricare il percorso radice di
tabella Delta con i filtri di partizione corrispondenti. Se i percorsi multipli
provengono da tabelle Delta diverse. Usare le API union()/unionByName() del set di dati
per combinare i dataframe generati da chiamate API load() separate.
MULTIPLE_MATCHING_CONSTRAINTS
Sono stati trovati almeno due vincoli corrispondenti con la condizione specificata.
MULTIPLE_TIME_TRAVEL_SPEC
Impossibile specificare il viaggio di tempo sia nella clausola time travel che nelle opzioni.
MULTIPLE_XML_DATA_SOURCE
Rilevate più origini dati con il nome <provider>
(<sourceNames>
). Specificare il nome completo della classe o rimuoverlo <externalSource>
dal classpath.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
L'espressione <expr>
non supporta più di un'origine.
MULTI_UDF_INTERFACE_ERROR
Non è consentito implementare più interfacce UDF, classe <className>
UDF .
MUTUALLY_EXCLUSIVE_CLAUSES
Clausole o opzioni <clauses>
che si escludono a vicenda. Rimuovere una di queste clausole.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
La query di input prevede un <expectedType>
oggetto , ma la tabella sottostante è .<givenType>
NAMED_PARAMETERS_NOT_SUPPORTED
I parametri denominati non sono supportati per la funzione <functionName>
. Riprovare la query con argomenti posizionali alla chiamata di funzione.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Impossibile chiamare la funzione <functionName>
perché i riferimenti agli argomenti denominati non sono supportati. In questo caso, il riferimento all'argomento denominato era <argument>
.
NAMED_PARAMETER_SUPPORT_DISABLED
Impossibile chiamare la funzione <functionName>
perché i riferimenti agli argomenti denominati non sono abilitati qui.
In questo caso, il riferimento all'argomento denominato era <argument>
.
Impostare "spark.sql.allowNamedFunctionArguments" su "true" per attivare la funzionalità.
NAMESPACE_ALREADY_EXISTS
Impossibile creare lo spazio dei nomi <nameSpaceName>
perché esiste già.
Scegliere un nome diverso, eliminare lo spazio dei nomi esistente o aggiungere la clausola IF NOT EXISTS per tollerare lo spazio dei nomi preesistente.
NAMESPACE_NOT_EMPTY
Impossibile eliminare uno spazio dei nomi <nameSpaceNameName>
perché contiene oggetti .
Usare DROP NAMESPACE ... CASCADE per eliminare lo spazio dei nomi e tutti i relativi oggetti.
NAMESPACE_NOT_FOUND
Impossibile trovare lo spazio dei nomi <nameSpaceName>
. Verificare l'ortografia e la correttezza dello spazio dei nomi.
Se il nome non è stato qualificato, verificare l'output current_schema() o qualificare correttamente il nome.
Per tollerare l'errore in caso di eliminazione, usare DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Richiesta nativa non riuscita. requestId: <requestId>
, cloud: <cloud>
, operazione: <operation>
request: [https: <https>
, method = <method>
, path = <path>
, params = , host = <host>
<params>
, headers = , bodyLen = <bodyLen>
<headers>
],
errore: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
L'origine dati XML nativa non è abilitata in questo cluster.
NESTED_AGGREGATE_FUNCTION
Non è consentito usare una funzione di aggregazione nell'argomento di un'altra funzione di aggregazione. Usare la funzione di aggregazione interna in una sottoquery.
NESTED_EXECUTE_IMMEDIATE
I comandi EXECUTE IMMEDIATE annidati non sono consentiti. Assicurarsi che la query SQL fornita (<sqlString>
) non contenga un altro comando EXECUTE IMMEDIATE.
NONEXISTENT_FIELD_NAME_IN_LIST
<nonExistFields>
I campi non esistono. Campi disponibili: <fieldNames>
NON_FOLDABLE_ARGUMENT
La funzione <funcName>
richiede che il parametro <paramName>
sia un'espressione piegabile del tipo <paramType>
, ma l'argomento effettivo non è piegabile.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando in un'istruzione MERGE sono presenti più clausole MATCHED, solo l'ultima clausola MATCHED può omettere la condizione.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando in un'istruzione MERGE sono presenti più clausole NOT MATCHED BY SOURCE, solo l'ultima clausola NOT MATCHED BY SOURCE può omettere la condizione.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Quando in un'istruzione MERGE sono presenti più clausole NOT MATCHED [BY TARGET], solo l'ultima clausola NOT MATCHED [BY TARGET] può omettere la condizione.
NON_LITERAL_PIVOT_VALUES
Sono state trovate <expression>
espressioni letterali necessarie per i valori pivot.
NON_PARTITION_COLUMN
La clausola PARTITION non può contenere la colonna non di partizione: <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
La funzione Window non è supportata in (come colonna <columnName>
) nei <windowFunc>
dataframe/set di dati in streaming.
Structured Streaming supporta solo l'aggregazione temporale usando la funzione WINDOW. (specifica della finestra: <windowSpec>
)
NOT_ALLOWED_IN_FROM
Non consentito nella clausola FROM:
Per altri dettagli, vedere NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
L'espressione <expr>
utilizzata per la routine o la clausola <name>
deve essere una costante STRING
che è NOT NULL.
Per altri dettagli, vedere NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
L'operazione <operation>
non è consentita perché <tableIdentWithDB>
non è una tabella partizionata.
NOT_A_SCALAR_FUNCTION
<functionName>
viene visualizzato come espressione scalare, ma la funzione è stata definita come funzione di tabella. Aggiornare la query per spostare la chiamata di funzione nella clausola FROM oppure ridefinire <functionName>
come funzione scalare.
NOT_A_TABLE_FUNCTION
<functionName>
viene visualizzato come funzione di tabella, ma la funzione è stata definita come funzione scalare. Aggiornare la query per spostare la chiamata di funzione all'esterno della clausola FROM oppure ridefinire <functionName>
come funzione di tabella.
NOT_NULL_ASSERT_VIOLATION
Valore NULL visualizzato nel campo non nullable: <walkedTypePath>
se lo schema viene dedotto da una classe di tupla/case Scala o da un bean Java, provare a usare scala. Option[_] o altri tipi nullable ,ad esempio java.lang.Integer anziché int/scala. Int).
NOT_NULL_CONSTRAINT_VIOLATION
L'assegnazione di un valore NULL non è consentita qui.
Per altri dettagli, vedere NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN non è supportato per la modifica della colonna <originName>
con tipo su con tipo <newType>
<originType>
<newName>
.<table>
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
non è supportato per le tabelle v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
non è supportato, se si vuole abilitarlo, impostare "spark.sql.catalogImplementation" su "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Comando non supportato nel catalogo JDBC:
Per altri dettagli, vedere NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
non è supportato in un'istanza di SQL <endpoint>
.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
non è supportato nel calcolo serverless.
NOT_UNRESOLVED_ENCODER
Previsto codificatore non risolto, ma <attr>
trovato.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Non è possibile determinare il valore predefinito per <colName>
perché non è nullable e non ha alcun valore predefinito.
NO_HANDLER_FOR_UDAF
Nessun gestore per UDAF '<functionName>
'. Usare invece sparkSession.udf.register(...) .
NO_MERGE_ACTION_SPECIFIED
df.mergeInto deve essere seguito da almeno uno di whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: non assegnato
Non è stata trovata alcuna posizione esterna padre per il percorso '<path>
'. Creare un percorso esterno in uno dei percorsi padre e quindi ripetere la query o il comando.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Impossibile trovare <catalystFieldPath>
nello schema Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: non assegnato
Non è stato trovato alcun percorso di archiviazione per la tabella '<tableId>
' durante la generazione di credenziali della tabella. Verificare il tipo di tabella e l'URL del percorso della tabella e quindi ripetere la query o il comando.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: non assegnato
Il catalogo '<catalog>
' non è stato trovato. Verificare il nome del catalogo e quindi ripetere la query o il comando.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: non assegnato
La camera pulita '<cleanroom>
' non esiste. Verificare che il nome della stanza pulita sia digitato correttamente e corrisponda al nome di una stanza pulita esistente valida e quindi ripetere la query o il comando.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: non assegnato
La posizione esterna '<externalLocation>
' non esiste. Verificare che il nome del percorso esterno sia corretto e quindi ripetere la query o il comando.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: non assegnato
Il metastore non è stato trovato. Chiedere all'amministratore dell'account di assegnare un metastore all'area di lavoro corrente e quindi ripetere la query o il comando.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: non assegnato
Il provider di condivisione '<providerName>
' non esiste. Verificare che il nome del provider di condivisione sia digitato correttamente e corrisponda al nome di un nome di provider esistente valido e quindi ripetere la query o il comando.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: non assegnato
Il destinatario '<recipient>
' non esiste. Verificare che il nome del destinatario sia digitato correttamente e corrisponda al nome di un destinatario esistente valido e quindi ripetere la query o il comando.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: non assegnato
La condivisione '<share>
' non esiste. Verificare che il nome della condivisione sia digitato correttamente e corrisponda al nome di una condivisione esistente valida e quindi ripetere la query o il comando.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: non assegnato
La credenziale di archiviazione '<storageCredential>
' non esiste. Verificare che il nome delle credenziali di archiviazione sia digitato correttamente e corrisponda al nome di una credenziale di archiviazione esistente valida e quindi ripetere la query o il comando.
NO_SUCH_USER_EXCEPTION
SQLSTATE: non assegnato
L'utente '<userName>
' non esiste. Verificare che l'utente a cui si concede l'autorizzazione o modificare la proprietà venga digitato correttamente e corrisponda al nome di un utente esistente valido e quindi ripetere la query o il comando.
NO_UDF_INTERFACE
La classe <className>
UDF non implementa alcuna interfaccia UDF.
NULLABLE_COLUMN_OR_FIELD
La colonna o il campo <name>
è nullable mentre è necessario che non sia nullable.
NULLABLE_ROW_ID_ATTRIBUTES
Gli attributi ID riga non possono essere nullable: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
L'opzione di lettura/scrittura dell'origine <option>
dati non può avere un valore Null.
NULL_MAP_KEY
Non è possibile usare Null come chiave della mappa.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
L'esecuzione immediata richiede una variabile non Null come stringa di query, ma la variabile <varName>
specificata è Null.
NUMERIC_OUT_OF_SUPPORTED_RANGE
Il valore <value>
non può essere interpretato come numerico perché ha più di 38 cifre.
NUMERIC_VALUE_OUT_OF_RANGE
Per altri dettagli, vedere NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
può essere eseguito solo sugli input con lo stesso numero di colonne, ma il primo input include <firstNumColumns>
colonne e l'input <invalidOrdinalNum>
contiene <invalidNumColumns>
colonne.
NUM_TABLE_VALUE_ALIASES_MISMATCH
Il numero di alias specificati non corrisponde al numero di colonne di output.
Nome funzione: <funcName>
; numero di alias: <aliasesNum>
; numero di colonne di output: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Non è stata fornita alcuna attestazione di identità personalizzata.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
La funzione <functionName>
chiamante non è supportata in questo <location>
. <supportedFunctions>
Supportata qui.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
L'operazione <operation>
SQL è supportata solo nei connettori SQL di Databricks con il supporto di Unity Catalog.
OPERATION_CANCELED
Operazione annullata.
OPERATION_REQUIRES_UNITY_CATALOG
L'operazione richiede l'abilitazione <operation>
del catalogo Unity.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
non è supportato in modalità sessione di sola lettura.
ORDER_BY_POS_OUT_OF_RANGE
La posizione <index>
ORDER BY non è nell'elenco di selezione (l'intervallo valido è [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Impossibile creare un convertitore Parquet per il tipo di <dataType>
dati il cui tipo Parquet è <parquetType>
.
Per altri dettagli, vedere PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
Errore di sintassi, istruzione vuota imprevista.
PARSE_SYNTAX_ERROR
Errore di sintassi in corrispondenza o vicino a <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Impossibile aggiungere o rinominare le partizioni <partitionList>
nella tabella <tableName>
perché esistono già.
Scegliere un nome diverso, eliminare la partizione esistente o aggiungere la clausola IF NOT EXISTS per tollerare una partizione preesistente.
PARTITIONS_NOT_FOUND
Impossibile trovare le partizioni <partitionList>
nella tabella <tableName>
.
Verificare la specifica della partizione e il nome della tabella.
Per tollerare l'errore in caso di eliminazione, usare ALTER TABLE ... DROP IF EXISTS PARTITION.
PARTITION_LOCATION_ALREADY_EXISTS
Il percorso <locationPath>
della partizione esiste già nella tabella <tableName>
.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Impossibile eseguire l'istruzione ALTER TABLE SET PARTITION LOCATION, perché
il percorso <location>
della partizione non si trova nella directory <table>
della tabella .
Per correggerlo, impostare la posizione della partizione su una sottodirectory di <table>
.
PARTITION_METADATA
<action>
non è consentito nella tabella <tableName>
perché l'archiviazione dei metadati della partizione non è supportata nel catalogo unity.
PATH_ALREADY_EXISTS
Percorso <outputPath>
già esistente. Impostare la modalità come "sovrascrittura" per sovrascrivere il percorso esistente.
PATH_NOT_FOUND
Il percorso non esiste: <path>
.
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
La funzione <expr>
di aggregazione non è consentita quando si usa l'operatore pipe |> Clausola SELECT; Usare l'operatore pipe |> Clausola AGGREGATE
PIVOT_VALUE_DATA_TYPE_MISMATCH
Valore pivot non valido '<value>
': il tipo di <valueType>
dati value non corrisponde al tipo di <pivotType>
dati della colonna pivot .
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
La procedura <procedureName>
prevede <expected>
argomenti, ma <actual>
sono stati forniti.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE con una definizione di routine vuota non è consentita.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
Il parametro <parameterName>
viene definito con la modalità <parameterMode>
parametro . Non è possibile omettere il parametro OUT e INOUT quando si richiama una routine e pertanto non supporta un'espressione DEFAULT. Per procedere, rimuovere la clausola DEFAULT o impostare la modalità del parametro su IN.
PROCEDURE_NOT_SUPPORTED
La stored procedure non è supportata
PROCEDURE_NOT_SUPPORTED_WITH_HMS
La stored procedure non è supportata con il metastore Hive. Usare invece Unity Catalog.
PROTOBUF_DEPENDENCY_NOT_FOUND
Impossibile trovare la dipendenza: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Errore durante la lettura del file del descrittore Protobuf nel percorso: <filePath>
.
PROTOBUF_FIELD_MISSING
Ricerca nello <field>
schema Protobuf in corrispondenza <protobufSchema>
delle <matchSize>
corrispondenze. Candidati: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Trovato <field>
nello schema Protobuf, ma non esiste alcuna corrispondenza nello schema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Tipo non corrispondente rilevato per campo: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Le classi Java non sono supportate per <protobufFunction>
. Contattare il supporto di Databricks sulle opzioni alternative.
PROTOBUF_MESSAGE_NOT_FOUND
Impossibile individuare il messaggio <messageName>
nel descrittore.
PROTOBUF_TYPE_NOT_SUPPORT
Tipo Protobuf non ancora supportato: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
Impossibile ritentare l'attività nella fase di recupero pubsub. Partizione <partitionInfo>
nella fase <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
non può essere una stringa vuota.
PS_INVALID_KEY_TYPE
Tipo di chiave non valido per PubSub dedup: <key>
.
PS_INVALID_OPTION
L'opzione <key>
non è supportata da PubSub. Può essere usato solo nei test.
PS_INVALID_OPTION_TYPE
Tipo non valido per <key>
. Tipo previsto di <key>
tipo <type>
.
PS_INVALID_READ_LIMIT
Limite di lettura non valido nel flusso PubSub: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
UnsafeRow non valido da decodificare in PubSubMessageMetadata, lo schema proto desiderato è: <protoSchema>
. L'input UnsafeRow potrebbe essere danneggiato: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Impossibile trovare le informazioni di autenticazione PubSub complete.
PS_MISSING_REQUIRED_OPTION
Impossibile trovare l'opzione richiesta: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Non è possibile spostare i file del checkpoint dati non elaborati da <src>
alla directory di destinazione: <dest>
.
PS_MULTIPLE_FAILED_EPOCHS
Impossibile avviare il flusso PubSub perché è presente più di un recupero non riuscito: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
deve essere compreso nei limiti seguenti (<min>
, <max>
) esclusivi di entrambi i limiti.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
I cluster condivisi non supportano l'autenticazione con i profili di istanza. Specificare le credenziali per il flusso direttamente usando .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
Il connettore di origine PubSub è disponibile solo nel cluster con spark.speculation
disabilitato.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Si è verificato un errore durante il tentativo di creare una sottoscrizione <subId>
nell'argomento <topicId>
. Verificare che siano disponibili autorizzazioni sufficienti per creare una sottoscrizione e riprovare.
PS_UNABLE_TO_PARSE_PROTO
Impossibile analizzare i byte serializzati per generare proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
getOffset non è supportato senza fornire un limite.
PYTHON_DATA_SOURCE_ERROR
Impossibile eseguire l'origine <action>
<type>
dati Python: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Errore durante l'esecuzione dell'origine <action>
dati di streaming Python: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Impossibile accedere alla tabella a cui si fa riferimento perché una maschera di colonna assegnata in precedenza non è attualmente compatibile con lo schema della tabella; per continuare, contattare il proprietario della tabella per aggiornare i criteri:
Per altri dettagli, vedere QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Impossibile accedere alla tabella a cui si fa riferimento perché i criteri di sicurezza a livello di riga assegnati in precedenza non sono attualmente compatibili con lo schema della tabella; per continuare, contattare il proprietario della tabella per aggiornare i criteri:
Per altri dettagli, vedere QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
È possibile che i file sottostanti siano stati aggiornati. È possibile invalidare in modo esplicito la cache in Spark eseguendo il comando 'REFRESH TABLE tableName' in SQL o ricreando il set di dati/dataframe coinvolto.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
La chiamata della funzione <functionName>
ha <parameterName>
e <alternativeName>
imposta, che sono alias l'uno dell'altro. Impostare solo uno di essi.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
Il parametro <parameterName>
obbligatorio della funzione <functionName>
deve essere assegnato in posizione <expectedPos>
senza il nome.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Solo TIMESTAMP
i tipi /TIMESTAMP_LTZ/TIMESTAMP_NTZ sono supportati per il timestamp di scadenza del destinatario.
RECURSIVE_PROTOBUF_SCHEMA
Trovato riferimento ricorsivo nello schema Protobuf, che non può essere elaborato da Spark per impostazione predefinita: <fieldDescriptor>
. Provare a impostare l'opzione recursive.fields.max.depth
da 1 a 10. Non è consentito superare 10 livelli di ricorsione.
RECURSIVE_VIEW
Rilevata visualizzazione <viewIdent>
ricorsiva (ciclo: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
I riferimenti ai valori di colonna DEFAULT non sono consentiti all'interno della clausola PARTITION.
RELATION_LARGER_THAN_8G
Non è possibile compilare un oggetto <relationName>
di dimensioni maggiori di 8G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Richiesta HTTP remota non riuscita con codice <errorCode>
e messaggio di errore <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Impossibile valutare la <functionName>
funzione SQL a causa dell'impossibilità di analizzare il risultato JSON dalla risposta HTTP remota. Il messaggio di errore è <errorMessage>
. Vedere la documentazione dell'API: <docUrl>
. Risolvere il problema indicato nel messaggio di errore e ripetere la query.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Impossibile valutare la <functionName>
funzione SQL a causa dell'impossibilità di elaborare la risposta HTTP remota imprevista. Il messaggio di errore è <errorMessage>
. Vedere la documentazione dell'API: <docUrl>
. Risolvere il problema indicato nel messaggio di errore e ripetere la query.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
La richiesta remota non è riuscita dopo i tentativi <N>
; l'ultimo codice di errore HTTP non riuscito era <errorCode>
e il messaggio era <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Impossibile valutare la <functionName>
funzione SQL perché <errorMessage>
. Controllare i requisiti in <docUrl>
. Risolvere il problema indicato nel messaggio di errore e ripetere la query.
RENAME_SRC_PATH_NOT_FOUND
Impossibile rinominare perché <sourcePath>
non è stato trovato.
REPEATED_CLAUSE
La <clause>
clausola può essere usata al massimo una volta per <operation>
operazione.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
Il parametro <parameterName>
obbligatorio della funzione <functionName>
è stato assegnato in posizione <positionalIndex>
senza il nome.
Aggiornare la chiamata di funzione per rimuovere l'argomento denominato con <parameterName>
per questo parametro o rimuovere la posizione
argomento in <positionalIndex>
e quindi ritentare la query.
REQUIRED_PARAMETER_NOT_FOUND
Impossibile richiamare la funzione <functionName>
perché il parametro denominato <parameterName>
è obbligatorio, ma la chiamata di funzione non ha fornito un valore. Aggiornare la chiamata di funzione per specificare un valore dell'argomento (posizionale in corrispondenza dell'indice <index>
o per nome) e riprovare la query.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
richiede uno spazio dei nomi a parte singola, ma ha ottenuto <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
L'opzione lettore dell'API DataFrame 'rescuedDataColumn' si escludono a vicenda con l'opzione API DataFrame 'singleVariantColumn'.
Rimuovere uno di essi e quindi ritentare l'operazione dataframe.
RESERVED_CDC_COLUMNS_ON_WRITE
La scrittura contiene colonne <columnList>
riservate utilizzate
internamente come metadati per il feed di dati delle modifiche. Per scrivere nella tabella rinomina/eliminazione
queste colonne o disabilitano il feed di dati delle modifiche nella tabella impostando
<config>
su false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
L'opzione <option>
ha valori limitati nei cluster condivisi per l'origine <source>
.
Per altri dettagli, vedere RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Impossibile creare l'oggetto <newRoutineType>
<routineName>
perché esiste già un <existingRoutineType>
oggetto di tale nome.
Scegliere un nome diverso, eliminare o sostituire l'oggetto esistente <existingRoutineType>
oppure aggiungere la clausola IF NOT EXISTS per tollerare un oggetto preesistente <newRoutineType>
.
ROUTINE_NOT_FOUND
Impossibile trovare la routine <routineName>
. Verificare l'ortografia e la correttezza dello schema e del catalogo.
Se il nome non è stato qualificato con uno schema e un catalogo, verificare l'output current_schema() o qualificare il nome con lo schema e il catalogo corretti.
Per tollerare l'errore in caso di eliminazione, usare DROP ... SE ESISTE.
ROUTINE_PARAMETER_NOT_FOUND
La funzione <functionName>
non supporta il parametro <parameterName>
specificato nella posizione <pos>
.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
Impossibile creare la funzione <routineName>
perché il nome di classe specificato '<className>
' è riservato per l'uso del sistema. Rinominare la classe e riprovare.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
La creazione di vincoli CHECK nella tabella <tableName>
con criteri di sicurezza a livello di riga non è supportata.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Un'istruzione <statementType>
ha tentato di assegnare un criterio di sicurezza a livello di riga a una tabella, ma due o più colonne a cui si fa riferimento hanno lo stesso nome <columnName>
, che non è valido.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
I criteri di sicurezza a livello di riga per <tableName>
non sono supportati:
Per altri dettagli, vedere ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Impossibile passare <statementType>
<columnName>
dalla tabella <tableName>
perché viene fatto riferimento a un criterio di sicurezza a livello di riga. Il proprietario della tabella deve rimuovere o modificare questo criterio prima di procedere.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
Le operazioni MERGE INTO non supportano i criteri di sicurezza a livello di riga nella tabella <tableName>
di origine .
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
Le operazioni MERGE INTO non supportano la scrittura in una tabella <tableName>
con criteri di sicurezza a livello di riga.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Questa istruzione ha tentato di assegnare un criterio di sicurezza a livello di riga a una tabella, ma la colonna <columnName>
a cui si fa riferimento ha più parti del nome, che non sono valide.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
I criteri di sicurezza a livello di riga sono supportati solo nel catalogo unity.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
clonare dalla tabella <tableName>
con criteri di sicurezza a livello di riga non è supportato.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
clonare nella tabella <tableName>
con criteri di sicurezza a livello di riga non è supportato.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
L'uso di una costante come parametro in un criterio di sicurezza a livello di riga non è supportato. Aggiornare il comando SQL per rimuovere la costante dalla definizione del filtro di riga e quindi ripetere il comando.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Impossibile eseguire <statementType>
il comando perché l'assegnazione dei criteri di sicurezza a livello di riga non è supportata per l'origine dati di destinazione con provider di tabelle: "<provider>
".
ROW_SUBQUERY_TOO_MANY_ROWS
Più righe restituite da una sottoquery usata come riga.
ROW_VALUE_IS_NULL
Trovato NULL in una riga in corrispondenza dell'indice <index>
, previsto un valore non NULL.
RULE_ID_NOT_FOUND
Impossibile trovare un ID per il nome della regola "<ruleName>
". Modificare RuleIdCollection.scala se si aggiunge una nuova regola.
SAMPLE_TABLE_PERMISSIONS
Autorizzazioni non supportate per database/tabelle di esempio.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
La sottoquery scalare correlata '<sqlExpr>
' non è presente né in GROUP BY, né in una funzione di aggregazione.
Aggiungerlo a GROUP BY usando la posizione ordinale o eseguire il wrapping in first()
(o first_value
) se non si è interessati al valore che si ottiene.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Più righe restituite da una sottoquery usata come espressione.
SCHEDULE_PERIOD_INVALID
Il periodo di pianificazione per <timeUnit>
deve essere un valore intero compreso tra 1 e <upperBound>
(inclusi). Ricevuto: <actual>
.
SCHEMA_ALREADY_EXISTS
Impossibile creare lo schema <schemaName>
perché esiste già.
Scegliere un nome diverso, eliminare lo schema esistente o aggiungere la clausola IF NOT EXISTS per tollerare lo schema preesistente.
SCHEMA_NOT_EMPTY
Impossibile eliminare uno schema <schemaName>
perché contiene oggetti .
Usare DROP SCHEMA ... CASCADE per eliminare lo schema e tutti i relativi oggetti.
SCHEMA_NOT_FOUND
Impossibile trovare lo schema <schemaName>
. Verificare l'ortografia e la correttezza dello schema e del catalogo.
Se il nome non è stato qualificato con un catalogo, verificare l'output current_schema() o qualificare il nome con il catalogo corretto.
Per tollerare l'errore in caso di eliminazione, usare DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Impossibile inizializzare lo schema dal Registro di sistema dello schema. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
Il secondo argomento della <functionName>
funzione deve essere un numero intero.
SECRET_FUNCTION_INVALID_LOCATION
Impossibile eseguire il <commandType>
comando con uno o più riferimenti non crittografati alla funzione SECRET. Crittografare il risultato di ogni chiamata di funzione con AES_ENCRYPT e riprovare a eseguire il comando
SEED_EXPRESSION_IS_UNFOLDABLE
L'espressione <seedExpr>
di inizializzazione dell'espressione <exprWithSeed>
deve essere piegabile.
SERVER_IS_BUSY
Il server è occupato e non è in grado di gestire la richiesta. Attendi qualche minuto e riprova.
SORT_BY_WITHOUT_BUCKETING
sortBy deve essere usato insieme a bucketBy.
SPARK_JOB_CANCELLED
Processo <jobId>
annullato <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Un'istruzione CREATE TABLE senza un elenco di colonne esplicito non può specificare informazioni sul bucket.
Usare il modulo con l'elenco di colonne esplicite e specificare le informazioni sul bucket.
In alternativa, consentire di dedurre le informazioni di bucket omettendo la clausola .
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
Non è possibile specificare CLUSTER BY e CLUSTERED BY INTO BUCKETS.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
Impossibile specificare CLUSTER BY e PARTITIONED BY.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Un'istruzione CREATE TABLE senza elenco di colonne esplicite non può specificare PARTITIONED BY.
Usare il modulo con l'elenco di colonne esplicite e specificare PARTITIONED BY.
In alternativa, consentire il partizionamento da dedurre omettendo la clausola PARTITION BY.
SQL_CONF_NOT_FOUND
Impossibile trovare la configurazione <sqlConf>
SQL. Verificare che la configurazione esista.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Errore temporaneo durante l'accesso al percorso <path>
di gestione temporanea di destinazione. Provare in pochi minuti
STAR_GROUP_BY_POS
La stella (*) non è consentita in un elenco di selezione quando viene utilizzata una posizione ordinale GROUP BY.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Impossibile eseguire l'operazione del processore con stato=<operationType>
con handle state=<handleState>
non valido.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Impossibile eseguire un'operazione del processore con stato=<operationType>
con timeMode non valido=<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Impossibile inizializzare nuovamente lo stato sulla stessa chiave di raggruppamento durante la gestione dello stato iniziale per il processore con stato. Chiave di raggruppamento non valida=<groupingKey>
. Controllare lo stato iniziale, rimuovere le righe duplicate e riavviare la query.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
La variabile di stato con nome <stateVarName>
è già stata definita in StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Impossibile usare TTL per state=<stateName>
in timeMode=<timeMode>
, usare invece TimeMode.ProcessingTime().
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
La durata TTL deve essere maggiore di zero per l'operazione di archiviazione stato=<operationType>
in state=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Modalità <timeMode>
ora sconosciuta. Le modalità timeMode accettate sono 'none', 'processingTime', 'eventTime'
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Impossibile creare la famiglia di colonne con carattere iniziale non supportato e name=<colFamilyName>
.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Impossibile eseguire l'operazione della famiglia di colonne=<operationName>
con nome non valido=<colFamilyName>
. Il nome della famiglia di colonne non può essere vuoto o includere spazi iniziali/finali o usare la parola chiave riservata=default
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Trasformazione dello schema incompatibile con column family=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
L'handle non è stato inizializzato per questo StatefulProcessor.
Usare solo StatefulProcessor all'interno dell'operatore transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Numero errato di ordinali ordinali=<numOrderingCols>
per il codificatore di analisi di intervalli. Il numero di ordinali di ordinamento non può essere pari a zero o maggiore del numero di colonne dello schema.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Numero errato di colonne di prefisso=<numPrefixCols>
per il codificatore di analisi del prefisso. Le colonne con prefisso non possono essere zero o maggiori o uguali a num delle colonne dello schema.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Impossibile passare <configName>
da <oldConfig>
a <newConfig>
tra i riavvii. Impostare su <configName>
<oldConfig>
o riavviare con una nuova directory del checkpoint.
STATE_STORE_INVALID_PROVIDER
Il provider <inputClass>
dell'archivio stati specificato non estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Impossibile passare <stateVarName>
a <newType>
tra i riavvii della query. Impostare su <stateVarName>
<oldType>
o riavviare con una nuova directory del checkpoint.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
La colonna di ordinamento dei tipi Null con name=<fieldName>
in index=<index>
non è supportata per il codificatore di analisi dell'intervallo.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
Il provider <inputClass>
dell'archivio stati specificato non estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Di conseguenza, non supporta l'opzione snapshotStartBatchId o readChangeFeed nell'origine dati di stato.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Operazione dell'archivio stati=<operationType>
non supportata nella colonna mancante family=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
La colonna di ordinamento delle dimensioni delle variabili con name=<fieldName>
in index=<index>
non è supportata per il codificatore di analisi dell'intervallo.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
La colonna <staticName>
di partizione statica viene specificata anche nell'elenco di colonne.
STDS_COMMITTED_BATCH_UNAVAILABLE
Non è stato trovato alcun batch di cui è stato eseguito il commit, percorso del checkpoint: <checkpointLocation>
. Assicurarsi che la query sia stata eseguita ed eseguito il commit di qualsiasi microbatch prima dell'arresto.
STDS_CONFLICT_OPTIONS
Le opzioni <options>
non possono essere specificate insieme. Specificare quello.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Impossibile leggere i metadati dell'operatore per checkpointLocation=<checkpointLocation>
e batchId=<batchId>
.
Il file non esiste o il file è danneggiato.
Eseguire di nuovo la query di streaming per costruire i metadati dell'operatore e segnalare alle community o ai fornitori corrispondenti se l'errore persiste.
STDS_FAILED_TO_READ_STATE_SCHEMA
Impossibile leggere lo schema dello stato. Il file non esiste o il file è danneggiato. opzioni: <sourceOptions>
.
Eseguire di nuovo la query di streaming per costruire lo schema dello stato e segnalare alle community o ai fornitori corrispondenti se l'errore persiste.
STDS_INVALID_OPTION_VALUE
Valore non valido per l'opzione di origine '<optionName>
':
Per altri dettagli, vedere STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
Lo stato non dispone di alcuna partizione. Verificare che la query punti allo stato valido. Opzioni: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
Il log di offset per <batchId>
non esiste, posizione del checkpoint: <checkpointLocation>
.
Specificare l'ID batch disponibile per l'esecuzione di query. È possibile eseguire query negli ID batch disponibili usando l'origine dati dei metadati di stato.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
I metadati non sono disponibili per il log di offset per <batchId>
, posizione del checkpoint: <checkpointLocation>
.
Il checkpoint sembra essere eseguito solo con le versioni precedenti di Spark. Eseguire la query di streaming con la versione di Spark recente, in modo che Spark costruisca i metadati di stato.
STDS_REQUIRED_OPTION_UNSPECIFIED
'<optionName>
' deve essere specificato.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
L'esecuzione di query adattive non è supportata per gli operatori con stato in Structured Streaming.
STREAMING_FROM_MATERIALIZED_VIEW
Impossibile eseguire il flusso dalla vista <viewName>
materializzata. Lo streaming da viste materializzate non è supportato.
STREAMING_OUTPUT_MODE
Modalità di output di streaming non valida: <outputMode>
.
Per altri dettagli, vedere STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
Il nome dell'operatore con stato di streaming non corrisponde all'operatore nei metadati dello stato. Ciò può verificarsi quando l'utente aggiunge/rimuove/modifica l'operatore con stato della query di streaming esistente.
Operatori con stato nei metadati: [<OpsInMetadataSeq>
]; Operatori con stato nel batch corrente: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
La tabella <tableName>
di streaming deve essere aggiornata per eseguire <operation>
. Eseguire CREATE OR REFRESH STREAMING TABLE <tableName>
AS per aggiornare la tabella.
STREAMING_TABLE_NOT_SUPPORTED
Le tabelle di streaming possono essere create e aggiornate solo nelle tabelle Live Delta e in Databricks SQL Warehouse.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
L'operazione <operation>
non è consentita:
Per altri dettagli, vedere STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
La tabella <tableName>
di streaming può essere creata solo da una query di streaming. Aggiungere la parola chiave STREAM alla clausola FROM per trasformare questa relazione in una query di streaming.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
Il flusso <streamName>
di Xamls non <region>
è stato trovato.
Avviare una nuova query che punta al nome del flusso corretto.
STRUCT_ARRAY_LENGTH_MISMATCH
La riga di input non ha il numero previsto di valori richiesti dallo schema. <expected>
i campi sono obbligatori mentre <actual>
vengono forniti i valori.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
La somma della clausola LIMIT e della clausola OFFSET non deve essere maggiore del valore intero massimo a 32 bit (2.147.483.647) ma trovato limite = <limit>
, offset = <offset>
.
SYNC_METADATA_DELTA_ONLY
Il comando Ripristina metadati di sincronizzazione tabella è supportato solo per la tabella delta.
SYNC_METADATA_NOT_SUPPORTED
Il comando Ripristina metadati di sincronizzazione tabelle è supportato solo per le tabelle del catalogo Unity.
SYNC_SRC_TARGET_TBL_NOT_SAME
Il nome <srcTable>
della tabella di origine deve essere uguale al nome <destTable>
della tabella di destinazione.
SYNTAX_DISCONTINUED
Supporto della clausola o della parola chiave: <clause>
è stato sospeso in questo contesto.
Per altri dettagli, vedere SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
Impossibile creare una tabella o una vista <relationName>
perché esiste già.
Scegliere un nome diverso, eliminare l'oggetto esistente, aggiungere la clausola IF NOT EXISTS per tollerare oggetti preesistenti, aggiungere la clausola OR REPLACE per sostituire la vista materializzata esistente o aggiungere la clausola OR REFRESH per aggiornare la tabella di streaming esistente.
TABLE_OR_VIEW_NOT_FOUND
Impossibile trovare la tabella o la vista <relationName>
. Verificare l'ortografia e la correttezza dello schema e del catalogo.
Se il nome non è stato qualificato con uno schema, verificare l'output current_schema() o qualificare il nome con lo schema e il catalogo corretti.
Per tollerare l'errore in caso di eliminazione, usare DROP VIEW IF EXISTS o DROP TABLE IF EXISTS.
Per altri dettagli, vedere TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Impossibile <action>
usare la funzione <functionName>
definita dall'utente SQL con argomenti TABLE perché questa funzionalità non è ancora implementata.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Impossibile analizzare la funzione tabella definita dall'utente python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Impossibile valutare la funzione <functionName>
table perché i metadati <requestedMetadata>
della tabella , ma la funzione chiama <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Impossibile valutare la funzione <functionName>
di tabella perché i metadati della tabella non sono validi; <reason>
.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Sono presenti troppi argomenti di tabella per la funzione con valori di tabella.
Consente un argomento di tabella, ma ottenuto: <num>
.
Se si vuole consentire, impostare "spark.sql.allowMultipleTableArguments.enabled" su "true"
TABLE_WITH_ID_NOT_FOUND
Impossibile trovare la tabella con ID <tableId>
. Verificare la correttezza dell'UUID.
TASK_WRITE_FAILED
L'attività non è riuscita durante la scrittura di righe in <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Impossibile creare la vista <relationName>
temporanea perché esiste già.
Scegliere un nome diverso, eliminare o sostituire la visualizzazione esistente oppure aggiungere la clausola IF NOT EXISTS per tollerare le viste preesistenti.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW o le API del set di dati corrispondenti accettano solo nomi di visualizzazione a parte singola, ma hanno ottenuto: <actualName>
.
UC_BUCKETED_TABLES
Le tabelle in bucket non sono supportate nel catalogo unity.
UC_CATALOG_NAME_NOT_PROVIDED
Per Il catalogo unity, specificare il nome del catalogo in modo esplicito. Ad esempio, SHOW GRANT your.address@email.com
ON CATALOG main.
UC_COMMAND_NOT_SUPPORTED
I comandi: <commandName>
non sono supportati in Unity Catalog.
Per altri dettagli, vedere UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
I comandi: <commandName>
non sono supportati per i cluster del catalogo Unity in modalità di accesso condiviso. Usare invece la modalità di accesso utente singolo.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Il tipo di credenziale specificato non è supportato.
UC_DATASOURCE_NOT_SUPPORTED
Il formato <dataSourceFormatName>
dell'origine dati non è supportato in Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Le opzioni dell'origine dati non sono supportate in Unity Catalog.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
La clausola LOCATION deve essere presente per il volume esterno. Controllare la sintassi 'CREATE EXTERNAL VOLUME ... LOCATION ...' per la creazione di un volume esterno.
UC_FAILED_PROVISIONING_STATE
La query non è riuscita perché ha tentato di fare riferimento alla tabella <tableName>
, ma non è stato in grado di farlo: <failureReason>
. Aggiornare la tabella <tableName>
per assicurarsi che si tratti di uno stato di provisioning attivo e quindi ripetere la query.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
La creazione di una tabella in Unity Catalog con lo schema <schemeName>
di file non è supportata.
Creare invece una connessione all'origine dati federata usando il comando CREATE CONNECTION per lo stesso provider di tabelle, quindi creare un catalogo basato sulla connessione con un comando CREATE FOREIGN CATALOG per fare riferimento alle tabelle.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
La vista federazione metastore Hive non supporta le dipendenze tra più cataloghi. La vista <view>
nel catalogo della federazione metastore Hive deve usare la dipendenza da hive_metastore o spark_catalog catalogo, ma la relativa <dependency>
dipendenza si trova in un altro catalogo <referencedCatalog>
. Aggiornare le dipendenze per soddisfare questo vincolo e quindi ripetere la query o il comando.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
La federazione metastore Hive non è abilitata in questo cluster.
L'accesso al catalogo <catalogName>
non è supportato in questo cluster
UC_INVALID_DEPENDENCIES
Le dipendenze di <viewName>
vengono registrate come <storedDeps>
durante l'analisi come <parsedDeps>
. Questo probabilmente si è verificato tramite l'uso improprio di un'API non SQL. È possibile ripristinare le dipendenze in Databricks Runtime eseguendo ALTER VIEW <viewName>
AS <viewText>
.
UC_INVALID_NAMESPACE
Gli spazi dei nomi annidati o vuoti non sono supportati nel catalogo unity.
UC_INVALID_REFERENCE
Non è possibile fare riferimento all'oggetto <name>
Non Unity-Catalog negli oggetti catalogo unity.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
Il supporto per la scrittura di Unity Catalog Lakehouse Federation non è abilitato per il provider <provider>
in questo cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
Il volume gestito non accetta la clausola LOCATION. Controllare la sintassi 'CREATE VOLUME ...' per la creazione di un volume gestito.
UC_NOT_ENABLED
Il catalogo Unity non è abilitato in questo cluster.
UC_QUERY_FEDERATION_NOT_ENABLED
Federazione query del catalogo Unity non è abilitata in questo cluster.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
Le credenziali del servizio non sono abilitate in questo cluster.
UC_VOLUMES_NOT_ENABLED
Il supporto per i volumi del catalogo Unity non è abilitato in questa istanza.
UC_VOLUMES_SHARING_NOT_ENABLED
Il supporto per la condivisione dei volumi non è abilitato in questa istanza.
UC_VOLUME_NOT_FOUND
Il volume <name>
non esiste. Usare "SHOW VOLUMES" per elencare i volumi disponibili.
UDF_ERROR
SQLSTATE: non assegnato
Esecuzione della funzione <fn>
non riuscita
Per altri dettagli, vedere UDF_ERROR
UDF_LIMITS
Sono stati violati uno o più limiti di funzioni definite dall'utente.
Per altri dettagli, vedere UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
È stato superato il limite di funzioni definite dall'utente a livello di query ( <maxNumUdfs>
limitato durante l'anteprima pubblica). Trovato <numUdfs>
. Le funzioni definite dall'utente erano: <udfNames>
.
UDF_PYSPARK_ERROR
Il ruolo di lavoro Python è stato chiuso in modo imprevisto
Per altri dettagli, vedere UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
La funzione definita dall'utente <udf>
pySpark (<eval-type>
) non è supportata nei cluster in modalità accesso condiviso.
UDF_PYSPARK_USER_CODE_ERROR
Esecuzione non riuscita.
Per altri dettagli, vedere UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Il valore predefinito del parametro non è supportato per la funzione definita dall'utente <functionType>
.
UDF_USER_CODE_ERROR
L'esecuzione della funzione <fn>
non è riuscita.
Per altri dettagli, vedere UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
Il numero di alias forniti nella clausola AS non corrisponde al numero di colonne restituite dal tipo definito dall'UDTF.
Alias previsti <aliasesSize>
, ma ottenuto <aliasesNames>
.
Assicurarsi che il numero di alias forniti corrisponda al numero di colonne restituite dal tipo definito dall'utente.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Impossibile valutare la funzione di tabella definita dall'utente perché il metodo 'analyze' ha restituito una richiesta OrderingColumn la cui espressione di nome colonna includeva un alias <aliasName>
non necessario. Rimuovere questo alias e quindi ritentare la query.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Impossibile valutare la funzione di tabella definita dall'utente perché il metodo 'analyze' ha restituito un'espressione 'select' richiesta (<expression>
) che non include un alias corrispondente. Aggiornare il tipo definito dall'utente per specificare un alias e quindi ritentare la query.
UNABLE_TO_ACQUIRE_MEMORY
Non è possibile acquisire <requestedBytes>
byte di memoria, è stato ottenuto <receivedBytes>
.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Impossibile convertire il tipo <toType>
SQL in Protobuf di tipo <protobufType>
.
UNABLE_TO_FETCH_HIVE_TABLES
Impossibile recuperare le tabelle del database Hive: <dbName>
. Nome classe errore: <className>
.
UNABLE_TO_INFER_SCHEMA
Impossibile dedurre lo schema per <format>
. Deve essere specificato manualmente.
UNAUTHORIZED_ACCESS
Accessi:
<report>
UNBOUND_SQL_PARAMETER
Trovato il parametro non associato: <name>
. Correggere args
e fornire un mapping del parametro a un valore letterale SQL o a funzioni del costruttore di raccolta, map()
ad esempio , array()
, struct()
.
UNCLOSED_BRACKETED_COMMENT
Trovato un commento tra parentesi quadre non chiuse. Aggiungere */ alla fine del commento.
UNEXPECTED_INPUT_TYPE
Il parametro della funzione <functionName>
richiede il <requiredType>
tipo , ma <inputSql>
ha il tipo <inputType>
.<paramIndex>
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Operatore <op>
imprevisto nell'istruzione CREATE VIEW come origine di streaming.
Una query di visualizzazione di streaming deve essere costituita solo da operazioni SELECT, WHERE e UNION ALL.
UNEXPECTED_POSITIONAL_ARGUMENT
Impossibile richiamare la funzione <functionName>
perché contiene argomenti posizionali che seguono l'argomento denominato assegnato a <parameterName>
. ridisporli in modo che gli argomenti posizionali vengano prima e quindi riprovare la query.
UNEXPECTED_SERIALIZER_FOR_CLASS
La classe <className>
ha un serializzatore di espressioni imprevisto. Si aspetta "STRUCT
" o "IF" che restituisce "STRUCT
" ma trovato <expr>
.
UNKNOWN_FIELD_EXCEPTION
Rilevato campi sconosciuti durante l'analisi: <unknownFieldBlob>
, che può essere corretto da un nuovo tentativo automatico: <isRetryable>
Per altri dettagli, vedere UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
La chiamata della funzione <functionName>
contiene un argomento <sqlExpr>
posizionale sconosciuto nella posizione <pos>
. Non è valido.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
Tipo primitivo sconosciuto con ID <id>
trovato in un valore variant.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Tentativo di trattare <descriptorName>
come messaggio, ma era <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT richiede che tutte le espressioni specificate <given>
siano colonne quando non <empty>
vengono specificate espressioni. Queste non sono colonne: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
È necessario specificare almeno una colonna valore per UNPIVOT, tutte le colonne specificate come ID.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
Le colonne di valori unpivot devono condividere un tipo meno comune, alcuni tipi non sono: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Tutte le colonne di valori unpivot devono avere le stesse dimensioni in cui sono presenti nomi di colonna valore (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Impossibile richiamare la funzione perché la chiamata di funzione <functionName>
includeva un riferimento di argomento denominato per l'argomento denominato <argumentName>
, ma questa funzione non include alcuna firma contenente un argomento con questo nome. Intendevi una delle seguenti? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Tipo SQL non riconosciuto - nome: <typeName>
, id: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Impossibile risolvere <name>
in una funzione con valori di tabella.
Assicurarsi che <name>
sia definito come funzione con valori di tabella e che tutti i parametri obbligatori siano specificati correttamente.
Se <name>
non è definito, creare la funzione con valori di tabella prima di usarla.
Per altre informazioni sulla definizione di funzioni con valori di tabella, vedere la documentazione di Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Impossibile dedurre le colonne di raggruppamento per GROUP BY ALL in base alla clausola select. Specificare in modo esplicito le colonne di raggruppamento.
UNRESOLVED_COLUMN
Non è possibile risolvere un parametro di colonna, variabile o funzione con nome <objectName>
.
Per altri dettagli, vedere UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Non è possibile risolvere un campo con nome <fieldName>
con la colonna <columnPath>
di tipo struct .
Per altri dettagli, vedere UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Impossibile risolvere la colonna <objectName>
come chiave della mappa. Se la chiave è un valore letterale stringa, aggiungere le virgolette singole '' intorno.
Per altri dettagli, vedere UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Impossibile risolvere la routine <routineName>
nel percorso <searchPath>
di ricerca.
Per altri dettagli, vedere UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
Impossibile risolvere la <side>
colonna <colName>
USING sul lato del join. Colonne <side>
lato -: [<suggestion>
].
UNRESOLVED_VARIABLE
Impossibile risolvere la variabile <variableName>
nel percorso <searchPath>
di ricerca.
UNSUPPORTED_ADD_FILE
Non supportare l'aggiunta di file.
Per altri dettagli, vedere UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
Tipo di <typeName>
freccia non supportato.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
La funzione <funcName>
non supporta le query batch.
UNSUPPORTED_CALL
Impossibile chiamare il metodo "<methodName>
" della classe "<className>
".
Per altri dettagli, vedere UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
Il tipo char/varchar non può essere usato nello schema della tabella.
Se si vuole che Spark li consideri come tipo stringa come Spark 3.0 e versioni precedenti, impostare "spark.sql.legacy.charVarcharAsString" su "true".
UNSUPPORTED_CLAUSE_FOR_OPERATION
Non <clause>
è supportato per <operation>
.
UNSUPPORTED_COLLATION
Le regole di <collationName>
confronto non sono supportate per:
Per altri dettagli, vedere UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
Il predecessore comune del percorso di origine e sourceArchiveDir deve essere registrato con uc.
Se viene visualizzato questo messaggio di errore, è probabile che si registri il percorso di origine e sourceArchiveDir in posizioni esterne diverse.
Si prega di inserirli in un'unica posizione esterna.
UNSUPPORTED_CONSTRAINT_CLAUSES
Le clausole <clauses>
di vincolo non sono supportate.
UNSUPPORTED_CONSTRAINT_TYPE
Tipo di vincolo non supportato. Sono supportati solo <supportedConstraintTypes>
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Tipo di origine dati non supportato per la query diretta sui file: <dataSourceType>
UNSUPPORTED_DATATYPE
Tipo di <typeName>
dati non supportato.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
L'origine dati "<source>
" non può essere scritta in <createMode>
modalità . Usare invece la modalità "Append" o "Overwrite".
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
L'origine <format>
dati non supporta la colonna <columnName>
del tipo <columnType>
.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Impossibile creare il codificatore per <dataType>
. Usare un tipo di dati di output diverso per la funzione definita dall'utente o il dataframe.
UNSUPPORTED_DEFAULT_VALUE
I valori di colonna DEFAULT non sono supportati.
Per altri dettagli, vedere UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Il deserializzatore non è supportato:
Per altri dettagli, vedere UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
Impossibile creare una colonna <fieldName>
generata con l'espressione <expressionStr>
di generazione perché <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Un operatore di query contiene una o più espressioni non supportate.
È consigliabile riscriverla per evitare funzioni finestra, funzioni di aggregazione e funzioni generatori nella clausola WHERE.
Espressioni non valide: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Un parametro di query contiene un'espressione non supportata.
I parametri possono essere variabili o valori letterali.
Espressione non valida: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
Espressione <sqlExpr>
non supportata all'interno di una funzione window.
UNSUPPORTED_FEATURE
La funzionalità non è supportata:
Per altri dettagli, vedere UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Tipo di funzione definito dall'utente non supportato: <language>
UNSUPPORTED_GENERATOR
Il generatore non è supportato:
Per altri dettagli, vedere UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() può essere usato solo con GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
con la posizione <initialPosition>
iniziale non è supportato con l'origine Disas
UNSUPPORTED_INSERT
Non è possibile inserire nella destinazione.
Per altri dettagli, vedere UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Tipo di join non supportato '<typ>
'. I tipi di join supportati includono: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
La creazione di una tabella <tableName>
gestita tramite l'origine <dataSource>
dati non è supportata. È necessario usare l'origine dati DELTA o creare una tabella esterna usando CREATE EXTERNAL TABLE <tableName>
... USING <dataSource>
...
UNSUPPORTED_MERGE_CONDITION
L'operazione MERGE contiene una condizione non supportata <condName>
.
Per altri dettagli, vedere UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
La tabella <tableName>
include un criterio di sicurezza a livello di riga o una maschera di colonna che fa riferimento indirettamente a un'altra tabella con un criterio di sicurezza a livello di riga o una maschera di colonna. Questa operazione non è supportata. Sequenza di chiamata: <callSequence>
UNSUPPORTED_OVERWRITE
Non è possibile sovrascrivere la destinazione da cui viene letta anche.
Per altri dettagli, vedere UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
La modalità <saveMode>
di salvataggio non è supportata per:
Per altri dettagli, vedere UNSUPPORTED_SAVE_MODE
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
la modalità di output non è supportata per <statefulOperator>
in streaming di dataframe/set di dati senza filigrana.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Non supportato per lo streaming di una visualizzazione. Motivo:
Per altri dettagli, vedere UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
Le opzioni <options>
di streaming non sono supportate per l'origine <source>
dati in un cluster condiviso. Verificare che le opzioni siano specificate e digitate correttamente e verificarehttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode la presenza di limitazioni.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
L'origine <sink>
dati non è supportata come sink di streaming in un cluster condiviso.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
L'origine <source>
dati non è supportata come origine di streaming in un cluster condiviso.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
La funzione <funcName>
non supporta lo streaming. Rimuovere la parola chiave STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
non è supportato con l'origine Dios
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Espressione di sottoquery non supportata:
Per altri dettagli, vedere UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
La creazione di una chiave primaria con colonne timeseries non è supportata
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
La creazione di una chiave primaria con più di una colonna <colSeq>
timeseries non è supportata
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
non è supportato con l'origine Dios
UNSUPPORTED_TYPED_LITERAL
I valori letterali del tipo <unsupportedType>
non sono supportati. I tipi supportati sono <supportedTypes>
.
UNTYPED_SCALA_UDF
Si usa una funzione definita dall'utente Scala non tipizzata, che non dispone delle informazioni sul tipo di input.
Spark potrebbe passare in modo cieco null alla chiusura scala con argomento di tipo primitivo e la chiusura vedrà il valore predefinito del tipo Java per l'argomento Null, ad esempio udf((x: Int) => x, IntegerType)
, il risultato è 0 per l'input Null. Per eliminare questo errore, è possibile:
- usare LE API definite dall'utente scala (senza parametro di tipo restituito), ad esempio
udf((x: Int) => x)
. - usare le API UDF Java, ad esempio
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, se i tipi di input sono tutti non primitivi. - impostare "spark.sql.legacy.allowUntypedScalaUDF" su "true" e usare questa API con cautela.
UPGRADE_NOT_SUPPORTED
La tabella non è idonea per l'aggiornamento da Hive Metastore a Unity Catalog. Motivo:
Per altri dettagli, vedere UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
La funzione definita dall'utente non è valida:
Per altri dettagli, vedere USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
La raise_error()
funzione è stata usata per generare la classe di errore, <errorClass>
che prevede parametri: <expectedParms>
.
I parametri <providedParms>
forniti non corrispondono ai parametri previsti.
Assicurarsi di specificare tutti i parametri previsti.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
La raise_error()
funzione è stata usata per generare una classe di errore sconosciuta: <errorClass>
VARIABLE_ALREADY_EXISTS
Impossibile creare la variabile <variableName>
perché esiste già.
Scegliere un nome diverso oppure eliminare o sostituire la variabile esistente.
VARIABLE_NOT_FOUND
Impossibile trovare la variabile <variableName>
. Verificare l'ortografia e la correttezza dello schema e del catalogo.
Se il nome non è stato qualificato con uno schema e un catalogo, verificare l'output current_schema() o qualificare il nome con lo schema e il catalogo corretti.
Per tollerare l'errore in caso di rilascio, usare DROP VARIABLE IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Impossibile costruire un valore Variant maggiore di 16 MiB. La dimensione massima consentita di un valore Variant è 16 MiB.
VARIANT_DUPLICATE_KEY
Impossibile compilare varianti a causa di una chiave <key>
dell'oggetto duplicata.
VARIANT_SIZE_LIMIT
Impossibile compilare varianti maggiori di <sizeLimit>
in <functionName>
.
Evitare stringhe di input di grandi dimensioni in questa espressione, ad esempio aggiungere chiamate di funzione per controllare le dimensioni dell'espressione e convertirla prima in NULL se è troppo grande.
VIEW_ALREADY_EXISTS
Impossibile creare la vista <relationName>
perché esiste già.
Scegliere un nome diverso, eliminare o sostituire l'oggetto esistente oppure aggiungere la clausola IF NOT EXISTS per tollerare oggetti preesistenti.
VIEW_EXCEED_MAX_NESTED_DEPTH
La profondità della visualizzazione <viewName>
supera la profondità massima di risoluzione della visualizzazione (<maxNestedDepth>
).
L'analisi viene interrotta per evitare errori. Se si vuole risolvere questo problema, provare ad aumentare il valore di "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Impossibile trovare la visualizzazione <relationName>
. Verificare l'ortografia e la correttezza dello schema e del catalogo.
Se il nome non è stato qualificato con uno schema, verificare l'output current_schema() o qualificare il nome con lo schema e il catalogo corretti.
Per tollerare l'errore in caso di rilascio, usare DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Impossibile creare il volume <relationName>
perché esiste già.
Scegliere un nome diverso, eliminare o sostituire l'oggetto esistente oppure aggiungere la clausola IF NOT EXISTS per tollerare oggetti preesistenti.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
<funcName>
la funzione può essere valutata solo in una cornice di finestra ordinata basata su righe con un singolo offset: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
La funzione <funcName>
Window richiede una clausola OVER.
WITH_CREDENTIAL
La sintassi WITH CREDENTIAL non è supportata per <type>
.
WRITE_STREAM_NOT_ALLOWED
writeStream
può essere chiamato solo in streaming Dataset/DataFrame.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Impossibile eseguire il comando perché i valori DEFAULT non sono supportati durante l'aggiunta di nuovi
colonne alle tabelle Delta esistenti in precedenza; Aggiungere la colonna senza un valore predefinito
first value, quindi eseguire un secondo comando ALTER TABLE ALTER COLUMN SET DEFAULT per applicare
per le righe inserite in futuro.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Impossibile eseguire <commandType>
il comando perché è stato assegnato un valore DEFAULT della colonna.
ma la funzionalità di tabella corrispondente non è stata abilitata. Riprovare a eseguire il comando
dopo l'esecuzione di ALTER TABLE tableName SET
TBLPROPERTIES('delta.feature.allowColumnDefaults' = 'supported').
WRONG_COMMAND_FOR_OBJECT_TYPE
L'operazione <operation>
richiede un oggetto <requiredType>
. Ma <objectName>
è un oggetto <foundType>
. Utilizzare invece <alternative>
.
WRONG_NUM_ARGS
Richiede <functionName>
<expectedNum>
parametri, ma il numero effettivo è <actualNum>
.
Per altri dettagli, vedere WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
<rowTag>
l'opzione è necessaria per la lettura di file in formato XML.
XML_UNSUPPORTED_NESTED_TYPES
XML non supporta <innerDataType>
come tipo interno di <dataType>
. Eseguire il wrapping dell'oggetto <innerDataType>
all'interno di un campo StructType quando viene usato all'interno <dataType>
di .
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
I dati salvati e la colonna con caratteri jolly non possono essere abilitati contemporaneamente. Rimuovere l'opzione wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
La colonna <columnName>
ZOrderBy non esiste.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Impossibile trovare sparkSession attiva
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Impossibile impostare un nuovo txn come attivo quando ne è già attivo uno
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Impossibile aggiungere la colonna <colName>
perché il nome è riservato.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
L'operazione corrente ha tentato di aggiungere un vettore di eliminazione a una tabella che non consente la creazione di nuovi vettori di eliminazione. Segnalare un bug.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Tutte le operazioni che aggiungono vettori di eliminazione devono impostare la colonna tightBounds nelle statistiche su false. Segnalare un bug.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
Indice <columnIndex>
da aggiungere colonna <columnName>
è inferiore a 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Impossibile aggiungere <columnName>
perché il relativo elemento padre non è StructType. Fondare <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct non trovato nella posizione <position>
DELTA_ADD_CONSTRAINTS
Usare ALTER TABLE ADD CONSTRAINT per aggiungere vincoli CHECK.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Trovato <sqlExpr>
. Una colonna generata non può usare un'espressione di aggregazione
DELTA_AGGREGATION_NOT_SUPPORTED
Le funzioni di aggregazione non sono supportate in <operation>
<predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Impossibile modificare le regole di confronto della colonna <column>
perché contiene un indice di filtro bloom. Mantenere le regole di confronto esistenti oppure eliminare l'indice del filtro bloom e quindi ripetere il comando per modificare le regole di confronto.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Impossibile modificare le regole di confronto della colonna <column>
perché si tratta di una colonna di clustering. Mantenere le regole di confronto esistenti oppure modificare la colonna in una colonna non clustering con un comando ALTER TABLE e quindi ripetere il comando per modificare le regole di confronto.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN non è supportato per la modifica della colonna <currentType>
in <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY è supportato solo per la tabella Delta con clustering liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
Non è possibile applicare ALTER TABLE CLUSTER BY a una tabella partizionata.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Operazione non consentita: ALTER TABLE RENAME TO non è consentito per le tabelle Delta gestite in S3, perché la coerenza finale in S3 potrebbe danneggiare il log delle transazioni Delta. Se si insiste su questa operazione e si è certi che non sia mai stata creata una tabella Delta con il nuovo nome <newName>
prima, è possibile abilitare questa impostazione impostando <key>
su true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Impossibile abilitare la <tableFeature>
funzionalità tabella usando ALTER TABLE SET TBLPROPERTIES. Usare CREATE OR REPLACE TABLE CLUSTER BY per creare una tabella Delta con clustering.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Impossibile modificare il tipo di dati da <column>
<from>
a <to>
. Questa modifica contiene rimozioni e aggiunte di colonne, pertanto sono ambigue. Apportare queste modifiche singolarmente usando ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
La colonna <column>
di partizione ambigua può essere <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE contiene due posizioni diverse: <identifier>
e <location>
.
È possibile rimuovere la clausola LOCATION dall'istruzione CREATE TABLE o impostare
<config>
su true per ignorare questo controllo.
DELTA_ARCHIVED_FILES_IN_LIMIT
La tabella <table>
non contiene record sufficienti in file non archiviati per soddisfare il limite specificato di <limit>
record.
DELTA_ARCHIVED_FILES_IN_SCAN
Trovati <numArchivedFiles>
file potenzialmente archiviati nella tabella <table>
che devono essere analizzati come parte di questa query.
Impossibile accedere ai file archiviati. Ora corrente fino a quando l'archiviazione non viene configurata come <archivalTime>
.
Modificare i filtri di query per escludere eventuali file archiviati.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
L'operazione "<opName>
" non è consentita quando la tabella ha abilitato il feed di dati delle modifiche (CDF) e ha subito modifiche dello schema tramite DROP COLUMN o RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Impossibile eliminare gli indici di filtro bloom per le colonne non esistenti seguenti: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError si è verificato durante la scrittura di indici di filtro bloom per le colonne seguenti: <columnsWithBloomFilterIndices>
.
È possibile ridurre il footprint di memoria degli indici di filtro bloom scegliendo un valore più piccolo per l'opzione 'numItems', un valore più grande per l'opzione 'fpp' o indicizzando meno colonne.
DELTA_CANNOT_CHANGE_DATA_TYPE
Impossibile modificare il tipo di dati: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Impossibile modificare la 'posizione' della tabella Delta utilizzando SET TBLPROPERTIES. Usare invece ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
'provider' è una proprietà di tabella riservata e non può essere modificata.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Impossibile creare indici di filtro bloom per le colonne non esistenti seguenti: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Impossibile creare <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Impossibile descrivere la cronologia di una visualizzazione.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Impossibile eliminare l'indice del filtro bloom in una colonna non indicizzata: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Impossibile eliminare la funzionalità della tabella dei vincoli CHECK.
Per prima cosa, è necessario eliminare i vincoli seguenti: <constraints>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Impossibile valutare l'espressione: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Attesa di una tabella Delta di bucket, ma non è possibile trovare la specifica di bucket nella tabella
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Impossibile generare il codice per l'espressione: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Questa tabella è configurata in modo da consentire solo le aggiunte. Se si desidera consentire aggiornamenti o eliminazioni, usare 'ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)'.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
non può eseguire l'override o annullare l'impostazione delle proprietà della tabella timestamp di commit perché i commit coordinati sono abilitati in questa tabella e dipendono da essi. Rimuoverli ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dalla clausola TBLPROPERTIES e quindi ripetere il comando.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
Impossibile specificare la configurazione <prop>
della tabella Delta dall'utente
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
non può eseguire l'override delle configurazioni di commit coordinati per una tabella di destinazione esistente. Rimuoverli ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") dalla clausola TBLPROPERTIES e quindi ripetere il comando.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Un URI (<uri>
) che non può essere trasformato in un percorso relativo è stato trovato nel log delle transazioni.
DELTA_CANNOT_RELATIVIZE_PATH
Percorso (<path>
) che non può essere relativizzato con l'input corrente trovato in
log delle transazioni. Eseguire nuovamente il comando come segue:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<userPath>
", true)
e quindi eseguire anche:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog("<path>
")
DELTA_CANNOT_RENAME_PATH
Impossibile rinominare <currentPath>
in <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
Impossibile sostituire la tabella <tableName>
perché non esiste. Usare CREATE OR REPLACE TABLE per creare la tabella.
DELTA_CANNOT_RESOLVE_COLUMN
Impossibile risolvere la colonna <columnName>
in <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Impossibile ripristinare la tabella nella versione <version>
. Versioni disponibili: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Impossibile ripristinare il timestamp della tabella (<requestedTimestamp>
) perché è prima della versione meno recente disponibile. Usare un timestamp dopo (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Impossibile ripristinare il timestamp della tabella (<requestedTimestamp>
) perché è dopo la versione più recente disponibile. Usare un timestamp prima (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
non può impostare le proprietà della tabella timestamp in commit insieme ai commit coordinati, perché quest'ultimo dipende dal primo e imposta internamente il primo. Rimuoverli ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") dalla clausola TBLPROPERTIES e quindi ripetere il comando.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Impossibile modificare la posizione di una tabella basata su percorso.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Impossibile impostare delta.managedDataSkippingStatsColumns nella tabella non DLT
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER non può annullare l'impostazione delle configurazioni di commit coordinati. Per effettuare il downgrade di una tabella dai commit coordinati, riprovare a usare ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Impossibile aggiornare il campo %1$s %2$s: aggiornare l'elemento aggiornando %2$s.elemento
DELTA_CANNOT_UPDATE_MAP_FIELD
Impossibile aggiornare il campo %1$s %2$s: aggiornare una mappa aggiornando %2$s.key o %2$s.value
DELTA_CANNOT_UPDATE_OTHER_FIELD
Impossibile aggiornare il <tableName>
campo di tipo <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Impossibile aggiornare il tipo di campo<fieldName>
: aggiornare <tableName>
lo struct aggiungendo, eliminando o aggiornando i relativi campi
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Impossibile utilizzare tutte le colonne per le colonne di partizione
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
è una visualizzazione. Le scritture in una vista non sono supportate.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Impossibile scrivere un valore di tipo nella <targetType>
colonna <columnName>
di <sourceType>
tipo a causa di un overflow.
Usare try_cast
sul valore di input per tollerare l'overflow e restituire NULL.
Se necessario, impostare su <storeAssignmentPolicyFlag>
"LEGACY" per ignorare questo errore o impostare su <updateAndMergeCastingFollowsAnsiEnabledFlag>
true per ripristinare il comportamento precedente e seguire <ansiEnabledFlag>
in UPDATE e MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
Impossibile impostare la configurazione delta.enableChangeDataFeed. Il feed di dati delle modifiche da Delta non è ancora disponibile.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
Recupero delle modifiche della tabella tra versione <start>
e <end>
non riuscito a causa di uno schema di dati incompatibile.
Lo schema di lettura è <readSchema>
in versione <readVersion>
, ma è stato rilevato uno schema di dati incompatibile nella versione <incompatibleVersion>
.
Se possibile, recuperare le modifiche della tabella usando lo schema della versione finale impostando <config>
su endVersion
o contattare il supporto tecnico.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
Recupero delle modifiche della tabella tra versione <start>
e <end>
non riuscito a causa di una modifica dello schema incompatibile.
Lo schema di lettura si trova <readSchema>
nella versione <readVersion>
, ma è stata rilevata una modifica dello schema incompatibile alla versione <incompatibleVersion>
.
Se possibile, eseguire query sulla tabella modifiche separatamente dalla versione <start>
a <incompatibleVersion>
- 1 e dalla versione <incompatibleVersion>
a <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Impossibile trovare il file <filePath>
a cui si fa riferimento nel log delle transazioni. Ciò può verificarsi quando i dati sono stati eliminati manualmente dal file system anziché usare l'istruzione table DELETE
. Questa richiesta sembra essere destinata al feed di dati delle modifiche, se questo è il caso, questo errore può verificarsi quando il file di dati delle modifiche non rientra nel periodo di conservazione ed è stato eliminato dall'istruzione VACUUM
. Per altre informazioni, vedere <faqPath>
.
DELTA_CHANGE_TABLE_FEED_DISABLED
Impossibile scrivere nella tabella con delta.enableChangeDataFeed impostato. Il feed di dati delle modifiche da Delta non è disponibile.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Impossibile creare un checkpoint per una tabella <path>
non esistente. I file sono stati eliminati manualmente nella directory _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Sono stati forniti due percorsi come destinazione CLONE in modo che sia ambiguo da usare. Un oggetto esterno
percorso per CLONE è stato fornito contemporaneamente <externalLocation>
al percorso
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
File (<fileName>
) non copiato completamente. Dimensioni del file previste: <expectedSize>
, trovato: <actualSize>
. Per continuare con l'operazione ignorando il controllo delle dimensioni del file impostato su <config>
false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Origine clone non supportata <mode>
'<name>
', il cui formato è <format>
.
I formati supportati sono "delta", "iceberg" e "parquet".
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
CLONE non è supportato per la tabella Delta con clustering liquid per DBR versione < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
CLUSTER BY non è supportato perché le colonne seguenti: <columnsWithDataTypes>
non supportano l'omissione dei dati.
DELTA_CLUSTERING_COLUMNS_MISMATCH
Le colonne di clustering fornite non corrispondono a quella della tabella esistente.
- a condizione che:
<providedClusteringColumns>
- esistente:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
Il clustering liquido richiede che le colonne di clustering abbiano statistiche. Impossibile trovare le colonne di clustering '<columns>
' nello schema delle statistiche:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
La creazione di una tabella esterna senza clustering liquido da una directory di tabella con clustering liquido non è consentita; path: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
'<operation>
' non supporta il clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Impossibile completare l'oggetto <phaseOutType>
della tabella con <tableFeatureToAdd>
la funzionalità tabella (motivo: <reason>
). Provare di nuovo il comando OPTIMIZE.
== Errore ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
Sostituire una tabella Delta con clustering liquid con una tabella partizionata non è consentita.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
SHOW CREATE TABLE non è supportato per la tabella Delta con clustering liquid senza colonne di clustering.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
La transizione di una tabella Delta con clustering liquido a una tabella partizionata non è consentita per l'operazione: <operation>
, quando la tabella esistente contiene colonne di clustering non vuote.
Eseguire ALTER TABLE CLUSTER BY NONE per rimuovere prima le colonne di clustering.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
La modalità di sovrascrittura della partizione dinamica non è consentita per la tabella Delta con clustering liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
Il comando OPTIMIZE per la tabella Delta con clustering Liquid non supporta predicati di partizione. Rimuovere i predicati: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
Il comando OPTIMIZE per la tabella Delta con clustering liquid non può specificare ZORDER BY. Rimuovere ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY per clustering liquido supporta fino alle <numColumnsLimit>
colonne di clustering, ma la tabella include <actualNumColumns>
colonne di clustering. Rimuovere le colonne di clustering aggiuntive.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Non è consentito specificare CLUSTER BY quando lo schema non è definito. Definire lo schema per la tabella <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Non è possibile specificare il clustering e il bucketing. Rimuovere CLUSTERED BY INTO BUCKETS/bucketBy se si vuole creare una tabella Delta con clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Non è possibile specificare il clustering e il partizionamento. Rimuovere PARTITIONED BY/partitionBy/partitionedBy se si vuole creare una tabella Delta con clustering.
DELTA_COLLATIONS_NOT_SUPPORTED
Le regole di confronto non sono supportate in Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Il salto dei dati non è supportato per la colonna di partizione '<column>
'.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Il salto dei dati non è supportato per la colonna '<column>
' di tipo <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
La proprietà max column id (<prop>
) non è impostata su una tabella abilitata per il mapping delle colonne.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
La proprietà max column id (<prop>
) in una tabella abilitata per il mapping delle colonne è <tableMax>
, che non può essere inferiore all'ID di colonna massimo per tutti i campi (<fieldMax>
).
DELTA_COLUMN_MISSING_DATA_TYPE
Tipo di dati della colonna <colName>
non specificato.
DELTA_COLUMN_NOT_FOUND
Impossibile trovare la colonna <columnName>
specificata [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Impossibile trovare la colonna '<targetCol>
' della tabella di destinazione dalle colonne INSERT: <colNames>
. La clausola INSERT deve specificare il valore per tutte le colonne della tabella di destinazione.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Impossibile trovare la colonna <columnName>
in:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Previsto <columnPath>
come tipo di dati annidato, ma trovato <other>
. Stava cercando il
indice di <column>
in un campo annidato.
Schema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
La colonna <source>
Struct non può essere inserita in un <targetType>
campo <targetField>
in <targetTable>
.
DELTA_COMPACTION_VALIDATION_FAILED
Convalida della compattazione del percorso <compactedPath>
non <newPath>
riuscita: segnalare un bug.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Trovato NullType annidato nella colonna <columName>
che è di <dataType>
. Delta non supporta la scrittura di NullType in tipi complessi.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: i file sono stati aggiunti a <partition>
da un aggiornamento simultaneo. <retryMsg>
<conflictingCommit>
Per altri dettagli, vedere .<docLink>
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: questa transazione ha tentato di eliminare uno o più file eliminati (ad esempio <file>
) da un aggiornamento simultaneo. Riprovare a eseguire l'operazione.<conflictingCommit>
Per altri dettagli, vedere .<docLink>
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: questa transazione ha tentato di leggere uno o più file eliminati (ad esempio <file>
) da un aggiornamento simultaneo. Riprovare a eseguire l'operazione.<conflictingCommit>
Per altri dettagli, vedere .<docLink>
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: questo errore si verifica quando più query di streaming usano lo stesso checkpoint per scrivere in questa tabella. Sono state eseguite più istanze della stessa query di streaming contemporaneamente?<conflictingCommit>
Per altri dettagli, vedere .<docLink>
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: una transazione simultanea ha scritto nuovi dati dopo che la transazione corrente legge la tabella. Riprovare a eseguire l'operazione.<conflictingCommit>
Per altri dettagli, vedere .<docLink>
DELTA_CONFLICT_SET_COLUMN
Si è verificato un conflitto da queste colonne SET: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Durante <command>
, la configurazione "<configuration>
" non può essere impostata dal comando . Rimuoverlo dalla clausola TBLPROPERTIES e quindi ripetere il comando.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Durante <command>
, la configurazione "<configuration>
" non può essere impostata dalle configurazioni sparkSession. Annullare l'impostazione eseguendo spark.conf.unset("<configuration>")
e quindi ripetere il comando.
DELTA_CONSTRAINT_ALREADY_EXISTS
Il vincolo '<constraintName>
' esiste già. Eliminare prima il vincolo precedente.
Vincolo precedente:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
La colonna <columnName>
ha un tipo di <columnType>
dati e non può essere modificata nel tipo di <dataType>
dati perché a questa colonna fa riferimento i vincoli check seguenti:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Impossibile modificare la colonna <columnName>
perché questa colonna fa riferimento ai vincoli check seguenti:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Impossibile eliminare un vincolo <constraintName>
inesistente dalla tabella <tableName>
. Per evitare di generare un errore, specificare il parametro IF EXISTS o impostare la configurazione <config>
della sessione SQL su <confValue>
.
DELTA_CONVERSION_NO_PARTITION_FOUND
Impossibile trovare informazioni sulla partizione nel catalogo per la tabella <tableName>
. È stato eseguito "MSCK REPAIR TABLE" nella tabella per individuare le partizioni?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Impossibile convertire la tabella Parquet con la colonna <colName>
di partizione collata in Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
La configurazione '<config>
' non può essere impostata su <mode>
quando si usa CONVERT TO DELTA.
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA supporta solo le tabelle Parquet, ma si sta tentando di convertire un'origine <sourceName>
: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Impossibile abilitare il rilevamento delle righe senza raccogliere statistiche.
Se si vuole abilitare il rilevamento delle righe, eseguire le operazioni seguenti:
Abilitare la raccolta di statistiche eseguendo il comando
SET
<statisticsCollectionPropertyKey>
= true- Eseguire CONVERTI IN DELTA senza l'opzione NO STATISTICS.
Se non si desidera raccogliere statistiche, disabilitare il rilevamento delle righe:
Disattivare l'abilitazione della funzionalità tabella per impostazione predefinita eseguendo il comando :
RESETTARE
<rowTrackingTableFeatureDefaultKey>
Disattivare la proprietà della tabella per impostazione predefinita eseguendo:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
La destinazione COPY INTO deve essere una tabella Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Si sta tentando di creare una tabella esterna <tableName>
dall'uso <path>
di Delta, ma lo schema non viene specificato quando
il percorso di input è vuoto.
Per altre informazioni su Delta, vedere <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Si sta tentando di creare una tabella esterna <tableName>
dall'uso %2$s
di Delta, ma non è presente alcun log delle transazioni in
%2$s/_delta_log
. Controllare il processo upstream per assicurarsi che stia scrivendo usando
format("delta") e che il percorso è la radice della tabella.
Per altre informazioni su Delta, vedere <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
La creazione di una tabella Delta basata su percorso con una posizione diversa non è supportata. Identificatore: <identifier>
, Posizione: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
È necessario specificare il nome o la posizione della tabella.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
Lo schema specificato non corrisponde allo schema esistente in <path>
.
== Specificato ==
<specifiedSchema>
== Esistente ==
<existingSchema>
== Differenze ==
<schemaDifferences>
Se si intende mantenere lo schema esistente, è possibile omettere
schema dal comando create table. In caso contrario, assicurarsi che
corrisponde allo schema.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Impossibile abilitare la <tableFeature>
funzionalità tabella tramite TBLPROPERTIES. Usare CREATE OR REPLACE TABLE CLUSTER BY per creare una tabella Delta con clustering.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
Le colonne di clustering specificate non corrispondono alle colonne di clustering esistenti in <path>
.
== Specificato ==
<specifiedColumns>
== Esistente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
Il partizionamento specificato non corrisponde al partizionamento esistente in <path>
.
== Specificato ==
<specifiedColumns>
== Esistente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
Le proprietà specificate non corrispondono alle proprietà esistenti in <path>
.
== Specificato ==
<specifiedProperties>
== Esistente ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Impossibile creare una tabella ('<tableId>
'). Il percorso associato (''<tableLocation>
) non è vuoto e non una tabella Delta.
DELTA_DATA_CHANGE_FALSE
Impossibile modificare i metadati della tabella perché l'opzione 'dataChange' è impostata su false. Operazione tentata: '<op>
'.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Impossibile trovare il file <filePath>
a cui si fa riferimento nel log delle transazioni. Questo file parquet può essere eliminato nei criteri di conservazione dei dati di Delta.
Durata predefinita per la conservazione dei dati Delta: <logRetentionPeriod>
. Ora di modifica del file parquet: <modificationTime>
. Tempo di eliminazione del file parquet: <deletionTime>
. Eliminato nella versione Delta: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
Non è valido eseguire il commit dei file con vettori di eliminazione mancanti nella statistica numRecords.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Rilevata azione DomainMetadata per i domini <domainNames>
, ma DomainMetadataTableFeature non è abilitata.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
L'indice <columnIndex>
da eliminare è inferiore a 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Impossibile eliminare una colonna da uno schema con una singola colonna. Schema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
L'operazione di file '<actionType>
' per il percorso <path>
è stata specificata più volte.
È in conflitto con <conflictingPath>
.
Non è valido per più operazioni di file con lo stesso percorso in un singolo commit.
DELTA_DUPLICATE_COLUMNS_FOUND
Sono state trovate colonne <coltype>
duplicate: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Nomi di colonna duplicati nella clausola INSERT
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Rimuovere le colonne duplicate prima di aggiornare la tabella.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Dati duplicati che ignorano le colonne trovate: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Errore interno: due azioni DomainMetadata all'interno della stessa transazione hanno lo stesso dominio <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Impossibile deserializzare l'istogramma dei conteggi dei record eliminati durante la verifica dell'integrità della tabella.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
La modalità di sovrascrittura della partizione dinamica viene specificata dalle opzioni di configurazione o scrittura della sessione, ma è disabilitata da spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
I dati usati per la creazione della tabella Delta non hanno colonne.
DELTA_EMPTY_DIRECTORY
Nessun file trovato nella directory : <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
Il valore "<value>
" supera il limite di lunghezza del tipo char/varchar. Controllo non riuscito: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Impossibile eseguire il cast del valore <value>
della partizione in <dataType>
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Impossibile trovare <newAttributeName>
tra l'output di destinazione esistente <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Impossibile dedurre lo schema dall'elenco specificato di file.
DELTA_FAILED_MERGE_SCHEMA_FILE
Impossibile unire lo schema del file <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Impossibile leggere il piè di pagina per il file: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Impossibile riconoscere il predicato '<predicate>
'
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Aspettatevi un'analisi completa della versione più recente dell'origine Delta, ma è stata trovata un'analisi cronologica della versione <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
Impossibile unire i campi '<currentField>
' e '<updateField>
'
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Impossibile operare su questa tabella perché le funzionalità della tabella seguenti sono abilitate nei metadati ma non elencate nel protocollo: <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Lo schema della tabella richiede l'abilitazione manuale delle funzionalità della tabella seguenti: <unsupportedFeatures>
.
A tale scopo, eseguire il comando seguente per ognuna delle funzionalità elencate in precedenza:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Sostituire "table_name" e "feature_name" con valori reali.
Funzionalità supportate correnti: <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Impossibile eliminare la funzionalità perché una transazione simultanea ha modificato la tabella.
Riprovare a eseguire l'operazione.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Impossibile eliminare la funzionalità <feature>
tabella perché alcune altre funzionalità (<dependentFeatures>
) in questa tabella dipendono da <feature>
.
È consigliabile eliminarli prima di eliminare questa funzionalità.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Impossibile eliminare <feature>
da questa tabella perché non è attualmente presente nel protocollo della tabella.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Impossibile eliminare <feature>
perché il log Delta contiene versioni cronologiche che usano la funzionalità.
Attendere fino al periodo di conservazione della cronologia (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
è passato dall'ultima volta che la funzionalità è stata attiva.
In alternativa, attendere che il periodo di conservazione TRUNCATE HISTORY scada (<truncateHistoryLogRetentionPeriod>
)
e quindi eseguire:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
La caratteristica specifica non richiede il troncamento della cronologia.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Impossibile eliminare <feature>
perché l'eliminazione di questa funzionalità non è supportata.
Contattare il supporto tecnico di Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Impossibile eliminare <feature>
perché non è supportato da questa versione di Databricks.
Prendere in considerazione l'uso di Databricks con una versione successiva.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
L'eliminazione <feature>
è stata completata parzialmente.
La funzionalità non viene più usata nella versione corrente della tabella. Tuttavia, la funzionalità
è ancora presente nelle versioni cronologiche della tabella. Impossibile eliminare la funzionalità tabella
dal protocollo di tabella fino alla scadenza di queste versioni cronologiche.
Per eliminare la funzionalità tabella dal protocollo, attendere che le versioni cronologiche
scadere e quindi ripetere questo comando. Il periodo di conservazione per le versioni cronologiche è
attualmente configurato come <logRetentionPeriodKey>
=<logRetentionPeriod>
.
In alternativa, attendere che il periodo di conservazione TRUNCATE HISTORY scada (<truncateHistoryLogRetentionPeriod>
)
e quindi eseguire:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Impossibile abilitare la funzionalità <feature>
di tabella perché richiede una versione del protocollo lettore superiore (corrente <current>
). È consigliabile aggiornare la versione del protocollo lettore della tabella a <required>
o a una versione che supporta le funzionalità della tabella lettore. Per altre informazioni sulle versioni del protocollo di tabella, vedere .<docLink>
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Impossibile abilitare la funzionalità <feature>
di tabella perché richiede una versione del protocollo writer superiore (corrente <current>
). È consigliabile aggiornare la versione del protocollo writer della tabella a <required>
o a una versione che supporta le funzionalità della tabella writer. Per altre informazioni sulle versioni del protocollo di tabella, vedere .<docLink>
DELTA_FILE_ALREADY_EXISTS
Percorso file esistente <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Impossibile specificare sia l'elenco di file che la stringa del criterio.
DELTA_FILE_NOT_FOUND
Percorso file <path>
DELTA_FILE_NOT_FOUND_DETAILED
Impossibile trovare il file <filePath>
a cui si fa riferimento nel log delle transazioni. Ciò si verifica quando i dati sono stati eliminati manualmente dal file system anziché usare l'istruzione table DELETE
. Per altre informazioni, vedere <faqPath>
.
DELTA_FILE_OR_DIR_NOT_FOUND
Nessun file o directory di questo tipo: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
File (<path>
) da riscrivere non trovato tra i file candidati:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
È stato trovato un oggetto MapType. Per accedere alla chiave o al valore di un oggetto MapType, specificarne uno
di:
<key>
oppure
<value>
seguito dal nome della colonna (solo se la colonna è un tipo di struct).
ad esempio mymap.key.mykey
Se la colonna è un tipo di base, mymap.key o mymap.value è sufficiente.
Schema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
La colonna <columnName>
ha un tipo di <columnType>
dati e non può essere modificata nel tipo di <dataType>
dati perché a questa colonna viene fatto riferimento dalle colonne generate seguenti:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Impossibile modificare la colonna <columnName>
perché a questa colonna viene fatto riferimento dalle colonne generate seguenti:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
Il tipo di espressione della colonna <columnName>
generata è <expressionType>
, ma il tipo di colonna è <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
La colonna <currentName>
è una colonna generata o una colonna utilizzata da una colonna generata. Il tipo di dati è <currentDataType>
e non può essere convertito nel tipo di dati <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
La convalida di IcebergCompatV<version>
non è riuscita.
Per altri dettagli, vedere DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN non è supportato per le colonne IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY è supportato solo da Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
Non è possibile chiamare ALTER TABLE ALTER COLUMN SYNC IDENTITY nelle colonne non IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
L'aggiunta di valori per la colonna <colName>
GENERATED ALWAYS AS IDENTITY non è supportata.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
Il passaggio della colonna IDENTITY non può essere 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
Le colonne IDENTITY sono supportate solo da Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
La colonna <colName>
PARTITIONED BY IDENTITY non è supportata.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS non è supportato per la tabella con colonne IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
DataType <dataType>
non è supportato per le colonne IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE per la colonna <colName>
IDENTITY non è supportato.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
Impossibile specificare la colonna IDENTITY con un'espressione di colonna generata.
DELTA_ILLEGAL_OPTION
Valore '<input>
' non valido per l'opzione '<name>
', <explain>
DELTA_ILLEGAL_USAGE
L'utilizzo di <option>
non è consentito quando <operation>
una tabella Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec nella tabella con bucket Delta non corrisponde a BucketSpec dai metadati. Previsto: <expected>
. Effettivo: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) non può essere impostato su valori diversi. Impostare solo uno di essi o impostarli sullo stesso valore.
DELTA_INCORRECT_ARRAY_ACCESS
Accesso non corretto a un arrayType. Usare la posizione arrayname.element.elementname per
aggiungere a una matrice.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
È stato trovato un arrayType. Per accedere agli elementi di un arrayType, specificare
<rightName>
anziché <wrongName>
.
Schema:
<schema>
DELTA_INCORRECT_GET_CONF
Usare getConf()
invece di 'conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
L'errore si verifica in genere quando l'implementazione predefinita di LogStore,
is, HDFSLogStore, viene usato per scrivere in una tabella Delta in un sistema di archiviazione non HDFS.
Per ottenere le garanzie ACID transazionali sugli aggiornamenti delle tabelle, è necessario usare
implementazione corretta di LogStore appropriata per il sistema di archiviazione.
Per informazioni dettagliate, vedere <docLink>
.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
Indice <position>
per eliminare la colonna uguale a o è maggiore della lunghezza dello struct: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
Indice <index>
per l'aggiunta di una colonna <columnName>
maggiore della lunghezza dello struct: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Impossibile scrivere in '<tableName>
', <columnName>
; la tabella di destinazione contiene <numColumns>
colonne, ma i dati inseriti hanno <insertColumns>
colonne
DELTA_INSERT_COLUMN_MISMATCH
Colonna <columnName>
non specificata in INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
Tipo di compattazione automatica non valido: <value>
. I valori consentiti sono: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Numero di bucket non valido: <invalidBucketCount>
. Il numero di bucket deve essere un numero positivo di potenza pari a 2 e almeno 8. È invece possibile usare <validBucketCount>
.
DELTA_INVALID_BUCKET_INDEX
Impossibile trovare la colonna bucket nelle colonne della partizione
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
L'intervallo non può essere null o vuoto.
DELTA_INVALID_CDC_RANGE
Intervallo CDC compreso tra inizio <start>
e fine <end>
non valido. Non è possibile terminare prima dell'inizio.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
Il nome dell'attributo "<columnName>
" contiene caratteri non validi tra " ,;{}()\n\t=". Usare l'alias per rinominarlo.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Trovato uno o più caratteri non validi tra ',;{}()nt=' nei nomi di colonna dello schema.
Nomi di colonna non validi: <invalidColumnNames>
.
Usare altri caratteri e riprovare.
In alternativa, abilitare Mapping colonne per continuare a usare questi caratteri.
DELTA_INVALID_CLONE_PATH
Il percorso di destinazione per CLONE deve essere un percorso assoluto o un nome di tabella. Usare un oggetto
percorso assoluto anziché <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Trovato uno o più caratteri non validi tra ',;{}()nt=' nei nomi di colonna dello schema.
Nomi di colonna non validi: <invalidColumnNames>
.
Impossibile rimuovere il mapping delle colonne quando sono presenti caratteri non validi nei nomi delle colonne.
Rinominare le colonne per rimuovere i caratteri non validi ed eseguire di nuovo questo comando.
DELTA_INVALID_FORMAT
Rilevato formato incompatibile.
È stato trovato un log delle transazioni per Delta in <deltaRootPath>
/_delta_log',
ma si sta tentando di <operation>
<path>
usare format("<format>
"). È necessario usare
'format("delta")' durante la lettura e la scrittura in una tabella differenziale.
Per altre informazioni su Delta, vedere <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Una colonna generata non può utilizzare una colonna inesistente o un'altra colonna generata
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Opzioni non valide per le scritture di dataframe idempotenti: <reason>
DELTA_INVALID_INTERVAL
<interval>
non è un intervallo valido.
DELTA_INVALID_INVENTORY_SCHEMA
Lo schema per l'oggetto INVENTORY specificato non contiene tutti i campi obbligatori. I campi obbligatori sono: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
livello<isolationLevel>
di isolamento '' non valido
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) e (<schemeConfig>
) non possono essere impostati contemporaneamente. Impostare solo un gruppo di essi.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Si sta tentando di creare una tabella gestita <tableName>
utilizzando Delta, ma lo schema non è specificato.
Per altre informazioni su Delta, vedere <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
non è una colonna di partizione valida nella tabella <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Sono state trovate colonne di partizione con caratteri non validi tra " ,;{}()nt=". Modificare il nome nelle colonne di partizione. Questo controllo può essere disattivato impostando spark.conf.set("spark.databricks.delta.partitionColumnValidity.enabled", false) ma non è consigliabile perché altre funzionalità di Delta potrebbero non funzionare correttamente.
DELTA_INVALID_PARTITION_COLUMN_TYPE
L'uso di una colonna di tipo <dataType>
come colonna <name>
di partizione non è supportato.
DELTA_INVALID_PARTITION_PATH
Un frammento di percorso della partizione deve essere il formato , ad esempio part1=foo/part2=bar
. Percorso della partizione: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
Non è possibile effettuare il downgrade della versione del protocollo da <oldProtocol>
a <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Versione del protocollo Delta non supportata: la tabella "<tableNameOrPath>
" richiede la versione <readerRequired>
lettore e la versione <writerRequired>
del writer , ma questa versione di Databricks supporta le versioni <supportedReaders>
lettore e le versioni <supportedWriters>
del writer . Eseguire l'aggiornamento a una versione più recente.
DELTA_INVALID_TABLE_VALUE_FUNCTION
Function <function>
è una funzione con valori di tabella non supportata per le letture CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
Il timestamp <timestamp>
specificato non corrisponde alla sintassi <format>
prevista.
DELTA_LOG_ALREADY_EXISTS
Esiste già un log Delta in <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Se non è mai stato eliminato, è probabile che la query sia in ritardo. Eliminare il relativo checkpoint da riavviare da zero. Per evitare questo problema, è possibile aggiornare i criteri di conservazione della tabella Delta
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
Nome di colonna materializzato <rowTrackingColumn>
mancante per <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Usare un limite minore di Int.MaxValue - 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Il commit non è riuscito perché è stato provato <numAttempts>
, ma non è riuscito.
Ciò può essere causato dal commit continuo della tabella Delta da molti simultanei
Commette.
Commit avviato alla versione: <startVersion>
Commit non riuscito alla versione: <failVersion>
Numero di azioni tentate di eseguire il commit: <numActions>
Tempo totale impiegato per il tentativo di commit: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
L'elenco di file deve avere al massimo <maxFileListSize>
le voci, con <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Impossibile aggiungere una colonna <newColumn>
con tipo VOID. Specificare in modo esplicito un tipo non void.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Impossibile unire tipi di <currentDataType>
dati incompatibili e <updateDataType>
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Impossibile unire tipi decimali con incompatibili <decimalRanges>
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
La conservazione ripetuta dell'origine dell'istruzione MERGE materializzata non è riuscita.
DELTA_MERGE_MISSING_WHEN
In un'istruzione MERGE deve essere presente almeno una clausola WHEN.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Attributi <missingAttributes>
risolti mancanti nell'operatore <input>
in <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Chiave di assegnazione imprevista: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Impossibile risolvere <sqlExpr>
in <clause>
un dato <cols>
oggetto .
DELTA_METADATA_CHANGED
MetadataChangedException: i metadati della tabella Delta sono stati modificati da un aggiornamento simultaneo. Riprovare a eseguire l'operazione.<conflictingCommit>
Per altri dettagli, vedere .<docLink>
DELTA_MISSING_CHANGE_DATA
Errore durante il recupero dei dati delle modifiche per l'intervallo [<startVersion>
, <endVersion>
] perché i dati delle modifiche non erano
registrato per la versione [<version>
]. Se è stato abilitato il feed di dati delle modifiche in questa tabella,
usare DESCRIBE HISTORY
per vedere quando è stato abilitato per la prima volta.
In caso contrario, per avviare la registrazione dei dati delle modifiche, usare 'ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)'.
DELTA_MISSING_COLUMN
Impossibile trovare <columnName>
nelle colonne della tabella: <columnList>
DELTA_MISSING_COMMIT_INFO
Questa tabella include la funzionalità <featureName>
abilitata che richiede la presenza dell'azione CommitInfo in ogni commit. Tuttavia, l'azione CommitInfo non è presente nella versione <version>
di commit .
DELTA_MISSING_COMMIT_TIMESTAMP
Questa tabella include la funzionalità <featureName>
abilitata che richiede la presenza di commitTimestamp nell'azione CommitInfo. Tuttavia, questo campo non è stato impostato nella versione <version>
di commit .
DELTA_MISSING_DELTA_TABLE
<tableName>
non è una tabella Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
La tabella non esiste. Creare prima una tabella Delta vuota usando CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
La classe Iceberg non è stata trovata. Assicurarsi che sia installato il supporto Delta Iceberg.
Per altri dettagli, fare riferimento a <docLink>
.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
La colonna <columnName>
, che ha un vincolo NOT NULL, non è presente nei dati scritti nella tabella.
DELTA_MISSING_PARTITION_COLUMN
<columnName>
Colonna di partizione non trovata nello schema<columnList>
DELTA_MISSING_PART_FILES
Impossibile trovare tutti i file di parte della versione del checkpoint: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA supporta solo le tabelle Parquet. Riscrivere la destinazione come parquet.<path>
se si tratta di una directory parquet.
DELTA_MISSING_SET_COLUMN
Colonna <columnName>
SET non trovata in colonne specificate: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Rilevato formato incompatibile.
Si sta provando a usare <operation>
<path>
Delta, ma non c'è
log delle transazioni presente. Controllare il processo upstream per assicurarsi che stia scrivendo
utilizzando format("delta") e che si sta tentando di %1$s il percorso di base della tabella.
Per altre informazioni su Delta, vedere <docLink>
DELTA_MODE_NOT_SUPPORTED
La modalità specificata '<mode>
' non è supportata. Le modalità supportate sono: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Più <startingOrEnding>
argomenti forniti per la lettura cdc. Specificare un <startingOrEnding>
timestamp o <startingOrEnding>
una versione.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Più configurazioni dell'indice filtro bloom passate al comando per la colonna: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Impossibile eseguire merge come più righe di origine corrispondenti e si è tentato di modificare lo stesso
riga di destinazione nella tabella Delta in modi potenzialmente in conflitto. Per semantica SQL di merge,
quando più righe di origine corrispondono alla stessa riga di destinazione, il risultato può essere ambiguo
poiché non è chiaro quale riga di origine deve essere usata per aggiornare o eliminare la corrispondenza
riga di destinazione. È possibile pre-elaborare la tabella di origine per eliminare la possibilità di
più corrispondenze. Fare riferimento alla sezione
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Durante <command>
, entrambe le configurazioni di commit coordinati ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") vengono impostate nel comando o nessuno di essi. Mancante: "<configuration>
". Specificare questa configurazione nella clausola TBLPROPERTIES o rimuovere l'altra configurazione e quindi ripetere il comando.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Durante <command>
, entrambe le configurazioni di commit coordinati ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") vengono impostate nelle configurazioni sparkSession o in nessuno di essi. Mancante: "<configuration>
". Impostare questa configurazione in SparkSession o annullare l'impostazione dell'altra configurazione e quindi ripetere il comando.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
I nomi di colonna seguenti sono riservati solo per l'utilizzo interno della tabella con bucket Delta: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
Lo schema di input contiene campi annidati con maiuscole e minuscole diverse rispetto alla tabella di destinazione.
Devono essere rinominati per evitare la perdita di dati in questi campi durante la scrittura in Delta.
Campi:
<fields>
.
Schema originale:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
Il <nestType>
tipo del campo <parent>
contiene un vincolo NOT NULL. Delta non supporta vincoli NOT NULL annidati all'interno di matrici o mappe. Per eliminare questo errore e ignorare automaticamente i vincoli specificati, impostare <configKey>
= true.
Tipo analizzato <nestType>
:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
La sottoquery nidificata non è supportata nella <operation>
condizione .
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
le righe in <tableName>
violano il nuovo vincolo CHECK (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
le righe in <tableName>
violano il nuovo vincolo NOT NULL su <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
Il vincolo CHECK '<name>
' (<expr>
) deve essere un'espressione booleana.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Trovato <expr>
. Una colonna generata non può utilizzare un'espressione non deterministica.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Le funzioni non deterministiche non sono supportate in <operation>
<expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando in un'istruzione MERGE sono presenti più clausole MATCHED, solo l'ultima clausola MATCHED può omettere la condizione.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando in un'istruzione MERGE sono presenti più clausole NOT MATCHED BY SOURCE, solo l'ultima clausola NOT MATCHED BY SOURCE può omettere la condizione.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Quando in un'istruzione MERGE sono presenti più clausole NOT MATCHED, solo l'ultima clausola NOT MATCHED può omettere la condizione
DELTA_NON_PARSABLE_TAG
Impossibile analizzare il tag <tag>
.
I tag di file sono: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
I dati scritti in Delta devono contenere almeno una colonna non partizionata.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
Il predicato fa riferimento a una colonna non di partizione '<columnName>
'. È possibile fare riferimento solo alle colonne di partizione: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
Le colonne <columnList>
non di partizionamento sono specificate in cui sono previste solo colonne di partizionamento: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
Il catalogo Delta richiede uno spazio dei nomi a parte singola, ma <identifier>
è in più parti.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
non è una tabella Delta. Eliminare prima questa tabella se si vuole crearla con Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
non è una tabella Delta. Eliminare prima questa tabella se si vuole ricrearla con Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Colonna non nullable non trovata nello struct: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
VINCOLO NOT NULL violato per la colonna: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Non è possibile aggiungere un campo annidato non nullable a un elemento padre nullable. Impostare di conseguenza il supporto dei valori Null della colonna padre.
DELTA_NO_COMMITS_FOUND
Nessun commit trovato in <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Nessun commit ricreabile trovato in <logPath>
DELTA_NO_RELATION_TABLE
Tabella <tableIdent>
non trovata
DELTA_NO_START_FOR_CDC_READ
Nessun valore startingVersion o startingTimestamp fornito per la lettura CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
Delta non accetta valori NullType nello schema per le scritture di streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Specificare "timestampAsOf" o "versionAsOf" per il viaggio in tempo.
DELTA_ONLY_OPERATION
<operation>
è supportato solo per le tabelle Delta.
DELTA_OPERATION_MISSING_PATH
Specificare il percorso o l'identificatore di tabella per <operation>
.
DELTA_OPERATION_NOT_ALLOWED
Operazione non consentita: <operation>
non è supportata per le tabelle Delta
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Operazione non consentita: <operation>
non è supportata per le tabelle Delta: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
non è supportato per la colonna <colName>
con regole <collation>
di confronto non predefinite.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
non è supportato per l'espressione <exprText>
perché usa regole di confronto non predefinite.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
<operation>
il comando in una vista temporanea che fa riferimento a una tabella Delta che contiene colonne generate non è supportato. Eseguire direttamente il <operation>
comando nella tabella Delta
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Operazione non consentita: <operation>
non può essere eseguita su una vista.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL è supportato solo per le tabelle in cluster con colonne di clustering non vuote.
DELTA_OVERWRITE_MUST_BE_TRUE
Impossibile specificare l'opzione Copy OverwriteSchema senza impostare OVERWRITE = 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
Impossibile usare "overwriteSchema" in modalità sovrascrittura della partizione dinamica.
DELTA_PARTITION_COLUMN_CAST_FAILED
Impossibile eseguire il cast del valore <value>
a <dataType>
per la colonna di partizione <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
<columnName>
Colonna di partizione non trovata nello schema [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
Impossibile specificare lo schema di partizione durante la conversione delle tabelle Iceberg. Viene dedotto automaticamente.
DELTA_PATH_DOES_NOT_EXIST
<path>
non esiste o non è una tabella Delta.
DELTA_PATH_EXISTS
Impossibile scrivere in un percorso <path>
già esistente senza impostare OVERWRITE = 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
Il commit nella versione <version>
della tabella Delta è riuscito ma si è verificato un errore durante l'esecuzione dell'hook <name>
post-commit <message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: la versione del protocollo della tabella Delta è stata modificata da un aggiornamento simultaneo. <additionalInfo>
<conflictingCommit>
Per altri dettagli, vedere .<docLink>
DELTA_PROTOCOL_PROPERTY_NOT_INT
La proprietà <key>
Protocol deve essere un numero intero. Fondare <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Impossibile aggiornare solo la versione del protocollo lettore per usare le funzionalità della tabella. La versione del protocollo writer deve essere almeno <writerVersion>
per procedere. Per altre informazioni sulle versioni del protocollo di tabella, vedere .<docLink>
DELTA_READ_TABLE_WITHOUT_COLUMNS
Si sta tentando di leggere una tabella <tableName>
Delta che non contiene colonne.
Scrivere alcuni nuovi dati con l'opzione mergeSchema = true
per poter leggere la tabella.
DELTA_REGEX_OPT_SYNTAX_ERROR
Ricontrollare la sintassi per '<regExpOption>
'
DELTA_REPLACE_WHERE_IN_OVERWRITE
Non è possibile usare replaceWhere in combinazione con una sovrascrittura in base al filtro
DELTA_REPLACE_WHERE_MISMATCH
I dati scritti non sono conformi alla condizione di sovrascrittura della tabella parziale o al vincolo '<replaceWhere>
'.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
Non è possibile impostare un'espressione 'replaceWhere' e 'partitionOverwriteMode'='dynamic' nelle opzioni DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' non può essere usato con i filtri dati quando 'dataChange' è impostato su false. Filtri: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Non è possibile assegnare ID di riga senza statistiche sul numero di righe.
Raccogliere statistiche per la tabella eseguendo il codice seguente in un notebook Scala e riprovare:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Modifica dello schema rilevata:
schema dell'origine di streaming: <readSchema>
schema del file di dati: <dataSchema>
Provare a riavviare la query. Se questo problema si ripete tra i riavvii delle query senza
avanzamento, è stata apportata una modifica dello schema incompatibile ed è necessario avviare il
eseguire una query da zero usando una nuova directory del checkpoint.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Rilevata modifica dello schema nella versione <version>
:
schema dell'origine di streaming: <readSchema>
schema del file di dati: <dataSchema>
Provare a riavviare la query. Se questo problema si ripete tra i riavvii delle query senza
avanzamento, è stata apportata una modifica dello schema incompatibile ed è necessario avviare il
eseguire una query da zero usando una nuova directory del checkpoint. Se il problema persiste dopo
passare a una nuova directory del checkpoint, potrebbe essere necessario modificare la directory esistente
Opzione 'startingVersion' o 'startingTimestamp' per iniziare da una versione più recente di
<version>
con una nuova directory del checkpoint.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Rilevata modifica dello schema nella versione <version>
:
schema dell'origine di streaming: <readSchema>
schema del file di dati: <dataSchema>
Provare a riavviare la query. Se questo problema si ripete tra i riavvii delle query senza
avanzamento, è stata apportata una modifica dello schema incompatibile ed è necessario avviare il
eseguire una query da zero usando una nuova directory del checkpoint.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
Lo schema della tabella Delta è cambiato in modo incompatibile dopo il dataframe
o l'oggetto DeltaTable è stato creato. Ridefinire l'oggetto DataFrame o DeltaTable.
Modifiche:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
Lo schema della tabella non viene fornito. Specificare lo schema (definizione di colonna) della tabella quando si usa la tabella REPLACE e non viene fornita una query AS SELECT.
DELTA_SCHEMA_NOT_SET
Lo schema della tabella non è impostato. Scrivere dati in esso o usare CREATE TABLE per impostare lo schema.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
Lo schema del nuovo percorso Delta è diverso dallo schema della tabella corrente.
schema originale:
<original>
schema di destinazione:
<destination>
Se si tratta di una modifica prevista, è possibile disattivare questo controllo eseguendo:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Impossibile trovare il file <filePath>
a cui si fa riferimento nel log delle transazioni. Ciò può verificarsi quando i dati sono stati eliminati manualmente dal file system anziché usare l'istruzione table DELETE
. Questa tabella sembra essere un clone superficiale, se questo è il caso, questo errore può verificarsi quando la tabella originale da cui è stata clonata questa tabella ha eliminato un file che il clone sta ancora usando. Se si desidera che i cloni siano indipendenti dalla tabella originale, usare invece un clone DEEP.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
Le proprietà predefinite che iniziano con <prefix>
non possono essere modificate.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
I dati sono limitati dalla proprietà <property>
del destinatario che non si applicano al destinatario corrente nella sessione.
Per altri dettagli, vedere DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
<operation>
non può essere usato nelle visualizzazioni di condivisione delta condivise tra account.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Tipo di <authenticationType>
autenticazione non valido per il provider <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Tipo di <authenticationType>
autenticazione non valido per il destinatario <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nome non valido per fare riferimento a un <type>
oggetto all'interno di una condivisione. È possibile usare il nome della condivisione seguendo il formato [schema].[<type>
], oppure è anche possibile usare <type>
il nome completo della tabella seguendo il formato di [catalog].[ schema]. [>type>].
Se non si è certi del nome da usare, è possibile eseguire "SHOW ALL IN SHARE [share]" e trovare il nome della <type>
colonna da rimuovere: la colonna "name" è il <type>
nome della condivisione e della colonna "shared_object" è il <type>
nome completo originale.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Per il destinatario <recipient>
sono presenti più di due token.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
La proprietà <property>
Recipient non esiste.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
I token dei destinatari sono mancanti per il destinatario <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Le colonne <badCols>
non di partizionamento sono specificate per SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS non è consentito in una tabella non partizionata: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Rilevati dati eliminati (ad esempio <removedFile>
) dall'origine di streaming alla versione <version>
. Non supportato attualmente. Se si desidera ignorare le eliminazioni, impostare l'opzione 'ignoreDeletes' su 'true'. La tabella di origine è disponibile nel percorso <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
È stato rilevato un aggiornamento dei dati (ad esempio <file>
) nella tabella di origine alla versione <version>
. Non supportato attualmente. Se questo avviene regolarmente e si sta bene per ignorare le modifiche, impostare l'opzione 'skipChangeCommits' su 'true'. Per riflettere l'aggiornamento dei dati, riavviare questa query con una nuova directory del checkpoint o eseguire un aggiornamento completo se si usa DLT. Se è necessario gestire queste modifiche, passare a MV. La tabella di origine è disponibile nel percorso <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Specificare '<version>
' o '<timestamp>
'
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
statistiche non trovate per la colonna nei metadati Parquet: <columnPath>
.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
È stata rilevata una o più modifiche dello schema non additive () tra<opType>
la versione <previousSchemaChangeVersion>
Delta e <currentSchemaChangeVersion>
l'origine di streaming Delta.
Verificare se si desidera propagare manualmente le modifiche dello schema alla tabella sink prima di procedere con l'elaborazione del flusso usando lo schema finalizzato in <currentSchemaChangeVersion>
.
Dopo aver corretto lo schema della tabella sink o aver deciso che non è necessario correggere, è possibile impostare (una delle configurazioni SQL seguenti) per sbloccare le modifiche dello schema non additive e continuare l'elaborazione del flusso.
Per sbloccare questo flusso specifico solo per questa serie di modifiche dello schema: impostare <allowCkptVerKey>` = `<allowCkptVerValue>
.
Per sbloccare questo flusso specifico: set <allowCkptKey>` = `<allowCkptValue>
Per sbloccare tutti i flussi: impostare <allowAllKey>` = `<allowAllValue>
.
In alternativa, se applicabile, è possibile sostituire <allowAllMode>
con in <opSpecificMode>
SQL conf per sbloccare il flusso solo per questo tipo di modifica dello schema.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Impossibile ottenere lo snapshot del log Delta per la versione iniziale durante il controllo delle modifiche dello schema di mapping delle colonne. Scegliere una versione iniziale diversa oppure forzare l'abilitazione della lettura di streaming a proprio rischio impostando '<config>
' su 'true'.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
La lettura in streaming non è supportata nelle tabelle con modifiche dello schema non compatibili con lettura (ad esempio, rinomina o eliminazione o modifica del tipo di dati).
Per altre informazioni e i possibili passaggi successivi per risolvere il problema, consultare la documentazione all'indirizzo <docLink>
Leggere lo schema: <readSchema>
. Schema dei dati non compatibile: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
La lettura in streaming non è supportata nelle tabelle con modifiche dello schema non compatibili con lettura (ad esempio, rinomina o eliminazione o modifica del tipo di dati).
Specificare uno "schemaTrackingLocation" per abilitare l'evoluzione dello schema non additivi per l'elaborazione del flusso Delta.
Per informazioni dettagliate, vedere <docLink>
.
Leggere lo schema: <readSchema>
. Schema dei dati non compatibile: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
Lo schema, la configurazione della tabella o il protocollo della tabella Delta è cambiato durante lo streaming.
Lo schema o il log di rilevamento dei metadati è stato aggiornato.
Riavviare il flusso per continuare l'elaborazione usando i metadati aggiornati.
Schema aggiornato: <schema>
.
Configurazioni della tabella aggiornate: <config>
.
Protocollo di tabella aggiornato: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
Lo streaming dalla tabella <tableId>
di origine con il rilevamento dello schema non supporta filtri di riga o maschere di colonna.
Eliminare i filtri di riga o le maschere di colonna o disabilitare il rilevamento dello schema.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Rilevato percorso dello schema in conflitto '<loc>
' durante lo streaming dalla tabella o dalla tabella che si trova in '<table>
'.
Un altro flusso può riutilizzare lo stesso percorso dello schema, che non è consentito.
Specificare un nuovo percorso univoco schemaTrackingLocation
o streamingSourceTrackingId
come opzione di lettura per uno dei flussi di questa tabella.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
Il percorso dello schema '<schemaTrackingLocation>
' deve essere posizionato nella posizione del checkpoint '<checkpointLocation>
'.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
File di log incompleto nel log dello schema di origine del flusso Delta in '<location>
'.
Il log dello schema potrebbe essere danneggiato. Selezionare una nuova posizione dello schema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Rilevato un ID tabella Delta incompatibile durante il tentativo di leggere il flusso Delta.
ID tabella persistente: <persistedId>
, ID tabella: <tableId>
Il log dello schema potrebbe essere stato riutilizzato. Selezionare una nuova posizione dello schema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Rilevato schema di partizione incompatibile quando si tenta di leggere il flusso Delta.
Schema persistente: <persistedSchema>
, schema di partizione Delta: <partitionSchema>
Selezionare un nuovo percorso dello schema per reinizializzare il log dello schema se lo schema di partizione della tabella è stato modificato manualmente di recente.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Non è stato possibile inizializzare il log dello schema di origine del flusso Delta perché
È stata rilevata una modifica dello schema o del protocollo incompatibile durante la gestione di un batch di streaming dalla versione <a>
della tabella a <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Impossibile analizzare lo schema dal log dello schema di origine del flusso Delta.
Il log dello schema potrebbe essere danneggiato. Selezionare una nuova posizione dello schema.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Impossibile abilitare Change Data Capture nella tabella. La tabella contiene già
colonne <columnList>
riservate che verranno
essere usato internamente come metadati per il feed di dati delle modifiche della tabella. Per abilitare
Modificare il feed di dati nella tabella rinominare/eliminare queste colonne.
DELTA_TABLE_ALREADY_EXISTS
Tabella <tableName>
già esistente.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
DeltaTable.forPath supporta attualmente solo le chiavi di configurazione hadoop a partire da <allowedPrefixes>
ma ottenute <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
La tabella Delta in <tableLocation>
è stata sostituita mentre questo comando usava la tabella.
L'ID tabella era <oldId>
ma è ora <newId>
.
Riprovare il comando corrente per assicurarsi che legga una visualizzazione coerente della tabella.
DELTA_TABLE_LOCATION_MISMATCH
La posizione della tabella <tableName>
esistente è <existingTableLocation>
. Non corrisponde alla posizione <tableLocation>
specificata.
DELTA_TABLE_NOT_FOUND
La tabella <tableName>
Delta non esiste.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
La tabella non è supportata in <operation>
. Usare invece un percorso.
DELTA_TABLE_ONLY_OPERATION
<tableName>
non è una tabella Delta. <operation>
è supportato solo per le tabelle Delta.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
Lo schema finale della tabella di destinazione è vuoto.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
Il timestamp specificato (<providedTimestamp>
) è dopo la versione più recente disponibile per questo
tabella (<tableName>
). Usare un timestamp prima o in <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
Il timestamp specificato (<expr>
) non può essere convertito in un timestamp valido.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
deve essere un valore di inizio valido.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: impossibile ricostruire lo stato alla versione <version>
perché il log delle transazioni è stato troncato a causa dell'eliminazione manuale o dei criteri di conservazione dei log () e dei criteri di conservazione dei checkpoint (<checkpointRetentionKey>
<logRetentionKey>
<checkpointRetention>
=<logRetention>
=)
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Operazione non consentita: TRUNCATE TABLE nelle tabelle Delta non supporta predicati di partizione; usare DELETE per eliminare partizioni o righe specifiche.
DELTA_UDF_IN_GENERATED_COLUMN
Trovato <udfExpr>
. Una colonna generata non può usare una funzione definita dall'utente
DELTA_UNEXPECTED_ACTION_EXPRESSION
Espressione <expression>
di azione imprevista.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
<expectedColsSize>
Previsto colonne di partizione: <expectedCols>
, ma sono state trovate <parsedColsSize>
colonne di partizione: <parsedCols>
dall'analisi del nome file:<path>
DELTA_UNEXPECTED_PARTIAL_SCAN
È prevista un'analisi completa delle origini Delta, ma è stata trovata un'analisi parziale. sentiero:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Previsto colonna di partizione , ma è stata trovata la colonna <expectedCol>
<parsedCol>
di partizione dall'analisi del nome file:<path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA è stato chiamato con uno schema di partizione diverso dallo schema di partizione dedotto dal catalogo. Evitare di fornire lo schema in modo che lo schema di partizione possa essere scelto dal catalogo.
schema di partizione del catalogo:
<catalogPartitionSchema>
schema di partizione fornito:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
Leggere Iceberg con Delta Uniform non riuscito.
Per altri dettagli, vedere DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
La tabella di ingresso Uniform create o refresh non è supportata.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Il formato <fileFormat>
non è supportato. È supportato solo l'iceberg come formato di file originale.
DELTA_UNIFORM_NOT_SUPPORTED
Il formato universale è supportato solo nelle tabelle del catalogo Unity.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Impossibile convertire la versione <version>
della tabella nel formato <format>
universale . <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
La convalida del formato universale (<format>
) non è riuscita: <violation>
DELTA_UNKNOWN_CONFIGURATION
È stata specificata la configurazione sconosciuta: <config>
DELTA_UNKNOWN_PRIVILEGE
Privilegio sconosciuto: <privilege>
DELTA_UNKNOWN_READ_LIMIT
ReadLimit sconosciuto: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
La modifica della colonna non riconosciuta è <otherClass>
. È possibile che si esegua una versione Delta Lake non aggiornata.
DELTA_UNRECOGNIZED_INVARIANT
Invariante non riconosciuto. Aggiornare la versione di Spark.
DELTA_UNRECOGNIZED_LOGFILE
File di log non riconosciuto <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Tentativo di annullare l'impostazione della proprietà non esistente '<property>
' nella tabella <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
non supporta l'aggiunta di file con un percorso assoluto
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN non è supportato per la modifica della colonna <fieldPath>
da <oldField>
a <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operazione ALTER TABLE REPLACE COLUMNS non supportata. Ragione: <details>
Impossibile modificare lo schema da:
<oldSchema>
in:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Si è tentato di sostituire una tabella esistente (<tableName>
) con CLONE. Questa operazione è
Non supportato. Provare una destinazione diversa per CLONE o eliminare la tabella nella destinazione corrente.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
La modifica della modalità di mapping delle colonne da '<oldMode>
' a '<newMode>
' non è supportata.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
La versione corrente del protocollo di tabella non supporta la modifica delle modalità di mapping delle colonne
utilizzando <config>
.
Versione del protocollo Delta necessaria per il mapping delle colonne:
<requiredVersion>
Versione corrente del protocollo Delta della tabella:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Viene rilevata la modifica dello schema:
schema precedente:
<oldTableSchema>
nuovo schema:
<newTableSchema>
Le modifiche dello schema non sono consentite durante la modifica della modalità di mapping delle colonne.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
La scrittura di dati con la modalità di mapping delle colonne non è supportata.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
La creazione di un indice di filtro bloom in una colonna con tipo <dataType>
non è supportata: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Non è possibile aggiungere un commento a <fieldPath>
. L'aggiunta di un commento a un elemento chiave/valore della mappa o matrice non è supportata.
DELTA_UNSUPPORTED_DATA_TYPES
Colonne trovate con tipi di dati non supportati: <dataTypeList>
. È possibile impostare '<config>
' su 'false' per disabilitare il controllo del tipo. La disabilitazione di questo controllo dei tipi può consentire agli utenti di creare tabelle Delta non supportate e deve essere usata solo quando si tenta di leggere/scrivere tabelle legacy.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
non può essere il risultato di una colonna generata
DELTA_UNSUPPORTED_DEEP_CLONE
Il clone profondo non è supportato per questa versione Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
è una visualizzazione. DESCRIBE DETAIL è supportato solo per le tabelle.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
L'eliminazione delle colonne di clustering (<columnList>
) non è consentita.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN non è supportato per la tabella Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Può eliminare solo le colonne annidate da StructType. Fondare <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
L'eliminazione delle colonne di partizione (<columnList>
) non è consentita.
DELTA_UNSUPPORTED_EXPRESSION
Tipo di espressione non supportato (<expType>
) per <causedBy>
. I tipi supportati sono [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
non può essere usato in una colonna generata
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Funzionalità di lettura Delta non supportata: la tabella "<tableNameOrPath>
" richiede funzionalità di tabella lettore non supportate da questa versione di Databricks: <unsupported>
. Per altre informazioni sulla compatibilità delle funzionalità di Delta Lake, vedere <link>
.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Funzionalità di scrittura Delta non supportata: la tabella "<tableNameOrPath>
" richiede funzionalità di tabella writer non supportate da questa versione di Databricks: <unsupported>
. Per altre informazioni sulla compatibilità delle funzionalità di Delta Lake, vedere <link>
.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Le funzionalità di tabella configurate nelle configurazioni spark o nelle proprietà della tabella Delta seguenti non vengono riconosciute da questa versione di Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Si prevede che lo stato della funzionalità <feature>
di tabella sia "supportato", ma ottenuto "<status>
".
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
L'aggiornamento dei campi annidati è supportato solo per StructType, ma si sta tentando di aggiornare un campo di <columnName>
, che è di tipo : <dataType>
.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Il comando 'FSCK REPAIR TABLE' non è supportato nelle versioni della tabella con file vettoriali di eliminazione mancanti.
Contattare il supporto tecnico.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
Il comando 'GENERATE symlink_format_manifest' non è supportato nelle versioni di tabella con vettori di eliminazione.
Per produrre una versione della tabella senza vettori di eliminazione, eseguire 'REORG TABLE TABLE APPLY (PURGE)'. Eseguire quindi di nuovo il comando 'GENERATE'.
Assicurarsi che nessuna transazione simultanea stia aggiungendo nuovamente vettori di eliminazione tra REORG e GENERATE.
Se è necessario generare regolarmente manifesti o non è possibile impedire transazioni simultanee, è consigliabile disabilitare i vettori di eliminazione in questa tabella usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Gli invarianti nei campi annidati diversi da StructTypes non sono supportati.
DELTA_UNSUPPORTED_IN_SUBQUERY
Nella sottoquery non è supportata nella <operation>
condizione .
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix non disponibile
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
La generazione del manifesto non è supportata per le tabelle che sfruttano il mapping delle colonne, perché i lettori esterni non possono leggere queste tabelle Delta. Per altri dettagli, vedere la documentazione delta.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
Le operazioni MERGE INTO con evoluzione dello schema non supportano attualmente la scrittura di output CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
I predicati in più colonne non sono supportati nella <operation>
condizione.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
La creazione di un indice del filer bloom in una colonna nidificata non è attualmente supportata: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Il campo annidato non è supportato nel <operation>
campo (campo = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
La tabella di destinazione clone non è vuota. Prima di eseguire CLONE, eseguire TRUNCATE o DELETE FROM dalla tabella.
DELTA_UNSUPPORTED_OUTPUT_MODE
L'origine <dataSource>
dati non supporta la <mode>
modalità di output
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
La creazione di un indice di filtro bloom in una colonna di partizionamento non è supportata: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
La ridenominazione della colonna non è supportata per la tabella Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
Delta non supporta la specifica dello schema in fase di lettura.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY non è supportato per le tabelle con bucket Delta
DELTA_UNSUPPORTED_SOURCE
<operation>
destination supporta solo le origini Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
La specifica di partizioni statiche nella specifica di partizione non è attualmente supportata durante gli inserimenti
DELTA_UNSUPPORTED_STRATEGY_NAME
Nome strategia non supportato: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Le sottoquery non sono supportate nella <operation>
(condizione = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
La sottoquery non è supportata nei predicati di partizione.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Impossibile specificare il viaggio temporale in più formati.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Non è possibile eseguire visualizzazioni, sottoquery, flussi o query del feed di dati delle modifiche.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Il troncamento delle tabelle di esempio non è supportato
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Impossibile operare su questa tabella perché è stata applicata una modifica del tipo non supportata. Il campo <fieldName>
è stato modificato da <fromType>
a <toType>
.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Specificare il percorso di base (<baseDeltaPath>
) quando si esegue il vacuuming delle tabelle Delta. Il vuoto di partizioni specifiche non è attualmente supportato.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
L'implementazione della tabella non supporta le scritture: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Si sta tentando di eseguire scritture in una tabella registrata con il coordinatore <coordinatorName>
del commit. Tuttavia, nessuna implementazione di questo coordinatore è disponibile nell'ambiente corrente e le scritture senza coordinatori non sono consentite.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
La scrittura in tabelle di esempio non è supportata
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Impossibile eseguire il cast <fromCatalog>
a <toCatalog>
. Tutte le colonne nidificate devono corrispondere.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
VACUUM nei file di dati è riuscito, ma copy into state Garbage Collection non è riuscito.
DELTA_VERSIONS_NOT_CONTIGUOUS
Le versioni (<versionList>
) non sono contigue.
Per altri dettagli, vedere DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
Vincolo <constraintName>
<expression>
CHECK violato dalla riga con valori:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
La convalida delle proprietà della tabella <table>
è stata violata:
Per altri dettagli, vedere DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
è una visualizzazione. Non è possibile scrivere dati in una visualizzazione.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
La colonna <columnName>
Ordinamento Z non esiste nello schema dei dati.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
Z-Ordering on <cols>
sarà
inefficace, perché attualmente non vengono raccolte statistiche per queste colonne. Fare riferimento alla sezione
<link>
per altre informazioni sull'ordinamento dei dati e sull'ordinamento z. È possibile disabilitare
questo controllo impostando
'%%sql set <zorderColStatKey>
= false'
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
è una colonna di partizione. L'ordinamento Z può essere eseguito solo sulle colonne di dati
Autoloader
CF_ADD_NEW_NOT_SUPPORTED
La modalità <addNewColumnsMode>
di evoluzione dello schema non è supportata quando viene specificato lo schema. Per usare questa modalità, è possibile specificare lo schema tramite cloudFiles.schemaHints
.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Sono state trovate opzioni di autenticazione per l'installazione delle notifiche per la directory (predefinita)
modalità di presentazione:
<options>
Se si vuole usare la modalità di notifica file, impostare in modo esplicito:
.option("cloudFiles.<useNotificationsKey>
", "true")
In alternativa, se si vuole ignorare la convalida delle opzioni e ignorare queste opzioni
è possibile impostare le opzioni di autenticazione:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
Modalità elenco incrementale (cloudFiles).<useIncrementalListingKey>
e notifica file (cloudFiles.<useNotificationsKey>
)
sono state abilitate contemporaneamente.
Assicurarsi di selezionare solo uno.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Richiedere adlsBlobSuffix e adlsDfsSuffix per Azure
CF_BUCKET_MISMATCH
L'oggetto <storeType>
nell'evento <fileEvent>
di file è diverso da quello previsto dall'origine: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Impossibile evolvere lo schema quando il log dello schema è vuoto. Percorso del log dello schema: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Impossibile analizzare il messaggio della coda seguente: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Impossibile risolvere il nome del contenitore dal percorso: <path>
, URI risolto: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Impossibile eseguire l'elenco di directory quando è in esecuzione un thread di backfill asincrono
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Impossibile attivare cloudFiles.cleanSource e cloudFiles.allowOverwrites contemporaneamente.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
Il caricatore automatico non può eliminare i file elaborati perché non dispone delle autorizzazioni di scrittura per la directory di origine.
<reason>
Per risolvere il problema, è possibile:
- Concedere autorizzazioni di scrittura alla directory di origine OR
- Impostare cleanSource su 'OFF'
È anche possibile sbloccare il flusso impostando SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors su 'true'.
CF_DUPLICATE_COLUMN_IN_DATA
Errore durante il tentativo di dedurre lo schema di partizione della tabella. La stessa colonna è duplicata nei percorsi di dati e partizione. Per ignorare il valore della partizione, specificare le colonne di partizione in modo esplicito usando: .option("cloudFiles.<partitionColumnsKey>
", "{comma-separated-list}")
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Impossibile dedurre lo schema quando il percorso <path>
di input è vuoto. Provare ad avviare il flusso quando sono presenti file nel percorso di input o specificare lo schema.
CF_EVENT_GRID_AUTH_ERROR
Impossibile creare una sottoscrizione di Griglia di eventi. Assicurarsi che il servizio
principal include <permissionType>
sottoscrizioni di Griglia di eventi. Per altre informazioni, vedere:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Impossibile creare una sottoscrizione di Griglia di eventi. Assicurarsi che Microsoft.EventGrid sia
registrato come provider di risorse nella sottoscrizione. Per altre informazioni, vedere:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Impossibile creare una sottoscrizione di Griglia di eventi. Assicurarsi che la risorsa di archiviazione
account (<storageAccount>
) è nel gruppo di risorse (<resourceGroup>
) e
l'account di archiviazione è un account "StorageV2 (utilizzo generico v2)". Per altre informazioni, vedere:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
La modalità di notifica degli eventi del caricatore automatico non è supportata per <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Impossibile verificare se il flusso è nuovo
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Impossibile creare la sottoscrizione: <subscriptionName>
. Esiste già una sottoscrizione con lo stesso nome ed è associata a un altro argomento: <otherTopicName>
. L'argomento desiderato è <proposedTopicName>
. Eliminare la sottoscrizione esistente o creare una sottoscrizione con un nuovo suffisso di risorsa.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Impossibile creare l'argomento: <topicName>
. Esiste già un argomento con lo stesso nome.<reason>
Rimuovere l'argomento esistente o riprovare con un altro suffisso di risorsa
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Impossibile eliminare la notifica con ID <notificationId>
nel bucket <bucketName>
per l'argomento <topicName>
. Riprovare o rimuovere manualmente la notifica tramite la console GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Impossibile deserializzare lo schema persistente dalla stringa: '<jsonSchema>
'
CF_FAILED_TO_EVOLVE_SCHEMA
Non è possibile evolvere lo schema senza un log dello schema.
CF_FAILED_TO_FIND_PROVIDER
Impossibile trovare il provider per <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Impossibile dedurre lo schema per il formato <fileFormatInput>
dai file esistenti nel percorso <path>
di input .
Per altri dettagli, vedere CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Impossibile scrivere nel log dello schema nel percorso <path>
.
CF_FILE_FORMAT_REQUIRED
Impossibile trovare l'opzione richiesta: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Sono state trovate più sottoscrizioni (<num>
) con il prefisso del caricatore automatico per l'argomento <topicName>
:
<subscriptionList>
Dovrebbe essere presente una sola sottoscrizione per argomento. Assicurarsi manualmente che l'argomento non abbia più sottoscrizioni.
CF_GCP_AUTHENTICATION
Specificare tutti gli elementi seguenti: <clientEmail>
, <client>
,
<privateKey>
e <privateKeyId>
o specificare nessuno di essi per usare il valore predefinito
Catena di provider di credenziali GCP per l'autenticazione con le risorse GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Troppe etichette ricevute (<num>
) per la risorsa GCP. Il numero massimo di etichette per risorsa è <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Sono stati ricevuti troppi tag di risorsa (<num>
) per la risorsa GCP. Il numero massimo di tag delle risorse per risorsa è <maxNum>
, perché i tag delle risorse vengono archiviati come etichette GCP nelle risorse e i tag specifici di Databricks usano alcune di queste quote di etichetta.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
File di log incompleto nel log dello schema nel percorso <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
File di metadati incompleto nel checkpoint del caricatore automatico
CF_INCORRECT_SQL_PARAMS
Il metodo cloud_files accetta due parametri stringa obbligatori: il percorso da cui caricare e il formato di file. Le opzioni del lettore di file devono essere fornite in una mappa chiave-valore stringa. ad esempio cloud_files("path", "json", map("option1", "value1")). Ricevuto: <params>
CF_INTERNAL_ERROR
Errore interno.
Per altri dettagli, vedere CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN non valido: <arn>
CF_INVALID_AZURE_CERTIFICATE
Non è possibile analizzare la chiave privata fornita con l'opzione cloudFiles.certificate. Specificare una chiave pubblica valida in formato PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
Non è possibile analizzare la chiave privata fornita con l'opzione cloudFiles.certificatePrivateKey. Specificare una chiave privata valida in formato PEM.
CF_INVALID_CHECKPOINT
Questo checkpoint non è un'origine CloudFiles valida
CF_INVALID_CLEAN_SOURCE_MODE
Modalità non valida per l'opzione <value>
di origine pulita .
CF_INVALID_GCP_RESOURCE_TAG_KEY
Chiave del tag di risorsa non valida per la risorsa GCP: <key>
. Le chiavi devono iniziare con una lettera minuscola, avere una lunghezza compresa tra 1 e 63 caratteri e contenere solo lettere minuscole, numeri, caratteri di sottolineatura (_) e trattini (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Valore del tag di risorsa non valido per la risorsa GCP: <value>
. I valori devono essere compresi tra 0 e 63 caratteri e devono contenere solo lettere minuscole, numeri, caratteri di sottolineatura (_) e trattini (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
Il caricatore automatico non supporta le opzioni seguenti se usate con eventi di file gestiti:
<optionList>
È consigliabile rimuovere queste opzioni e quindi riavviare il flusso.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Risposta non valida dal servizio eventi di file gestiti. Per assistenza, contattare il supporto di Databricks.
Per altri dettagli, vedere CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
deve essere uno di {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
Gli hint dello schema possono specificare una sola volta una determinata colonna.
In questo caso, ridefinire la colonna: <columnName>
più volte in schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Gli hint dello schema non possono essere usati per eseguire l'override dei tipi annidati delle matrici e delle mappe.
Colonna in conflitto: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset deve essere chiamato con readLimit in questa origine.
CF_LOG_FILE_MALFORMED
Il file di log non è valido: non è stato possibile leggere la versione corretta del log da <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
È stato richiesto il caricatore automatico per ignorare i file esistenti nella posizione esterna impostando includeExistingFiles su false. Tuttavia, il servizio eventi file gestiti sta ancora individuando i file esistenti nel percorso esterno. Riprovare dopo il completamento dell'individuazione di tutti i file nella posizione esterna.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Si usa il caricatore automatico con eventi di file gestiti, ma sembra che il percorso esterno per il percorso di input '<path>
' non abbia eventi di file abilitati o il percorso di input non sia valido. Richiedere all'amministratore di Databricks di abilitare gli eventi di file nel percorso esterno per il percorso di input.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Si usa il caricatore automatico con eventi di file gestiti, ma non si ha accesso al percorso esterno o al volume per il percorso di input '<path>
' o il percorso di input non è valido. Richiedere all'amministratore di Databricks di concedere le autorizzazioni di lettura per il percorso o il volume esterno o fornire un percorso di input valido all'interno di un percorso esterno o di un volume esistente.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
Il caricatore automatico con eventi di file gestiti è disponibile solo in Databricks serverless. Per continuare, spostare questo carico di lavoro in Databricks serverless o disattivare l'opzione cloudFiles.useManagedFileEvents.
CF_MAX_MUST_BE_POSITIVE
max deve essere positivo
CF_METADATA_FILE_CONCURRENTLY_USED
Più query di streaming usano simultaneamente <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
File di metadati nella directory del checkpoint di origine di streaming mancante. Questi metadati
il file contiene importanti opzioni predefinite per il flusso, quindi non è possibile riavviare il flusso
subito. Per assistenza, contattare il supporto di Databricks.
CF_MISSING_PARTITION_COLUMN_ERROR
La colonna <columnName>
di partizione non esiste nello schema specificato:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Specificare uno schema usando .schema() se non viene fornito un percorso all'origine CloudFiles durante l'uso della modalità di notifica file. In alternativa, per fare in modo che il caricatore automatico deduca lo schema fornisca un percorso di base in .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Sono state trovate notifiche esistenti per l'argomento <topicName>
nel bucket <bucketName>
:
notifica, ID
<notificationList>
Per evitare di inquinare il sottoscrittore con eventi imprevisti, eliminare le notifiche precedenti e riprovare.
CF_NEW_PARTITION_ERROR
Le nuove colonne di partizione sono state dedotte dai file: [<filesList>
]. Specificare tutte le colonne di partizione nello schema o specificare un elenco di colonne di partizione per cui estrarre i valori usando : .option("cloudFiles.partitionColumns", "{comma-separated-list|empty-string}")
CF_PARTITON_INFERENCE_ERROR
Errore durante il tentativo di dedurre lo schema di partizione del batch di file corrente. Specificare le colonne di partizione in modo esplicito usando : .option("cloudFiles.<partitionColumnOption>
", "{virgola-separated-list}")
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Impossibile leggere i file quando il percorso <path>
di input non esiste. Assicurarsi che il percorso di input esista e riprovare.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Il backfill periodico non è supportato se il riempimento backfill asincrono è disabilitato. È possibile abilitare l'elenco asincrono di backfill/directory impostando su spark.databricks.cloudFiles.asyncDirListing
true
CF_PREFIX_MISMATCH
Trovato evento non corrispondente: la chiave <key>
non ha il prefisso: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Se non è necessario apportare altre modifiche al codice, impostare SQL
configurazione: '<sourceProtocolVersionKey>
= <value>
'
per riprendere il flusso. Fare riferimento a:
<docLink>
per altri dettagli.
CF_REGION_NOT_FOUND_ERROR
Impossibile ottenere l'area AWS predefinita. Specificare un'area usando l'opzione cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Impossibile creare servizi di notifica: il suffisso della risorsa non può essere vuoto.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Impossibile creare servizi di notifica: il suffisso della risorsa può contenere solo caratteri alfanumerici, trattini (-) e caratteri di sottolineatura (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Impossibile creare servizi di notifica: il suffisso della risorsa può contenere solo lettere minuscole, numeri e trattini (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Impossibile creare servizi di notifica: il suffisso della risorsa può contenere solo caratteri alfanumerici, trattini (-), caratteri di sottolineatura (_), punti (.), tilde (~) più segni (+) e segni di percentuale (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Impossibile creare servizi di notifica: il suffisso della risorsa non può contenere più di <limit>
caratteri.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Impossibile creare servizi di notifica: il suffisso della risorsa deve essere compreso tra <lowerLimit>
e <upperLimit>
i caratteri.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
È stata trovata la chiave del tag di risorsa GCP con restrizioni (<key>
). Le chiavi del tag di risorsa GCP seguenti sono limitate per il caricatore automatico: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration non può essere maggiore di cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Impossibile creare la notifica per l'argomento: <topic>
con prefisso: <prefix>
. Esiste già un argomento con lo stesso nome con un altro prefisso: <oldPrefix>
. Provare a usare un suffisso di risorsa diverso per l'installazione o eliminare l'installazione esistente.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Specificare il percorso della directory di origine con l'opzione path
CF_SOURCE_UNSUPPORTED
L'origine file cloud supporta solo i percorsi S3, Archiviazione BLOB di Azure (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss). path: '<path>
', URI risolto: '<uri>
'
CF_STATE_INCORRECT_SQL_PARAMS
La funzione cloud_files_state accetta un parametro stringa che rappresenta la directory del checkpoint di un flusso cloudFiles o un tableName in più parti che identifica una tabella di streaming e un secondo parametro integer facoltativo che rappresenta la versione del checkpoint per cui caricare lo stato. Il secondo parametro può anche essere 'latest' per leggere il checkpoint più recente. Ricevuto: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
Il percorso <path>
del checkpoint di input non è valido. Il percorso non esiste o non sono state trovate cloud_files origini.
CF_STATE_INVALID_VERSION
La versione <version>
specificata non esiste o è stata rimossa durante l'analisi.
CF_THREAD_IS_DEAD
<threadName>
thread è morto.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Impossibile derivare il percorso del checkpoint del flusso dal percorso del checkpoint di origine: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
Impossibile rilevare il formato del file di origine da <fileSize>
uno o più file campionati, trovato <formats>
. Specificare il formato.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Impossibile estrarre informazioni sui bucket. Percorso: '<path>
', URI risolto: '<uri>
'.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Impossibile estrarre le informazioni sulla chiave. Percorso: '<path>
', URI risolto: '<uri>
'.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Impossibile estrarre le informazioni dell'account di archiviazione; path: '<path>
', URI risolto: '<uri>
'
CF_UNABLE_TO_LIST_EFFICIENTLY
È stato ricevuto un evento di ridenominazione della directory per il percorso <path>
, ma non è possibile elencare questa directory in modo efficiente. Per continuare il flusso, impostare l'opzione 'cloudFiles.ignoreDirRenames' su true e valutare la possibilità di abilitare i backfill regolari con cloudFiles.backfillInterval per l'elaborazione di questi dati.
CF_UNEXPECTED_READ_LIMIT
ReadLimit imprevisto: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Sono state trovate chiavi di opzione sconosciute:
<optionList>
Assicurarsi che tutte le chiavi di opzione specificate siano corrette. Se si desidera ignorare il
convalida delle opzioni e ignorare queste opzioni sconosciute, è possibile impostare:
.option("cloudFiles.<validateOptions>
", "false")
CF_UNKNOWN_READ_LIMIT
ReadLimit sconosciuto: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
La funzione SQL 'cloud_files' per creare un'origine di streaming del caricatore automatico è supportata solo in una pipeline di tabelle live Delta. Per altre informazioni, vedere:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
L'inferenza dello schema non è supportata per il formato : <format>
. Specificare lo schema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: la versione massima supportata del log è v<maxVersion>``, but encountered v``<version>
. Il file di log è stato prodotto da una versione più recente di DBR e non può essere letto da questa versione. Aggiornare.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
La modalità <mode>
di evoluzione dello schema non è supportata per il formato: <format>
. Impostare la modalità di evoluzione dello schema su 'none'.
CF_USE_DELTA_FORMAT
La lettura da una tabella Delta non è supportata con questa sintassi. Per usare i dati da Delta, fare riferimento alla documentazione: leggere una tabella Delta (<deltaDocLink>
) o leggere una tabella Delta come origine di flusso (<streamDeltaDocLink>
). L'origine di streaming da Delta è già ottimizzata per l'utilizzo incrementale dei dati.
GeoSpatial
EWKB_PARSE_ERROR
Errore durante l'analisi di EWKB: <parseError>
in corrispondenza della posizione <pos>
GEOJSON_PARSE_ERROR
Errore durante l'analisi di GeoJSON: <parseError>
in corrispondenza della posizione <pos>
Per altri dettagli, vedere GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
non è un ID cella H3 valido
Per altri dettagli, vedere H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
La distanza <k>
della griglia H3 deve essere non negativa
Per altri dettagli, vedere H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
La risoluzione <r>
H3 deve essere compresa tra <minR>
e <maxR>
, inclusiva
Per altri dettagli, vedere H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
è disabilitato o non supportato. Valutare la possibilità di abilitare Photon o passare a un livello che supporta espressioni H3
Per altri dettagli, vedere H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Un pentagono è stato incontrato durante il calcolo dell'anello esadecimale di con distanza della <h3Cell>
griglia <k>
H3_UNDEFINED_GRID_DISTANCE
Distanza della griglia H3 tra <h3Cell1>
e <h3Cell2>
non definita
ST_DIFFERENT_SRID_VALUES
Gli argomenti di "<sqlFunction>
" devono avere lo stesso valore SRID. Valori SRID trovati: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
L'argomento di "<sqlFunction>
" deve essere di tipo <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: trasformazione CRS non valida o non supportata da SRID <srcSrid>
a SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
Endianness <e>
deve essere "NDR" (little-endian) o "XDR" (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: valore geohash non valido: '<geohash>
'. I valori geohash devono essere stringhe base32 minuscole valide, come descritto inhttps://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
La precisione <p>
deve essere compresa tra <minP>
e <maxP>
, inclusiva
ST_INVALID_SRID_VALUE
SRID non valido o non supportato <srid>
ST_NOT_ENABLED
<stExpression>
è disabilitato o non supportato. Valutare la possibilità di abilitare Photon o passare a un livello che supporta le espressioni ST
ST_UNSUPPORTED_RETURN_TYPE
I tipi di dati GEOGRAPHY e GEOMETRY non possono essere restituiti nelle query. Usare una delle espressioni SQL seguenti per convertirle in formati di interscambio standard: <projectionExprs>
.
WKB_PARSE_ERROR
Errore durante l'analisi WKB: <parseError>
in corrispondenza della posizione <pos>
Per altri dettagli, vedere WKB_PARSE_ERROR
WKT_PARSE_ERROR
Errore durante l'analisi WKT: <parseError>
in corrispondenza della posizione <pos>
Per altri dettagli, vedere WKT_PARSE_ERROR