Classes de erro no Azure Databricks
Aplica-se a: SQL do Databricks Databricks Runtime 12.2 e versões posteriores
As classes de erro são cadeias de caracteres descritivas, legíveis por humanos e exclusivas da condição de erro.
Você pode usar classes de erro para tratar programaticamente de erros em seu aplicativo sem a necessidade de analisar a mensagem de erro.
Essa é uma lista de condições comuns de erro nomeadas retornadas pelo Azure Databricks.
Databricks Runtime e SQL do Databricks
AGGREGATE_FUNCTION_WITH_NONDETERMINISTIC_EXPRESSION
A expressão não determinística <sqlExpr>
não deve aparecer nos argumentos de uma função de agregação.
AI_FUNCTION_HTTP_PARSE_CAST_ERROR
Falha ao analisar a saída do modelo ao converter para o returnType: “<dataType>
” especificado, o JSON de resposta foi: "<responseString>
". Atualize o returnType para corresponder ao conteúdo do tipo representado pelo JSON de resposta e repita a consulta.
AI_FUNCTION_HTTP_PARSE_COLUMNS_ERROR
A saída real do modelo tem mais de uma coluna “<responseString>
”. No entanto, o tipo de retorno especificado [“<dataType>
”] tem apenas uma coluna. Atualize o returnType para conter o mesmo número de colunas que a saída do modelo e repita a consulta.
AI_FUNCTION_HTTP_REQUEST_ERROR
Ocorreu um erro ao fazer uma solicitação HTTP para a função <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_HTTP_RESPONSE
Resposta HTTP inválida para a função <funcName>
: <errorMessage>
AI_FUNCTION_INVALID_MAX_WORDS
O número máximo de palavras deve ser um inteiro não negativo, mas recebeu <maxWords>
.
AI_FUNCTION_INVALID_MODEL_PARAMETERS
Os parâmetros de modelo fornecidos (<modelParameters>
) são inválidos na função AI_QUERY para servir o ponto de extremidade "<endpointName>
".
Para mais detalhes, consulte AI_FUNCTION_INVALID_MODEL_PARAMETERS
AI_FUNCTION_JSON_PARSE_ERROR
Erro ao analisar a resposta JSON para a função <funcName>
: <errorMessage>
AI_FUNCTION_MODEL_SCHEMA_PARSE_ERROR
Falha ao analisar o esquema para o ponto de extremidade de serviço “<endpointName>
” <errorMessage>
. A resposta JSON era: “<responseJson>
”.
Defina o parâmetro returnType
manualmente na função AI_QUERY para substituição da resolução do esquema.
AI_FUNCTION_UNSUPPORTED_ERROR
Não há suporte para a função <funcName>
no ambiente atual. Ela só está disponível no Databricks SQL Pro e Serverless.
AI_FUNCTION_UNSUPPORTED_REQUEST
Falha ao avaliar a função SQL “<functionName>
” porque o argumento fornecido de <invalidValue>
tem "<invalidDataType>
", mas somente os seguintes tipos são compatíveis: <supportedDataTypes>
. Atualize a chamada de função para fornecer um argumento do tipo de cadeia de caracteres e tente novamente realizar a consulta.
AI_FUNCTION_UNSUPPORTED_RETURN_TYPE
Função de IA: “<functionName>
” não dá suporte ao seguinte tipo como tipo de retorno: “<typeName>
”. O tipo de retorno deve ser um tipo SQL válido compreendido pelo Catalyst e compatível com a função de IA. Os tipos com suporte atuais incluem: <supportedValues>
AI_INVALID_ARGUMENT_VALUE_ERROR
O valor fornecido “<argValue>
” não tem o suporte do argumento “<argName>
”. Os valores com suporte são: <supportedValues>
AI_QUERY_RETURN_TYPE_COLUMN_TYPE_MISMATCH
Não há suporte para "<sqlExpr>
" fornecido pelo argumento returnType.
AI_SEARCH_EMBEDDING_COLUMN_TYPE_UNSUPPORTED_ERROR
Não há suporte para a Busca em vetores com o tipo de coluna de inserção <embeddingColumnType>
.
AI_SEARCH_INDEX_TYPE_UNSUPPORTED_ERROR
Não há suporte para a Busca em vetores com o tipo de índice <indexType>
.
AI_SEARCH_QUERY_TYPE_CONVERT_ENCODE_ERROR
Falha ao materializar a consulta de pesquisa vetorial do tipo <dataType>
spark para objetos nativos do scala durante a codificação da solicitação com erro: <errorMessage>
.
AI_SEARCH_UNSUPPORTED_NUM_RESULTS_ERROR
Não há suporte para a Busca em vetores com num_results maior que <maxLimit>
. O limite especificado foi <requestedLimit>
. Pleaase tente novamente com num_results <= <maxLimit>
ALL_PARAMETERS_MUST_BE_NAMED
Usar consultas com parâmetros de nome requer que todos os parâmetros sejam nomeados. Parâmetros com nomes ausentes: <exprs>
.
ALL_PARTITION_COLUMNS_NOT_ALLOWED
Não é possível usar todas as colunas das colunas de partição.
ALTER_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
ALTER TABLE <type>
coluna <columnName>
especifica o descritor “<optionName>
” mais de uma vez, o que é inválido.
AMBIGUOUS_ALIAS_IN_NESTED_CTE
O nome <name>
é ambíguo em CTE aninhado.
Defina <config>
como “CORRECTED” para que o nome definido no CTE interno tenha precedência. Se defini-lo como “LEGACY”, as definições de CTE externas terão precedência.
Confira https://spark.apache.org/docs/latest/sql-migration-guide.html#query-engine’.
AMBIGUOUS_COLUMN_OR_FIELD
A coluna ou campo <name>
é ambíguo e tem <n>
correspondências.
AMBIGUOUS_COLUMN_REFERENCE
A coluna <name>
é ambígua. Isso ocorre porque você mesclou vários DataFrames e alguns desses DataFrames são os mesmos.
Esta coluna aponta para um dos DataFrames, mas o Spark não consegue descobrir qual deles.
Dê aos DataFrames com nomes diferentes por meio de DataFrame.alias
antes de mesclá-los
e especifique a coluna usando o nome qualificado, por exemplo, df.alias("a").join(df.alias("b"), col("a.id") > col("b.id"))
.
AMBIGUOUS_CONSTRAINT
Referência ambígua à restrição <constraint>
.
AMBIGUOUS_LATERAL_COLUMN_ALIAS
O alias de coluna lateral <name>
é ambíguo e tem <n>
correspondências.
AMBIGUOUS_REFERENCE
A referência <name>
é ambígua, poderia ser: <referenceNames>
.
AMBIGUOUS_REFERENCE_TO_FIELDS
Referência ambígua ao campo <field>
. Aparece <count>
vezes no esquema.
ANALYZE_CONSTRAINTS_NOT_SUPPORTED
NÃO há suporte para ANALYZE CONSTRAINTS.
ANSI_CONFIG_CANNOT_BE_DISABLED
A configuração <config>
do SQL ANSI não pode ser desabilitada neste produto.
AQE_THREAD_INTERRUPTED
O thread AQE é interrompido, provavelmente devido ao cancelamento da consulta pelo usuário.
ARGUMENT_NOT_CONSTANT
A função <functionName>
inclui um parâmetro <parameterName>
na posição <pos>
que necessita de um argumento constante. Faça a computação do argumento <sqlExpr>
de forma separada e passe o resultado como uma constante.
ARITHMETIC_OVERFLOW
<message>
.<alternative>
Se necessário, defina <config>
como “false” para ignorar esse erro.
Para mais detalhes, consulte ARITHMETIC_OVERFLOW
ASSIGNMENT_ARITY_MISMATCH
O número de colunas ou variáveis atribuídas ou com alias: <numTarget>
não corresponde ao número de expressões de origem: <numExpr>
.
AS_OF_JOIN
Junção a partir da data inválida.
Para obter mais detalhes, consulte AS_OF_JOIN
AVRO_DEFAULT_VALUES_UNSUPPORTED
Não há suporte para o uso de valores padrão quandorescuedDataColumn
está habilitado. Você pode remover essa verificação definindo spark.databricks.sql.avro.rescuedDataBlockUserDefinedSchemaDefaultValue
como falso, mas os valores padrão não serão aplicados e valores nulos ainda serão usados.
AVRO_INCOMPATIBLE_READ_TYPE
Não é possível converter o Avro <avroPath>
em SQL <sqlPath>
porque o tipo de dados codificado original é <avroType>
, porém, você está tentando ler o campo como <sqlType>
, o que levaria a uma resposta incorreta.
Para permitir a leitura desse campo, habilite a configuração do SQL: “spark.sql.legacy.avro.allowIncompatibleSchema”.
AVRO_POSITIONAL_FIELD_MATCHING_UNSUPPORTED
Não há suporte para o uso da correspondência de campo posicional quando rescuedDataColumn
ou failOnUnknownFields
estiver habilitado. Remova essas opções para continuar.
BATCH_METADATA_NOT_FOUND
Não foi possível encontrar um batch <batchMetadataFile>
.
BIGQUERY_OPTIONS_ARE_MUTUALLY_EXCLUSIVE
As credenciais de conexão do BigQuery devem ser especificadas com o ‘parâmetro GoogleServiceAccountKeyJson’ ou todos os ‘projectId’, ‘OAuthServiceAcctEmail’, ‘OAuthPvtKey’
BINARY_ARITHMETIC_OVERFLOW
<value1>
<symbol>
<value2>
causou estouro.
BOOLEAN_STATEMENT_WITH_EMPTY_ROW
A instrução <invalidStatement>
booleana é inválida. Linha única esperada com um valor do BOOLEAN
tipo, mas obteve uma linha vazia.
BUILT_IN_CATALOG
<operation>
não dá suporte a catálogos integrados.
CALL_ON_STREAMING_DATASET_UNSUPPORTED
O método <methodName>
não pode ser chamado no Dataset/DataFrame do streaming.
CANNOT_ALTER_COLLATION_BUCKET_COLUMN
ALTER TABLE (ALTER|CHANGE) COLUMN não pode alterar o agrupamento de tipo/subtipos de colunas de bucket, mas encontrou a coluna de bucket <columnName>
na tabela <tableName>
.
CANNOT_ALTER_PARTITION_COLUMN
ALTER TABLE (ALTER|ALTERAÇÃO) Não há suporte para colunas de partição, mas encontrou a coluna de partição <columnName>
na tabela <tableName>
.
CANNOT_ASSIGN_EVENT_TIME_COLUMN_WITHOUT_WATERMARK
A marca d'água precisa ser definida para reatribuir a coluna de tempo do evento. Falha ao encontrar a definição de marca d'água na consulta de streaming.
CANNOT_CAST_DATATYPE
Não é possível converter <sourceType>
em <targetType>
.
CANNOT_CONVERT_PROTOBUF_FIELD_TYPE_TO_SQL_TYPE
Não é possível converter Protobuf <protobufColumn>
em SQL <sqlColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_PROTOBUF_MESSAGE_TYPE_TO_SQL_TYPE
Não é possível converter <protobufType>
de Protobuf em tipo SQL <toType>
.
CANNOT_CONVERT_SQL_TYPE_TO_PROTOBUF_FIELD_TYPE
Não é possível converter SQL <sqlColumn>
em Protobuf <protobufColumn>
porque o esquema é incompatível (protobufType = <protobufType>
, sqlType = <sqlType>
).
CANNOT_CONVERT_SQL_VALUE_TO_PROTOBUF_ENUM_TYPE
Não é possível converter SQL <sqlColumn>
em Protobuf <protobufColumn>
porque <data>
não está em valores definidos para enumeração: <enumString>
.
CANNOT_COPY_STATE
Não é possível copiar o estado do catálogo, como banco de dados atual e exibições temporárias do Catálogo do Unity para um catálogo herdado.
CANNOT_CREATE_DATA_SOURCE_TABLE
Falha ao criar a tabela de dados <tableName>
:
Para obter mais detalhes, consulte CANNOT_CREATE_DATA_SOURCE_TABLE
CANNOT_DECODE_URL
A URL fornecida não pode ser decodificada: <url>
. Verifique se a URL está formatada corretamente e tente novamente.
CANNOT_DELETE_SYSTEM_OWNED
Não é possível excluir um <resourceType>
pertencente ao sistema.
CANNOT_DROP_AMBIGUOUS_CONSTRAINT
Não é possível descartar a restrição com o nome <constraintName>
compartilhado por uma restrição CHECK
e uma restrição PRIMARY KEY ou FOREIGN KEY. Você pode descartar a restrição PRIMARY KEY ou
ou FOREIGN KEY por consultas:
- ALTER TABLE .. DESCARTAR PRIMARY KEY ou
- ALTER TABLE .. DESCARTAR FOREIGN KEY ..
CANNOT_ESTABLISH_CONNECTION
Não é possível estabelecer a conexão com o banco de dados <jdbcDialectName>
remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, verifique a configuração de rede do workspace e se elas não têm restrições de saída para o host. Também verifique se o host não bloqueia as conexões de entrada da rede em que os clusters Spark do espaço de trabalho são implantados. ** Mensagem de erro detalhada: <causeErrorMessage>
.
CANNOT_ESTABLISH_CONNECTION_SERVERLESS
Não é possível estabelecer a conexão com o banco de dados <jdbcDialectName>
remoto. Verifique as informações de conexão e as credenciais, por exemplo, opções de host, porta, usuário, senha e banco de dados. ** Se você acredita que as informações estão corretas, permita o tráfego de entrada da Internet para o host, pois você está usando a Computação sem Servidor. Se as políticas de rede não permitirem o tráfego da Internet de entrada, use a Computação sem Servidor ou entre em contato com seu representante do Databricks para saber mais sobre a Rede Privada sem Servidor. ** Mensagem de erro detalhada: <causeErrorMessage>
.
CANNOT_INVOKE_IN_TRANSFORMATIONS
As transformações e as ações do conjunto de dados só podem ser invocadas pela unidade, não dentro de outras transformações de conjunto de dados; por exemplo, dataset1.map(x => dataset2.values.count() * x) é inválido porque a ação de transformação e contagem de valores não pode ser executada dentro da transformação dataset1.map. Para saber mais, consulte SPARK-28702.
CANNOT_LOAD_FUNCTION_CLASS
Não é possível carregar a classe <className>
ao registrar a função <functionName>
, verifique se ela está no classpath.
CANNOT_LOAD_PROTOBUF_CLASS
Não foi possível carregar a classe Protobuf com o nome <protobufClassName>
. <explanation>
.
CANNOT_LOAD_STATE_STORE
Ocorreu um erro durante o estado de carregamento.
Para obter mais detalhes, consulte CANNOT_LOAD_STATE_STORE
CANNOT_MERGE_INCOMPATIBLE_DATA_TYPE
Falha ao mesclar tipos de dados incompatíveis <left>
e <right>
. Verifique os tipos de dados das colunas que estão sendo mescladas e verifique se elas são compatíveis. Se necessário, considere converter as colunas em tipos de dados compatíveis antes de tentar a mesclagem.
CANNOT_MERGE_SCHEMAS
Esquemas de mesclagem com falha:
Esquema inicial:
<left>
Esquema que não pode ser mesclado com o esquema inicial:
<right>
.
CANNOT_MODIFY_CONFIG
Não é possível modificar o valor da configuração do Spark: <key>
.
Consulte também https://spark.apache.org/docs/latest/sql-migration-guide.html#ddl-statements’.
CANNOT_PARSE_DECIMAL
Não é possível analisar decimal. Verifique se a entrada é um número válido com separadores de vírgulas ou ponto decimal opcionais.
CANNOT_PARSE_INTERVAL
Não é possível analisar <intervalString>
. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto. Se o problema persistir, verifique se o valor de entrada não é nulo ou vazio e tente novamente.
CANNOT_PARSE_JSON_FIELD
O nome do campo <fieldName>
e o valor <fieldValue>
do token JSON tipo <jsonType>
não podem ser analisados como o tipo de dados Spark de destino <dataType>
.
CANNOT_PARSE_PROTOBUF_DESCRIPTOR
Erro ao analisar os bytes do descritor em Protobuf FileDescriptorSet.
CANNOT_PARSE_TIMESTAMP
<message>
. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
CANNOT_QUERY_TABLE_DURING_INITIALIZATION
Não é possível consultar MV/ST durante a inicialização.
Para obter mais detalhes, consulte CANNOT_QUERY_TABLE_DURING_INITIALIZATION
CANNOT_READ_ARCHIVED_FILE
Não é possível fazer a leitura do arquivo no caminho <path>
porque ele foi arquivado. Ajuste seus filtros de consulta para excluir arquivos guardados.
CANNOT_READ_FILE
Não é possível ler o arquivo <format>
no caminho: <path>
.
Para obter mais detalhes, consulte CANNOT_READ_FILE
CANNOT_READ_SENSITIVE_KEY_FROM_SECURE_PROVIDER
Não é possível fazer a leitura da chave confidencial ‘<key>
’ do provedor seguro.
CANNOT_RECOGNIZE_HIVE_TYPE
Não é possível reconhecer a cadeia de caracteres do hive tipo: <fieldType>
, coluna: <fieldName>
. O tipo de dados especificado no campo não pode ser reconhecido pelo Spark SQL. Verifique o tipo de dados do campo especificado e se ele é um tipo de dados SQL do Spark válido. Consulte a documentação do Spark SQL para obter uma lista dos tipos de dados válidos e seu formato. Se o tipo de dados estiver correto, verifique se você está usando uma versão com suporte do Spark SQL.
CANNOT_REFERENCE_UC_IN_HMS
Não é possível referenciar um Unity Catalog <objType>
em objetos de metastore do Hive.
CANNOT_RENAME_ACROSS_CATALOG
Não é permitido renomear uma <type>
entre catálogos.
CANNOT_RENAME_ACROSS_SCHEMA
Não é permitido renomear uma <type>
entre esquemas.
CANNOT_RESOLVE_DATAFRAME_COLUMN
Não é possível resolver a coluna de dataframe <name>
. Provavelmente isso é por causa de referências ilegais, como df1.select(df2.col("a"))
.
CANNOT_RESOLVE_STAR_EXPAND
Não é possível resolver as <targetString>
.* colunas de entrada fornecidas <columns>
. Verifique se a tabela ou struct especificado existe e está acessível nas colunas de entrada.
CANNOT_RESTORE_PERMISSIONS_FOR_PATH
Falha ao definir permissões no caminho criado <path>
de volta para <permission>
.
CANNOT_SAVE_VARIANT
Não é possível salvar o tipo de dados variante no armazenamento externo.
CANNOT_SHALLOW_CLONE_ACROSS_UC_AND_HMS
Não é possível armazenar tabelas de clones rasos no Unity Catalog e no metastore do Hive.
CANNOT_SHALLOW_CLONE_NESTED
Não é possível armazenar uma tabela <table>
de clone raso que já é um clone raso.
CANNOT_SHALLOW_CLONE_NON_UC_MANAGED_TABLE_AS_SOURCE_OR_TARGET
O clone raso só tem suporte para o tipo de tabela MANAGED. A tabela <table>
não é uma tabela MANAGED.
CANNOT_UPDATE_FIELD
Não é possível atualizar o campo <table>
de tipo <fieldName>
:
Para obter mais detalhes, consulteCANNOT_READ_FILE
CANNOT_UP_CAST_DATATYPE
Não é possível converter <expression>
de <sourceType>
em <targetType>
.
<details>
CANNOT_VALIDATE_CONNECTION
Não há suporte para a validação da conexão <jdbcDialectName>
. Contate o suporte do Databricks para soluções alternativas ou defina "spark.databricks.testConnectionBeforeCreation" como "false" para ignorar o teste de conexão antes de criar um objeto de conexão.
CANNOT_WRITE_STATE_STORE
Erro ao gravar arquivos do repositório de estado para o provedor <providerClass>
.
Para obter mais detalhes, consulte CANNOT_LOAD_STATE_STORE
CAST_INVALID_INPUT
O valor <expression>
do tipo <sourceType>
não pode ser convertido em <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere seu tipo de destino. Use try_cast
para tolerar entradas malformadas e retornar NULO.
Para obter mais detalhes, consulte CAST_INVALID_INPUT
CAST_OVERFLOW
O valor <value>
do tipo <sourceType>
não pode ser convertido em <targetType>
devido a um estouro. Use try_cast
para tolerar estouro e retornar NULO.
CAST_OVERFLOW_IN_TABLE_INSERT
Falha ao atribuir um valor de tipo <sourceType>
à coluna de tipo <targetType>
ou variável de tipo <columnName>
devido a um estouro. Use try_cast
no valor de entrada para tolerar o estouro e retornar NULL.
CATALOG_NOT_FOUND
O catálogo <catalogName>
não encontrado. Considere definir a configuração do SQL <config>
para um plug-in de catálogo.
CHECKPOINT_RDD_BLOCK_ID_NOT_FOUND
Bloco de ponto de verificação <rddBlockId>
não encontrado!
O executor que originalmente marcou o ponto de verificação dessa partição não está mais vivo ou o RDD original não é persistente.
Se esse problema persistir, você poderá considerar o uso de rdd.checkpoint()
em vez disso, o que é mais lento do que o ponto de verificação local, mas mais tolerante a falhas.
CLASS_NOT_OVERRIDE_EXPECTED_METHOD
<className>
deve substituir um <method1>
ou <method2>
.
CLASS_UNSUPPORTED_BY_MAP_OBJECTS
MapObjects
não dá suporte à classe <cls>
como coleção resultante.
CLEANROOM_COMMANDS_NOT_SUPPORTED
Não há suporte para comandos de Limpar Sala
CLEANROOM_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para fazer referência a um <type>
dentro de uma Sala Limpa. Use um nome de <type>
dentro da sala limpa seguindo o formato de [catalog].[schema].[<type>
].
Se você não tiver certeza sobre qual nome usar, poderá executar “SHOW ALL IN CLEANROOM [clean_room]” e usar o valor na coluna "nome”.
CLOUD_FILE_SOURCE_FILE_NOT_FOUND
Foi recebida uma notificação de arquivo para o arquivo: <filePath>
, mas ele não existe mais. Certifique-se de que os arquivos não sejam excluídos antes de serem processados. Para continuar sua transmissão, você pode definir a configuração <config>
do Spark SQL como true.
CLOUD_PROVIDER_ERROR
Erro do provedor de nuvem: <message>
CLUSTERING_COLUMNS_MISMATCH
O clustering especificado não corresponde ao da tabela <tableName>
existente.
Colunas de clustering especificadas: [<specifiedClusteringString>
].
Colunas de clustering existentes: [<existingClusteringString>
].
CLUSTERING_NOT_SUPPORTED
‘<operation>
’ não dá suporte ao clustering.
CLUSTER_BY_AUTO_FEATURE_NOT_ENABLED
Entre em contato com o representante do Databricks para habilitar o recurso cluster por automático.
CLUSTER_BY_AUTO_REQUIRES_CLUSTERING_FEATURE_ENABLED
Habilite clusteringTable.enableClusteringTableFeature para usar CLUSTER BY AUTO.
CLUSTER_BY_AUTO_REQUIRES_PREDICTIVE_OPTIMIZATION
CLUSTER BY AUTO requer que a Otimização Preditiva seja habilitada.
CLUSTER_BY_AUTO_UNSUPPORTED_TABLE_TYPE_ERROR
O CLUSTER BY AUTO só tem suporte em tabelas gerenciadas por UC.
CODEC_NOT_AVAILABLE
O codec <codecName>
não está disponível.
Para obter mais detalhes, consulte CODEC_NOT_AVAILABLE
CODEC_SHORT_NAME_NOT_FOUND
Não é possível encontrar um nome curto para o codec <codecName>
.
COLLATION_INVALID_NAME
O valor <collationName>
não representa um nome de agrupamento correto. Nomes válidos de agrupamento sugeridos: [<proposals>
].
COLLATION_INVALID_PROVIDER
O valor <provider>
não representa um provedor de ordenação correto. Os provedores com suporte são: [<supportedProviders>
].
COLLATION_MISMATCH
Não foi possível determinar qual ordenação usar para operadores e funções de cadeia de caracteres.
Para obter mais detalhes, consulte COLLATION_MISMATCH
COLLECTION_SIZE_LIMIT_EXCEEDED
Não é possível criar matriz com elementos <numberOfElements>
que excedem o limite de tamanho da matriz <maxRoundedArrayLength>
.
Para obter mais detalhes, consulte COLLECTION_SIZE_LIMIT_EXCEEDED
COLUMN_ALIASES_NOT_ALLOWED
Aliases de coluna não são permitidos em <op>
.
COLUMN_ALREADY_EXISTS
A coluna <columnName>
já existe. Escolha outro nome ou renomeie a coluna existente.
COLUMN_MASKS_CHECK_CONSTRAINT_UNSUPPORTED
Não há suporte para a criação da restrição CHECK na tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_DUPLICATE_USING_COLUMN_NAME
Uma instrução <statementType>
tentou atribuir uma máscara a uma coluna que incluía duas ou mais colunas referenciadas na lista USING COLUMNS com o mesmo nome <columnName>
, o que é inválido.
COLUMN_MASKS_FEATURE_NOT_SUPPORTED
Não há suporte para políticas de máscara de coluna para <tableName>
:
Para obter mais detalhes, confira COLUMN_MASKS_FEATURE_NOT_SUPPORTED
COLUMN_MASKS_INCOMPATIBLE_SCHEMA_CHANGE
Não é possível <statementType>
<columnName>
da tabela <tableName>
porque ela é referenciada em uma política de máscara de coluna para coluna <maskedColumn>
. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
COLUMN_MASKS_MERGE_UNSUPPORTED_SOURCE
As operações MERGE INTO não dão suporte a políticas de máscara de coluna na tabela <tableName>
de origem.
COLUMN_MASKS_MERGE_UNSUPPORTED_TARGET
As operações MERGE INTO não dão suporte à gravação na tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_MULTI_PART_TARGET_COLUMN_NAME
Essa instrução tentou atribuir uma política de máscara de coluna a uma coluna <columnName>
com várias partes do nome, o que é inválido.
COLUMN_MASKS_MULTI_PART_USING_COLUMN_NAME
Esse comando tentou atribuir uma política de máscara de coluna a uma coluna e a lista USING COLUMNS incluiu o nome <columnName>
com várias partes do nome, o que é inválido.
COLUMN_MASKS_NOT_ENABLED
O suporte para definir máscaras de coluna não está habilitado
COLUMN_MASKS_REQUIRE_UNITY_CATALOG
As políticas de máscara de coluna só têm suporte no Catálogo do Unity.
COLUMN_MASKS_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
não há suporte para clonar da tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_TABLE_CLONE_TARGET_NOT_SUPPORTED
<mode>
não há suporte para clonar da tabela <tableName>
com políticas de máscara de coluna.
COLUMN_MASKS_UNSUPPORTED_CONSTANT_AS_PARAMETER
Não há suporte para o uso de uma constante como parâmetro em uma política de máscara de coluna. Atualize o comando SQL para remover a constante da definição da máscara de coluna e tente o comando novamente.
COLUMN_MASKS_UNSUPPORTED_PROVIDER
Falha ao executar o comando <statementType>
, pois não há suporte para a atribuição de políticas de máscara de coluna para a fonte de dados de destino com o provedor de tabela: “<provider>
”.
COLUMN_MASKS_UNSUPPORTED_SUBQUERY
Não é possível executar <operation>
para a tabela <tableName>
, pois ela contém uma ou mais políticas de máscara de coluna com expressões de subconsulta, que ainda não têm suporte. Contate o proprietário da tabela para atualizar as políticas de máscara de coluna para poder continuar.
COLUMN_MASKS_USING_COLUMN_NAME_SAME_AS_TARGET_COLUMN
A coluna <columnName>
tinha o mesmo nome que a coluna de destino, o que é inválido. Remova a coluna da lista USING COLUMNS e repita o comando.
COLUMN_NOT_DEFINED_IN_TABLE
A coluna <colType>
de <colName>
não está definida na tabela <tableName>
, as colunas de tabela definidas são: <tableCols>
.
COLUMN_NOT_FOUND
Não foi possível encontrar a coluna <colName>
. Verifique a ortografia e a exatidão do nome da coluna de acordo com a configuração <caseSensitiveConfig>
de SQL.
COMMA_PRECEDING_CONSTRAINT_ERROR
‘,’ inesperada antes da definição de restrições. Verifique se a cláusula de restrição não começa com uma vírgula quando colunas (e expectativas) não são definidas.
COMMENT_ON_CONNECTION_NOT_IMPLEMENTED_YET
O comando COMMENT ON CONNECTION ainda não foi implementado
COMPARATOR_RETURNS_NULL
Para uma comparação entre <firstValue>
e <secondValue>
, o comparador retorna NULL.
Ele deve retornar um número inteiro positivo para o operador “maior que”, 0 para o operador “igual a” e um número inteiro negativo para o operador “menor que”.
Para reverter o comportamento preterido, ou seja, para tratar NULL como 0 (usando o operador “igual a”), você deve definir "spark.sql.legacy.allowNullComparisonResultInArraySort" como “true”.
COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
Não é possível processar tipos de dados de entrada para a expressão: <expression>
.
Para obter mais detalhes, consulte COMPLEX_EXPRESSION_UNSUPPORTED_INPUT
CONCURRENT_QUERY
Outra instância dessa consulta [id: <queryId>
] acabou de ser iniciada por uma sessão simultânea [runId existente: <existingQueryRunId>
runId novo: <newQueryRunId>
].
CONCURRENT_STREAM_LOG_UPDATE
Atualização simultânea para o log. Vários trabalhos de streaming detectados para <batchId>
.
Verifique se apenas um trabalho de streaming é executado em um local de ponto de verificação específico por vez.
CONFIG_NOT_AVAILABLE
A configuração <config>
não está disponível.
CONFLICTING_PARTITION_COLUMN_NAMES
Nomes de coluna de partição conflitantes detectados:
<distinctPartColLists>
Para diretórios de tabela particionados, os arquivos de dados devem residir apenas em diretórios folha.
E os diretórios no mesmo nível devem ter o mesmo nome de coluna de partição.
Verifique os seguintes diretórios em busca de arquivos inesperados ou nomes de coluna de partição inconsistentes:
<suspiciousPaths>
CONFLICTING_PROVIDER
O provedor <provider>
especificado é inconsistente com o provedor <expectedProvider>
de catálogo existente. Use ‘USING <expectedProvider>
’ e repita o comando.
CONNECT
Erro genérico de conector do Spark.
Para obter mais detalhes, consulte CONNECT
CONNECTION_ALREADY_EXISTS
Não é possível criar a conexão <connectionName>
porque ela já existe.
Escolha um nome diferente, remova ou substitua a conexão existente ou adicione a cláusula IF NOT EXISTS para tolerar a conexão pré-existente.
CONNECTION_NAME_CANNOT_BE_EMPTY
Não é possível executar esse comando porque o nome da conexão não deve estar em branco.
CONNECTION_NOT_FOUND
Não é possível executar esse comando porque o nome da conexão <connectionName>
não foi encontrado.
CONNECTION_OPTION_NOT_SUPPORTED
As conexões do tipo ‘<connectionType>
’ não dão suporte às seguintes opções: <optionsNotSupported>
. Opções com suporte: <allowedOptions>
.
CONNECTION_TYPE_NOT_SUPPORTED
Não é possível criar a conexão do tipo ‘<connectionType>
. Tipos de conexão com suporte: <allowedTypes>
.
CONSTRAINTS_REQUIRE_UNITY_CATALOG
As restrições de tabela só têm suporte no Catálogo do Unity.
CONVERSION_INVALID_INPUT
O valor <str>
(<fmt>
) não pode ser convertido em <targetType>
porque está malformado. Corrija o valor de acordo com a sintaxe ou altere o formato dele. Use <suggestion>
para tolerar entradas malformadas e retornar NULO.
COPY_INTO_COLUMN_ARITY_MISMATCH
Não é possível gravar no <tableName>
, o motivo é
Para obter mais detalhes, consulte COPY_INTO_COLUMN_ARITY_MISMATCH
COPY_INTO_CREDENTIALS_NOT_ALLOWED_ON
Esquema <scheme>
inválido. As credenciais de origem COPY INTO atualmente só dão suporte a s3/s3n/s3a/wasbs/abfss.
COPY_INTO_CREDENTIALS_REQUIRED
As credenciais de origem de COPY INTO precisam especificar <keyList>
.
COPY_INTO_DUPLICATED_FILES_COPY_NOT_ALLOWED
O commit de arquivos duplicados foi feito em uma operação COPY INTO simultânea. Tente novamente mais tarde.
COPY_INTO_ENCRYPTION_NOT_ALLOWED_ON
Esquema <scheme>
inválido. A criptografia de origem COPY INTO atualmente só dá suporte a s3/s3n/s3a/abfss.
COPY_INTO_ENCRYPTION_NOT_SUPPORTED_FOR_AZURE
A criptografia COPY INTO só dá suporte ao ADLS Gen2 ou ao esquema de arquivos abfss://
COPY_INTO_ENCRYPTION_REQUIRED
A criptografia de origem COPY INTO precisa especificar ‘<key>
’.
COPY_INTO_ENCRYPTION_REQUIRED_WITH_EXPECTED
Opção <requiredKey>
de criptografia inválida. A criptografia de origem COPY INTO precisa especificar ‘<requiredKey>
’ = ‘<keyValue>
’.
COPY_INTO_FEATURE_INCOMPATIBLE_SETTING
O recurso COPY INTO '<feature>
' não é compatível com '<incompatibleSetting>
'.
COPY_INTO_NON_BLIND_APPEND_NOT_ALLOWED
Um COPY INTO que não seja para acrescentar dados não pode ser executado simultaneamente com outras transações. Tente novamente mais tarde.
COPY_INTO_ROCKSDB_MAX_RETRY_EXCEEDED
Falha no carregamento do estado de COPY INTO, número máximo de tentativas excedido.
COPY_INTO_SCHEMA_MISMATCH_WITH_TARGET_TABLE
Uma incompatibilidade de esquema foi detectada ao copiar para a tabela Delta (Tabela: <table>
).
Isso pode indicar um problema com os dados de entrada ou o esquema da tabela Delta pode ser evoluído automaticamente de acordo com os dados de entrada definindo:
COPY_OPTIONS (‘mergeSchema’ = ‘true’)
Diferença de esquema:
<schemaDiff>
COPY_INTO_SOURCE_FILE_FORMAT_NOT_SUPPORTED
O formato dos arquivos de origem precisa ser um entre CSV, JSON, AVRO, ORC, PARQUET, TEXT ou BINARYFILE. Não há suporte para o uso de COPY INTO em tabelas Delta como a origem, pois os dados duplicados podem ser ingeridos após operações OPTIMIZE. Essa verificação pode ser desativada executando o comando set spark.databricks.delta.copyInto.formatCheck.enabled = false
do SQL.
COPY_INTO_SOURCE_SCHEMA_INFERENCE_FAILED
O diretório de origem não continha nenhum arquivo analisável do tipo <format>
. Verifique os conteúdos de ‘<source>
’.
O erro pode ser silenciado definindo ‘<config>
’ como ‘false’.
COPY_INTO_STATE_INTERNAL_ERROR
Ocorreu um erro interno durante o processamento do estado COPY INTO.
Para obter mais detalhes, consulte COPY_INTO_STATE_INTERNAL_ERROR
COPY_INTO_SYNTAX_ERROR
Falha ao analisar o comando COPY INTO.
Para obter mais detalhes, consulte COPY_INTO_SYNTAX_ERROR
COPY_INTO_UNSUPPORTED_FEATURE
O recurso COPY INTO '<feature>
' não tem suporte.
COPY_UNLOAD_FORMAT_TYPE_NOT_SUPPORTED
Não é possível descarregar dados no formato '<formatType>
'. Os formatos suportados são <connectionType>
: <allowedFormats>
.
CREATE_FOREIGN_SCHEMA_NOT_IMPLEMENTED_YET
O comando CREATE FOREIGN SCHEMA ainda não foi implementado
CREATE_FOREIGN_TABLE_NOT_IMPLEMENTED_YET
O comando CREATE FOREIGN TABLE ainda não foi implementado
CREATE_OR_REFRESH_MV_ST_ASYNC
Não é possível executar CREATE OR REFRESH em exibições materializadas ou tabelas de streaming com ASYNC especificado. Remova ASYNC da instrução CREATE OR REFRESH ou use REFRESH ASYNC para atualizar exibições materializadas existentes ou tabelas de streaming de forma assíncrona.
CREATE_PERMANENT_VIEW_WITHOUT_ALIAS
Não é permitido criar a exibição permanente <name>
sem atribuir explicitamente um alias para a expressão <attr>
.
CREATE_TABLE_COLUMN_DESCRIPTOR_DUPLICATE
CREATE TABLE coluna <columnName>
especifica o descritor ‘<optionName>
’ mais de uma vez, o que é inválido.
CREATE_VIEW_COLUMN_ARITY_MISMATCH
Não é possível criar o modo de exibição <viewName>
, o motivo é
Para obter mais detalhes, consulte INSERT_COLUMN_ARITY_MISMATCH
CREDENTIAL_MISSING
Forneça credenciais ao criar ou atualizar locais externos.
CSV_ENFORCE_SCHEMA_NOT_SUPPORTED
A opção CSV enforceSchema
não pode ser configurada ao usar rescuedDataColumn
e failOnUnknownFields
como colunas, são lidas pelo nome ao invés de ordinal.
CYCLIC_FUNCTION_REFERENCE
Referência de função cíclica detectada: <path>
.
DATABRICKS_DELTA_NOT_ENABLED
Databricks Delta não está habilitado em sua conta.<hints>
DATATYPE_MISMATCH
Não é possível resolver <sqlExpr>
devido à incompatibilidade de tipo de dados:
Para obter mais detalhes, confira DATATYPE_MISMATCH
DATATYPE_MISSING_SIZE
O DataType <type>
exige um parâmetro de comprimento, por exemplo, <type>
(10). Especifique o comprimento.
DATA_LINEAGE_SECURE_VIEW_LEAF_NODE_HAS_NO_RELATION
Falha na linhagem de gravação: não há relação correspondente com políticas para CLM/RLS.
DATA_SOURCE_ALREADY_EXISTS
A fonte de dados ‘<provider>
’ já existe. Escolha um nome diferente para a nova fonte de dados.
DATA_SOURCE_EXTERNAL_ERROR
Erro encontrado ao salvar em uma fonte de dados externa.
DATA_SOURCE_NOT_EXIST
A fonte de dados ‘<provider>
’ não foi encontrada. Verifique se a fonte de dados está registrada.
DATA_SOURCE_NOT_FOUND
Não foi possível encontrar a fonte de dados: <provider>
. Verifique se o nome do provedor está correto e se o pacote está registrado corretamente e é compatível com sua versão do Spark.
DATA_SOURCE_OPTION_CONTAINS_INVALID_CHARACTERS
A opção <option>
não deve estar vazia e não deve conter caracteres, cadeias de caracteres de consulta ou parâmetros inválidos.
DATA_SOURCE_OPTION_IS_REQUIRED
Opção <option>
é obrigatória.
DATA_SOURCE_TABLE_SCHEMA_MISMATCH
O esquema da tabela de fonte de dados não corresponde ao esquema esperado. Se você estiver usando a API DataFrameReader.schema ou criando uma tabela, evite especificar o esquema.
Esquema da fonte de dados: <dsSchema>
Esquema esperado: <expectedSchema>
DATA_SOURCE_URL_NOT_ALLOWED
A URL JDBC não é permitida nas opções de fonte de dados; em vez disso, especifique as opções ‘host’, ‘port’ e ‘database’.
DATETIME_OVERFLOW
Estouro da operação datetime: .<operation>
DC_API_QUOTA_EXCEEDED
Você excedeu a cota de API da fonte <sourceName>
de dados.
Para obter mais detalhes, consulte DC_API_QUOTA_EXCEEDED
DC_CONNECTION_ERROR
Falha ao fazer uma conexão com a origem <sourceName>
. Código de erro: <errorCode>
.
Para ver mais detalhes, confira DC_CONNECTION_ERROR
DC_DYNAMICS_API_ERROR
Erro nas chamadas à API do Dynamics, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_DYNAMICS_API_ERROR
DC_NETSUITE_ERROR
Erro em chamadas JDBC do Netsuite, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_NETSUITE_ERROR
DC_SCHEMA_CHANGE_ERROR
SQLSTATE: nenhuma atribuição
Ocorreu uma alteração de esquema no <tableName>
de tabela da origem do <sourceName>
.
Para obter mais detalhes, consulte DC_SCHEMA_CHANGE_ERROR
DC_SERVICENOW_API_ERROR
Erro nas chamadas à API do ServiceNow, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_SERVICENOW_API_ERROR
DC_SFDC_BULK_QUERY_JOB_INCOMPLETE
A ingestão do objeto <objName>
está incompleta porque o trabalho de consulta da API do Salesforce demorou muito, falhou ou foi cancelado manualmente.
Para tentar novamente, você pode executar novamente todo o pipeline ou atualizar essa tabela de destino específica. Se o erro persistir, registre um tíquete. ID do trabalho: <jobId>
. Status do trabalho: <jobStatus>
.
DC_SHAREPOINT_API_ERROR
Erro nas chamadas à API do Sharepoint, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_SHAREPOINT_API_ERROR
DC_SOURCE_API_ERROR
Ocorreu um erro na chamada à API <sourceName>
. Tipo de API de origem: <apiType>
. Código de erro: <errorCode>
.
Às vezes, isso pode acontecer quando você’atinge um limite de API <sourceName>
. Se você não excedeu o limite de API, tente executar novamente o conector. Se o problema persistir, registre um tíquete.
DC_UNSUPPORTED_ERROR
Um erro sem suporte ocorreu na fonte de dados <sourceName>
.
Para obter mais detalhes, consulte DC_UNSUPPORTED_ERROR
DC_WORKDAY_RAAS_API_ERROR
Ocorreu um erro nas chamadas à API do RAAS do Workday, errorCode: <errorCode>
.
Para obter mais detalhes, consulte DC_WORKDAY_RAAS_API_ERROR
DECIMAL_PRECISION_EXCEEDS_MAX_PRECISION
A precisão decimal <precision>
excede a precisão máxima <maxPrecision>
.
DEFAULT_DATABASE_NOT_EXISTS
O banco de dados <defaultDatabase>
não existe, crie-o primeiro ou altere o banco de dados padrão para <defaultDatabase>
.
DEFAULT_FILE_NOT_FOUND
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando ‘REFRESH TABLE table name’ no SQL ou recriando o conjunto de dados ou o dataframe envolvido. Se o cache de disco estiver obsoleto ou os arquivos subjacentes tiverem sido removidos, você poderá invalidar o cache de disco manualmente reiniciando o cluster.
DEFAULT_PLACEMENT_INVALID
Um palavra-chave PADRÃO em um comando MERGE, INSERT, UPDATE ou SET VARIABLE não pôde ser atribuído diretamente a uma coluna de destino porque fazia parte de uma expressão.
Por exemplo, UPDATE SET c1 = DEFAULT
é permitido, mas UPDATE T SET c1 = DEFAULT + 1
não é.
DIFFERENT_DELTA_TABLE_READ_BY_STREAMING_SOURCE
A consulta de streaming estava lendo de uma tabela Delta inesperada (id = '<newTableId>
').
Ele costumava ler de outra tabela Delta (id = '<oldTableId>
') de acordo com o ponto de verificação.
Isso pode acontecer quando você alterou o código para ler de uma nova tabela ou excluiu e
recriou uma tabela. Reverta sua alteração ou exclua o ponto de verificação de consulta de streaming
para começar do zero.
DISTINCT_WINDOW_FUNCTION_UNSUPPORTED
Não há suporte para as funções de janela distintas: <windowExpr>
.
DIVIDE_BY_ZERO
Divisão por zero. Use try_divide
para tolerar divisor sendo 0 e retornar NULO. Se necessário, defina <config>
como “false” para ignorar esse erro.
Para obter mais detalhes, consulte DIVIDE_BY_ZERO
DLT_EXPECTATIONS_NOT_SUPPORTED
As expectativas só têm suporte em um pipeline do Delta Live Tables.
DLT_VIEW_CLUSTER_BY_NOT_SUPPORTED
MATERIALIZED VIEWS com uma cláusula CLUSTER BY têm suporte apenas em um pipeline do Delta Live Tables.
DLT_VIEW_LOCATION_NOT_SUPPORTED
Os locais de MATERIALIZED VIEW têm suporte apenas em um pipeline do Delta Live Tables.
DLT_VIEW_SCHEMA_WITH_TYPE_NOT_SUPPORTED
Os esquemas MATERIALIZED VIEW com um tipo especificado têm suporte apenas em um pipeline do Delta Live Tables.
DLT_VIEW_TABLE_CONSTRAINTS_NOT_SUPPORTED
Cláusulas CONSTRAINT em uma exibição só têm suporte em um pipeline do Delta Live Tables.
DUPLICATED_FIELD_NAME_IN_ARROW_STRUCT
Nomes de campos duplicados na Arrow Struct não são permitidos, foi obtido <fieldNames>
.
DUPLICATED_MAP_KEY
A chave de mapear <key>
duplicada foi encontrada, verifique os dados de entrada.
Se quiser remover as chaves duplicadas, você pode definir <mapKeyDedupPolicy>
como “LAST_WIN” para que a chave inserida por último tenha precedência.
DUPLICATED_METRICS_NAME
O nome da métrica não é exclusivo: <metricName>
. O mesmo nome não pode ser usado para as métricas com resultados diferentes.
Contudo, várias instâncias de métricas com o mesmo resultado e nome são permitidas (por exemplo, autojunções).
DUPLICATE_ASSIGNMENTS
As colunas ou variáveis <nameList>
aparecem mais de uma vez como destinos de atribuição.
DUPLICATE_CLAUSES
Encontradas cláusulas duplicadas: <clauseName>
. Remova um deles.
DUPLICATE_KEY
Chaves duplicadas encontradas <keyColumn>
.
DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
A chamada à rotina <functionName>
é inválida porque inclui várias atribuições de argumento para o mesmo nome de parâmetro <parameterName>
.
Para obter mais detalhes, consulte DUPLICATE_ROUTINE_PARAMETER_ASSIGNMENT
DUPLICATE_ROUTINE_PARAMETER_NAMES
Foram encontrados nomes duplicados na lista de parâmetros da rotina definida pelo usuário <routineName>
: <names>
.
DUPLICATE_ROUTINE_RETURNS_COLUMNS
Foram encontradas colunas duplicadas na lista de colunas da cláusula RETURNS da rotina definida pelo usuário <routineName>
: <columns>
.
EMITTING_ROWS_OLDER_THAN_WATERMARK_NOT_ALLOWED
O nó anterior emitiu uma linha com eventTime=<emittedRowEventTime>
, que é mais antiga que current_watermark_value=<currentWatermark>
Isso pode causar problemas de correção nos operadores com estado downstream no pipeline de execução.
Corrija a lógica do operador para emitir linhas após o valor da marca d'água global atual.
EMPTY_JSON_FIELD_VALUE
Falha ao analisar uma cadeia de caracteres vazia para o tipo de dados <dataType>
.
EMPTY_LOCAL_FILE_IN_STAGING_ACCESS_QUERY
Arquivo local vazio na consulta de preparo <operation>
ENCODER_NOT_FOUND
Não foi encontrado um codificador do tipo <typeName>
para a representação interna do Spark SQL.
Considere alterar o tipo de entrada para um com suporte em "<docroot>
/sql-ref-datatypes.html".
END_LABEL_WITHOUT_BEGIN_LABEL
O rótulo <endLabel>
final não pode existir sem o rótulo inicial.
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_LATEST_WITH_TRIGGER_AVAILABLENOW
Algumas partições no deslocamento disponível do relatório de tópico(s) Kafka que é menor que o deslocamento final durante a consulta executando com Trigger.AvailableNow. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
último deslocamento: <latestOffset>
, deslocamento final: <endOffset>
END_OFFSET_HAS_GREATER_OFFSET_FOR_TOPIC_PARTITION_THAN_PREFETCHED
Para fonte de dados Kafka com Trigger.AvailableNow, deslocamento final deve ter deslocamento igual ou menor por cada partição de tópico do que o deslocamento pré-coletado. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
deslocamento pré-coletado: <prefetchedOffset>
, deslocamento final: <endOffset>
.
ERROR_READING_AVRO_UNKNOWN_FINGERPRINT
Erro ao ler dados avro - encontrou uma impressão digital desconhecida: <fingerprint>
, sem saber qual esquema usar.
Isso pode acontecer se você registrou esquemas adicionais depois de iniciar o contexto do Spark.
EVENT_LOG_REQUIRES_SHARED_COMPUTE
Não é possível consultar os logs de eventos de um cluster Compartilhado Atribuído ou Sem Isolamento; em vez disso, use um cluster Compartilhado ou um repositório SQL do Databricks.
EVENT_LOG_UNAVAILABLE
Nenhum log de eventos disponível para <tableOrPipeline>
. Tente novamente mais tarde, depois que os eventos forem gerados
EVENT_LOG_UNSUPPORTED_TABLE_TYPE
O tipo de tabela de <tableIdentifier>
é <tableType>
.
A consulta de logs de eventos é compatível apenas com pipelines de Exibições Materializadas, Tabelas de Transmissão ou Tabelas de Delta Live
EVENT_TIME_IS_NOT_ON_TIMESTAMP_TYPE
A hora do evento <eventName>
tem o tipo <eventType>
inválido, mas espera-se “TIMESTAMP
”.
EXCEED_LIMIT_LENGTH
Excede a limitação de comprimento do tipo char/varchar: <limit>
.
EXCEPT_NESTED_COLUMN_INVALID_TYPE
EXCEPT coluna <columnName>
foi resolvida e esperava-se que fosse StructType, mas foi encontrado o tipo <dataType>
.
EXCEPT_OVERLAPPING_COLUMNS
As colunas em uma lista EXCEPT precisam ser distintas e não sobrepostas, mas foi recebido (<columns>
).
EXCEPT_RESOLVED_COLUMNS_WITHOUT_MATCH
EXCEPT colunas [<exceptColumns>
] foram resolvidas, mas não correspondem a nenhuma das colunas [<expandedColumns>
] da expansão de estrela.
EXCEPT_UNRESOLVED_COLUMN_IN_STRUCT_EXPANSION
O nome <objectName>
da coluna/campo na cláusula EXCEPT não pode ser resolvido. Você quis dizer um dos seguintes: [<objectList>
]?
Observação: as colunas aninhadas na cláusula EXCEPT podem não incluir qualificadores (nome da tabela, nome da coluna struct pai etc.) durante uma expansão do struct; tente remover os qualificadores se eles forem usados com colunas aninhadas.
EXECUTOR_BROADCAST_JOIN_OOM
Não há memória suficiente para criar a relação de transmissão <relationClassName>
. Tamanho da relação = <relationSize>
. Memória total usada por esta tarefa = <taskMemoryUsage>
. Métricas do Gerenciador de Memória do Executor: onHeapExecutionMemoryUsed = <onHeapExecutionMemoryUsed>
, offHeapExecutionMemoryUsed = <offHeapExecutionMemoryUsed>
, onHeapStorageMemoryUsed = <onHeapStorageMemoryUsed>
, offHeapStorageMemoryUsed = <offHeapStorageMemoryUsed>
. [sparkPlanId: <sparkPlanId>
]
EXEC_IMMEDIATE_DUPLICATE_ARGUMENT_ALIASES
A cláusula USING deste comando EXECUTE IMMEDIATE continha vários argumentos com o mesmo alias (<aliases>
), que é inválido; atualize o comando para especificar aliases exclusivos e tente novamente.
EXPECT_PERMANENT_VIEW_NOT_TEMP
‘<operation>
’ espera uma visão permanente, mas <viewName>
é uma visão permanente.
EXPECT_TABLE_NOT_VIEW
‘<operation>
’ espera uma tabela mas <viewName>
é uma visão.
Para mais detalhes, consulte EXPECT_TABLE_NOT_VIEW
EXPECT_VIEW_NOT_TABLE
A tabela <tableName>
não dá suporte a <operation>
.
Para mais detalhes, consulte EXPECT_TABLE_NOT_VIEW
EXPRESSION_DECODING_FAILED
Falha ao decodificar uma linha no valor das expressões: <expressions>
EXPRESSION_ENCODING_FAILED
Falha ao codificar um valor das expressões: <expressions>
para uma linha.
EXPRESSION_TYPE_IS_NOT_ORDERABLE
A expressão de coluna <expr>
não pode ser classificada porque seu tipo <exprType>
não pode ser ordenado.
EXTERNAL_TABLE_INVALID_SCHEME
As tabelas externas não dão suporte ao esquema <scheme>
.
FABRIC_REFRESH_INVALID_SCOPE
Erro ao executar ‘REFRESH FOREIGN <scope>
<name>
’. Não foi possível atualizar diretamente um <scope>
do Fabric, use ‘REFRESH FOREIGN CATALOG <catalogName>
’ para atualizar o Catálogo do Fabric.
FAILED_EXECUTE_UDF
A função definida pelo usuário (<functionName>
: (<signature>
) =><result>
) falhou devido a: <reason>
.
FAILED_FUNCTION_CALL
Falha na preparação da função <funcName>
para chamada. Verifique duas vezes os argumentos da função.
FAILED_JDBC
Falha no JDBC <url>
na operação:
Para obter mais detalhes, consulte FAILED_JDBC
FAILED_PARSE_STRUCT_TYPE
Falha na análise do struct: <raw>
.
FAILED_READ_FILE
Erro ao ler o arquivo <path>
.
Para obter mais detalhes, consulte FAILED_READ_FILE
FAILED_REGISTER_CLASS_WITH_KRYO
Falha ao registrar classes com o Kryo.
FAILED_RENAME_PATH
Falha ao renomear <sourcePath>
para <targetPath>
, pois o destino já existe.
FAILED_RENAME_TEMP_FILE
Falha ao renomear o arquivo temporário <srcPath>
para <dstPath>
já que o FileSystem.rename retornou false.
FAILED_ROW_TO_JSON
Falha ao converter o valor da linha <value>
da classe <class>
para o tipo SQL de destino <sqlType>
no formato JSON.
FAILED_TO_PARSE_TOO_COMPLEX
A instrução, incluindo funções SQL potenciais e exibições referenciadas, era muito complexa para ser analisada.
Para atenuar esse erro, divida a instrução em várias partes menos complexas.
FEATURE_NOT_ENABLED
O recurso <featureName>
não está habilitado. Considere definir a configuração <configKey>
para <configValue>
habilitar essa funcionalidade.
FEATURE_NOT_ON_CLASSIC_WAREHOUSE
<feature>
não tem suporte em repositórios clássicos de SQL. Para usar esse recurso, use um SQL warehouse pro ou sem servidor. Para saber mais sobre tipos de repositórios, consulte <docLink>
FEATURE_REQUIRES_UC
<feature>
não tem suporte sem o Unity Catalog. Para usar esse recurso, habilite o Catálogo do Unity. Para saber mais sobre o Unity Catalog, consulte <docLink>
FEATURE_UNAVAILABLE
<feature>
não tem suporte em seu ambiente. Para usar esse recurso, entre em contato com o Suporte do Databricks.
FIELD_ALREADY_EXISTS
Não é possível <op>
coluna, porque <fieldNames>
já existe em <struct>
.
FIELD_NOT_FOUND
Não existe esse campo de struct <fieldName>
em <fields>
.
FILE_IN_STAGING_PATH_ALREADY_EXISTS
O arquivo no caminho de preparo <path>
já existe, mas OVERWRITE não está definido
FLATMAPGROUPSWITHSTATE_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário em flatMapGroupsWithState. Motivo: <reason>
FORBIDDEN_OPERATION
A operação <statement>
não é permitida em <objectType>
: <objectName>
.
FOREACH_BATCH_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário no coletor de lote foreach. Motivo: <reason>
FOREACH_USER_FUNCTION_ERROR
Ocorreu um erro na função fornecida pelo usuário no coletor foreach. Motivo: <reason>
FOREIGN_KEY_MISMATCH
As colunas <parentColumns>
da chave estrangeira pai não correspondem às colunas <childColumns>
da chave primária filho.
FOREIGN_OBJECT_NAME_CANNOT_BE_EMPTY
Não é possível executar esse comando porque o nome de <objectType>
estrangeira não deve estar em branco.
FOUND_MULTIPLE_DATA_SOURCES
Detectou várias fontes de dados com o nome ‘<provider>
’. Verifique se a fonte de dados não está registrada simultaneamente e localizada no classpath.
FROM_JSON_CONFLICTING_SCHEMA_UPDATES
A inferência from_json encontrou atualizações de esquema conflitantes em: <location>
FROM_JSON_CORRUPT_RECORD_COLUMN_IN_SCHEMA
from_json found columnNameOfCorruptRecord (<columnNameOfCorruptRecord>
) presente
em um objeto JSON e não pode mais continuar. Configure um valor diferente para
a opção ‘columnNameOfCorruptRecord’.
FROM_JSON_CORRUPT_SCHEMA
A inferência from_json não pôde ler o esquema armazenado em: <location>
FROM_JSON_INFERENCE_FAILED
from_json não conseguiu inferir o esquema. Forneça um esquema.
FROM_JSON_INFERENCE_NOT_SUPPORTED
A inferência from_json só tem suporte ao definir tabelas de streaming
FROM_JSON_INVALID_CONFIGURATION
A configuração from_json é inválida:
Para obter mais detalhes, consulte FROM_JSON_INVALID_CONFIGURATION
FROM_JSON_SCHEMA_EVOLUTION_FAILED
from_json não pôde evoluir de <old>
para <new>
FUNCTION_PARAMETERS_MUST_BE_NAMED
A função <function>
requer parâmetros nomeados. Parâmetros com nomes ausentes: <exprs>
. Atualize a chamada de função para adicionar nomes para todos os parâmetros, por exemplo, <function>
(param_name => ...).
GENERATED_COLUMN_WITH_DEFAULT_VALUE
Uma coluna não pode ter um valor padrão e uma expressão de geração, mas a coluna <colName>
tem o valor padrão de: (<defaultValue>
) e a expressão de geração de: (<genExpr>
).
GET_TABLES_BY_TYPE_UNSUPPORTED_BY_HIVE_VERSION
O Hive 2.2 e versões anteriores não dão suporte a getTablesByType. Use o Hive 2.3 ou versão superior.
GET_WARMUP_TRACING_FAILED
Falha ao obter o rastreamento de aquecimento. Causa: <cause>
.
GET_WARMUP_TRACING_FUNCTION_NOT_ALLOWED
Função get_warmup_tracing() não permitida.
GRAPHITE_SINK_INVALID_PROTOCOL
Protocolo Graphite inválido: <protocol>
.
GRAPHITE_SINK_PROPERTY_MISSING
O coletor do Graphite exige a propriedade ‘<property>
’.
GROUPING_COLUMN_MISMATCH
Não é possível encontrar a coluna de agrupamento (<grouping>
) em colunas de agrupamento <groupingColumns>
.
GROUPING_ID_COLUMN_MISMATCH
As colunas de grouping_id (<groupingIdColumn>
) não correspondem às colunas de agrupamento (<groupByColumns>
).
GROUPING_SIZE_LIMIT_EXCEEDED
O tamanho dos conjuntos de agrupamento não pode ser maior que <maxSize>
.
GROUP_BY_AGGREGATE
As funções de agregação não são permitidas no GROUP BY, mas foram encontradas <sqlExpr>
.
Para obter mais detalhes, consulte GROUP_BY_AGGREGATE
GROUP_BY_POS_AGGREGATE
GROUP BY <index>
refere-se a uma expressão <aggExpr>
que contém uma função de agregação. As funções de agregação não são permitidas em GROUP BY.
GROUP_BY_POS_OUT_OF_RANGE
GROUP BY posição <index>
não está na lista de seleção (o intervalo válido é [1, <size>
]).
GROUP_EXPRESSION_TYPE_IS_NOT_ORDERABLE
A expressão <sqlExpr>
não pode ser usada como uma expressão de agrupamento porque seu tipo <dataType>
de dados não é um tipo de dados não pode ser ordenado.
HDFS_HTTP_ERROR
Ao tentar ler do HDFS, a solicitação HTTP falhou.
Para mais detalhes, consulte HDFS_HTTP_ERROR
HLL_INVALID_INPUT_SKETCH_BUFFER
Chamada inválida para <function>
; somente os buffers de esboço de HLL válidos têm suporte como entradas (como aquelas produzidas pela hll_sketch_agg
função).
HLL_INVALID_LG_K
Chamada inválida para <function>
; o lgConfigK
valor deve ser entre <min>
e <max>
, inclusive: <value>
.
HLL_UNION_DIFFERENT_LG_K
Os esboços têm valores lgConfigK
diferentes: <left>
e <right>
. Defina o allowDifferentLgConfigK
parâmetro como verdadeiro para chamar <function>
com valores diferentes lgConfigK
.
IDENTIFIER_TOO_MANY_NAME_PARTS
<identifier>
não é um identificador válido, pois tem mais de 2 partes de nome.
ILLEGAL_STATE_STORE_VALUE
Valor ilegal fornecido ao Repositório de Estado
Para obter mais detalhes, consulte ILLEGAL_STATE_STORE_VALUE
INCOMPARABLE_PIVOT_COLUMN
Coluna dinâmica inválida <columnName>
. As colunas dinâmicas precisam ser comparáveis.
INCOMPATIBLE_COLUMN_TYPE
<operator>
só pode ser executado em tabelas com tipos de coluna compatíveis. A coluna <columnOrdinalNumber>
da tabela <tableOrdinalNumber>
é do tipo <dataType1>
, que não é compatível com <dataType2>
na mesma coluna da primeira tabela.<hint>
.
INCOMPATIBLE_DATASOURCE_REGISTER
Um DataSourceRegister incompatível foi detectado. Remova a biblioteca incompatível do classpath ou atualize-a. Erro: <message>
INCOMPATIBLE_DATA_FOR_TABLE
Não é possível gravar dados incompatíveis para a tabela <tableName>
:
Para obter mais detalhes, consulte INCOMPATIBLE_DATA_FOR_TABLE
INCOMPATIBLE_JOIN_TYPES
Os tipos de junção <joinType1>
e <joinType2>
são incompatíveis.
INCOMPATIBLE_VIEW_SCHEMA_CHANGE
A consulta SQL da exibição <viewName>
tem uma alteração de esquema incompatível e não pode resolver a coluna <colName>
. São esperadas <expectedNum>
colunas nomeadas <colName>
, mas a coluna recebida é <actualCols>
.
Tente recriar a exibição executando: <suggestion>
.
INCOMPLETE_TYPE_DEFINITION
Tipo complexo incompleto:
Para obter mais detalhes, consulte INCOMPLETE_TYPE_DEFINITION
INCONSISTENT_BEHAVIOR_CROSS_VERSION
Você pode obter um resultado diferente devido à atualização para
Para mais detalhes, consulte INCONSISTENT_BEHAVIOR_CROSS_VERSION
INCORRECT_NUMBER_OF_ARGUMENTS
<failure>
, <functionName>
requer pelo menos <minArgs>
argumentos e no máximo <maxArgs>
argumentos.
INCORRECT_RAMP_UP_RATE
O deslocamento máximo com <rowsPerSecond>
rowsPerSecond é <maxSeconds>
, mas ‘rampUpTimeSeconds’ é <rampUpTimeSeconds>
.
INDETERMINATE_COLLATION
A função chamada requer conhecimento da ordenação que deve ser aplicada, mas a ordenação indeterminado foi encontrada. Use a função COLLATE para definir a ordenação explicitamente.
INDEX_ALREADY_EXISTS
Não é possível criar o índice <indexName>
na tabela <tableName>
porque ele já existe.
INDEX_NOT_FOUND
Não é possível encontrar o índice <indexName>
na tabela <tableName>
.
INFINITE_STREAMING_TRIGGER_NOT_SUPPORTED
Não há suporte para o tipo de gatilho <trigger>
para esse tipo de cluster.
Use um tipo de gatilho diferente, por exemplo, AvailableNow, Once.
INSERT_COLUMN_ARITY_MISMATCH
Não é possível gravar no <tableName>
, o motivo é
Para obter mais detalhes, consulte INSERT_COLUMN_ARITY_MISMATCH
INSERT_PARTITION_COLUMN_ARITY_MISMATCH
Não é possível gravar em ‘<tableName>
’, <reason>
:
Colunas da tabela: <tableColumns>
.
Colunas de partição com valores estáticos: <staticPartCols>
.
Colunas de dados: <dataColumns>
.
INSUFFICIENT_PERMISSIONS
Privilégios insuficientes:
<report>
INSUFFICIENT_PERMISSIONS_EXT_LOC
O usuário <user>
não tem privilégios suficientes para o local externo <location>
.
INSUFFICIENT_PERMISSIONS_NO_OWNER
Não há proprietário para <securableName>
. Peça ao administrador para definir um proprietário.
INSUFFICIENT_PERMISSIONS_OWNERSHIP_SECURABLE
O usuário não possui <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE
O usuário não tem permissões <action>
em <securableName>
.
INSUFFICIENT_PERMISSIONS_SECURABLE_PARENT_OWNER
O proprietário de <securableName>
é diferente do proprietário de <parentSecurableName>
.
INSUFFICIENT_PERMISSIONS_STORAGE_CRED
A credencial de armazenamento <credentialName>
não tem privilégios suficientes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES
O usuário não pode executar <action>
em <securableName>
devido às permissões em objetos protegíveis subjacentes.
INSUFFICIENT_PERMISSIONS_UNDERLYING_SECURABLES_VERBOSE
O usuário não pode executar <action>
em <securableName>
devido a permissões em objetos protegíveis subjacentes:
<underlyingReport>
INTERVAL_ARITHMETIC_OVERFLOW
<message>
.<alternative>
INTERVAL_DIVIDED_BY_ZERO
Divisão por zero. Use try_divide
para tolerar divisor sendo 0 e retornar NULO.
INVALID_AGGREGATE_FILTER
A expressão FILTER <filterExpr>
em uma função de agregação é inválida.
Para obter mais detalhes, consulte INVALID_AGGREGATE_FILTER
INVALID_ARRAY_INDEX
O índice <indexValue>
está fora dos limites. A matriz tem <arraySize>
elementos. Use a função SQL get()
para tolerar o elemento de acesso no índice inválido e retornar NULO. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
Para obter mais detalhes, consulte INVALID_ARRAY_INDEX
INVALID_ARRAY_INDEX_IN_ELEMENT_AT
O índice <indexValue>
está fora dos limites. A matriz tem <arraySize>
elementos. Use try_element_at
para tolerar o elemento de acesso no índice inválido e retornar NULO. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
Para obter mais detalhes, consulte INVALID_ARRAY_INDEX_IN_ELEMENT_AT
INVALID_BITMAP_POSITION
A posição do bitmap indexado em 0 <bitPosition>
está fora dos limites. O bitmap tem <bitmapNumBits>
bits (<bitmapNumBytes>
bytes).
INVALID_BOOLEAN_STATEMENT
A instrução booleana é esperada na condição, mas <invalidStatement>
foi encontrada.
INVALID_BOUNDARY
O limite <boundary>
é inválido: <invalidValue>
.
Para obter mais detalhes, confira INVALID_BOUNDARY
INVALID_BUCKET_COLUMN_DATA_TYPE
Não é possível usar <type>
para a coluna bucket. Não há suporte para tipos de dados agrupados para bucketing.
INVALID_BUCKET_FILE
Arquivo bucket inválido: <path>
.
INVALID_BYTE_STRING
O formato esperado é ByteString, mas foi <unsupported>
(<class>
).
INVALID_COLUMN_NAME_AS_PATH
A fonte de dados <datasource>
não pode salvar a coluna <columnName>
porque seu nome contém alguns caracteres que não são permitidos em caminhos de arquivo. Use um alias para renomeá-lo.
INVALID_COLUMN_OR_FIELD_DATA_TYPE
A coluna ou o campo <name>
é do tipo <type>
, embora seja necessário que seja <expectedType>
.
INVALID_CONF_VALUE
O valor '<confValue>
' na configuração "<confName>
" é inválido.
Para obter mais detalhes, consulte INVALID_CONF_VALUE
INVALID_CURRENT_RECIPIENT_USAGE
A função current_recipient
só pode ser usada na instrução CREATE VIEW
ou na instrução ALTER VIEW
para definir uma exibição somente de compartilhamento no Catálogo do Unity.
INVALID_CURSOR
O cursor é inválido.
Para obter mais detalhes, consulte IINVALID_CURSOR
INVALID_DATETIME_PATTERN
Padrão de datetime não reconhecido: <pattern>
.
Para obter mais detalhes, consulte INVALID_DATETIME_PATTERN
INVALID_DEFAULT_VALUE
Falha ao executar o comando <statement>
, pois a coluna de destino ou variável <colName>
tem um valor DEFAULT <defaultValue>
,
Para obter mais detalhes, confira INVALID_DEFAULT_VALUE
INVALID_DELIMITER_VALUE
Valor inválido para delimitador.
Para obter mais detalhes, consulte INVALID_DELIMITER_VALUE
INVALID_DEST_CATALOG
O catálogo de destino do comando SYNC deve estar no Catálogo do Unity. Encontrado <catalog>
.
INVALID_DRIVER_MEMORY
A memória do sistema <systemMemory>
deve ser de pelo menos <minSystemMemory>
.
Aumente o tamanho do heap usando a opção -driver-memory ou “<config>
” na configuração do Spark.
INVALID_DYNAMIC_OPTIONS
As opções passadas <option_list> são proibidas para table_name> de tabela <estrangeira.
INVALID_EMPTY_LOCATION
O nome do local não pode ser uma cadeia de caracteres vazia, mas <location>
foi fornecido.
INVALID_ESC
Foi encontrada uma cadeia de caracteres de escape inválida: <invalidEscape>
. A cadeia de caracteres de escape deve conter apenas um caractere.
INVALID_ESCAPE_CHAR
EscapeChar
deve ser um literal de cadeia de caracteres de comprimento um, mas obteve <sqlExpr>
.
INVALID_EXECUTOR_MEMORY
A memória do executor <executorMemory>
deve ser de pelo menos <minSystemMemory>
.
Aumente a memória do executor usando a opção -executor-memory ou “<config>
” na configuração do Spark.
INVALID_EXPRESSION_ENCODER
Um codificador de expressão inválido foi encontrado. Espera uma instância do ExpressionEncoder, mas recebeu <encoderType>
. Para obter mais informações, consulte ‘<docroot>
/api/java/index.html?org/apache/spark/sql/Encoder.html’.
INVALID_EXTRACT_BASE_FIELD_TYPE
Não é possível extrair um valor de <base>
. É necessário um tipo complexo [STRUCT
, ARRAY
, MAP
], mas foi obtido <other>
.
INVALID_EXTRACT_FIELD
Não é possível extrair <field>
de <expr>
.
INVALID_EXTRACT_FIELD_TYPE
O nome do campo deve ser um literal de cadeia de caracteres não nula, mas é <extraction>
.
INVALID_FIELD_NAME
O nome do campo <fieldName>
é inválido: <path>
não é um struct.
INVALID_FORMAT
O formato é inválido: <format>
.
Para obter mais detalhes, confira INVALID_FORMAT
INVALID_FRACTION_OF_SECOND
A fração de segundo precisa ser zero. O intervalo válido é [0, 60]. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
INVALID_HANDLE
O identificador <handle>
é inválido.
Para obter mais detalhes, consulte INVALID_HANDLE
INVALID_IDENTIFIER
O identificador <ident>
não cotado é inválido e deve ser citado novamente como: <ident>
.
Identificadores não citados só podem conter letras ASCII ('a' - 'z', 'A' - 'Z'), dígitos ('0' - '9') e barra inferior ('_').
Os identificadores não citados também não devem começar com um dígito.
Diferentes fontes de dados e meta repositórios podem impor restrições adicionais aos identificadores válidos.
INVALID_INDEX_OF_ZERO
O índice 0 é inválido. Um índice deve ser < 0 ou > 0 (o índice do primeiro elemento é 1).
INVALID_INLINE_TABLE
Tabela embutida inválida.
Para obter mais detalhes, consulte INVALID_INLINE_TABLE
INVALID_INTERVAL_FORMAT
Erro ao analisar '<input>
' para intervalo. Verifique se o valor fornecido está em um formato válido para definir um intervalo. Você pode referenciar a documentação para o formato correto.
Para obter mais detalhes, consulte INVALID_INTERVAL_FORMAT
INVALID_INVERSE_DISTRIBUTION_FUNCTION
Função de distribuição inversa <funcName>
inválida.
Para obter mais detalhes, consulte INVALID_INVERSE_DISTRIBUTION_FUNCTION
INVALID_JOIN_TYPE_FOR_JOINWITH
Tipo de junção inválido em joinWith: <joinType>
.
INVALID_JSON_DATA_TYPE
Falha ao converter a cadeia de caracteres JSON '<invalidType>
' em um tipo de dados. Insira um tipo de dados válido.
INVALID_JSON_DATA_TYPE_FOR_COLLATIONS
As ordenações só podem ser aplicadas a tipos de cadeia de caracteres, mas o tipo de dados JSON é <jsonType>
.
INVALID_JSON_ROOT_FIELD
Não é possível converter o campo raiz JSON para o tipo Spark de destino.
INVALID_JSON_SCHEMA_MAP_TYPE
O esquema de entrada <jsonSchema>
só pode conter STRING
como tipo de chave para um arquivo MAP
.
INVALID_KRYO_SERIALIZER_BUFFER_SIZE
O valor da configuração "<bufferSizeConfKey>
" deve ser menor que 2048 MiB, mas obteve <bufferSizeConfValue>
MiB.
INVALID_LABEL_USAGE
O uso do rótulo <labelName>
é inválido.
Para mais detalhes, consulte INVALID_LABEL_USAGE
INVALID_LAMBDA_FUNCTION_CALL
Chamada de função lambda inválida.
Para obter mais detalhes, confira INVALID_LAMBDA_FUNCTION_CALL
INVALID_LATERAL_JOIN_TYPE
A correlação <joinType>
JOIN com LATERAL não é permitida porque uma sub-consulta OUTER não pode ser correlacionada com seu parceiro de junção. Remova a correlação LATERAL ou use uma INNER JOIN ou LEFT OUTER JOIN.
INVALID_LIMIT_LIKE_EXPRESSION
O limite como a expressão <expr>
é inválida.
Para obter mais detalhes, confira INVALID_LIMIT_LIKE_EXPRESSION
INVALID_LOCATION
O nome do local não pode ser um URI inválido, mas <location>
foi fornecido.
INVALID_NON_ABSOLUTE_PATH
O caminho <path>
não absoluto fornecido não pode ser qualificado. Atualize o caminho para ser um local de montagem dbfs válido.
INVALID_NON_DETERMINISTIC_EXPRESSIONS
O operador espera uma expressão determinística, mas a expressão real é <sqlExprs>
.
INVALID_NUMERIC_LITERAL_RANGE
O literal numérico <rawStrippedQualifier>
está fora do intervalo válido do <typeName>
com o valor mínimo de <minValue>
e o valor máximo de <maxValue>
. Ajuste o valor adequadamente.
INVALID_OBSERVED_METRICS
Métricas observadas inválidas.
Para obter mais detalhes, consulte INVALID_OPTIONS
INVALID_OPTIONS
Opções inválidas:
Para obter mais detalhes, consulte INVALID_OPTIONS
INVALID_PANDAS_UDF_PLACEMENT
A UDF <functionList>
de agregação de grupo do pandas não pode ser invocada junto com outras funções de agregação não pandas.
INVALID_PARAMETER_MARKER_VALUE
Um mapeamento de parâmetro inválido foi fornecido:
Para obter mais detalhes, confira INVALID_PARAMETER_VALUE
INVALID_PARAMETER_VALUE
O valor dos parâmetros <parameter>
em <functionName>
é inválido:
Para obter mais detalhes, consulte INVALID_PARAMETER_VALUE
INVALID_PARTITION_COLUMN_DATA_TYPE
Não é possível usar <type>
para a coluna de partição.
INVALID_PARTITION_OPERATION
O comando de partição é inválido.
Para obter mais detalhes, confira INVALID_PARTITION_OPERATION
INVALID_PIPELINE_ID
A ID <pipelineId>
do pipeline não é válida.
A ID do pipeline deve ser uma UUID no formato ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’
INVALID_PRIVILEGE
O privilégio <privilege>
não é válido para <securable>
.
INVALID_PROPERTY_KEY
<key>
é uma chave de propriedade inválida, use aspas, por exemplo, SET <key>
=<value>
.
INVALID_PROPERTY_VALUE
<value>
é um valor da propriedade inválido, use aspas, por exemplo, SET <key>
=<value>
INVALID_QUERY_MIXED_QUERY_PARAMETERS
A consulta parametrizada precisa usar parâmetros posicionais ou nomeados, mas não ambos.
INVALID_S3_COPY_CREDENTIALS
As credenciais COPY INTO precisam incluir AWS_ACCESS_KEY, AWS_SECRET_KEY e AWS_SESSION_TOKEN.
INVALID_SAVE_MODE
O modo de salvamento <mode>
especificado é inválido. Os modos de salvamento válidos incluem “acrescentar”, “substituir”, “ignorar”, “erro”, “errorifexists” e “padrão”.
INVALID_SCHEMA
O esquema de entrada <inputSchema>
não é uma cadeia de caracteres de esquema válida.
Para obter mais detalhes, confira INVALID_SCHEMA
INVALID_SCHEMA_OR_RELATION_NAME
<name>
não é um nome válido para tabelas/esquemas. Os nomes válidos contêm apenas caracteres alfabéticos, números e _.
INVALID_SCHEME
O catálogo do Unity não dá suporte a <name>
como o esquema de arquivos padrão.
INVALID_SECRET_LOOKUP
Pesquisa de segredo inválida:
Para obter mais detalhes, confira INVALID_SECRET_LOOKUP
INVALID_SET_SYNTAX
O formato esperado é ‘SET’, ‘SET key’ ou ‘SET key=value’. Se você quiser incluir caracteres especiais na chave ou incluir ponto e vírgula no valor, use aspas invertidas, por exemplo, SET key
=value
.
INVALID_SHARED_ALIAS_NAME
O <sharedObjectType>
nome do alias deve ser do formulário "schema.name".
INVALID_SINGLE_VARIANT_COLUMN
A opção singleVariantColumn
não poderá ser usada se também houver um esquema especificado pelo usuário.
INVALID_SOURCE_CATALOG
O catálogo de origem não deve estar no Catálogo do Unity para o comando SYNC. Encontrado <catalog>
.
INVALID_SQL_ARG
O argumento <name>
de sql()
é inválido. Considere substituir por um SQL literal ou por funções de construção de coleção como map()
, array()
, struct()
.
INVALID_SQL_SYNTAX
Sintaxe de SQL inválida:
Para obter mais detalhes, confira INVALID_SQL_SYNTAX
INVALID_STAGING_PATH_IN_STAGING_ACCESS_QUERY
Caminho de preparo inválido na consulta de preparo <operation>
: <path>
INVALID_STATEMENT_FOR_EXECUTE_INTO
A cláusula INTO de EXECUTE IMMEDIATE só é válida para consultas, mas a instrução fornecida não é uma consulta: <sqlString>
.
INVALID_STATEMENT_OR_CLAUSE
A instrução ou cláusula: <operation>
não é válida.
INVALID_SUBQUERY_EXPRESSION
Subconsulta inválida:
Para obter mais detalhes, confira INVALID_SUBQUERY_EXPRESSION
INVALID_TEMP_OBJ_REFERENCE
Não é possível criar o objeto persistente <objName>
do tipo <obj>
porque ele faz referência ao objeto temporário <tempObjName>
do tipo <tempObj>
. Defina o objeto temporário <tempObjName>
como persistente ou o objeto persistente <objName>
como um objeto temporário.
INVALID_TIMESTAMP_FORMAT
O carimbo de data/hora <timestamp>
fornecido não corresponde à sintaxe <format>
esperada.
INVALID_TIME_TRAVEL_SPEC
Não é possível especificar a versão e o carimbo de data/hora ao fazer uma viagem no tempo na tabela.
INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
A expressão de carimbo de data/hora de viagem no tempo <expr>
é inválida.
Para obter mais detalhes, consulte INVALID_TIME_TRAVEL_TIMESTAMP_EXPR
INVALID_TYPED_LITERAL
O valor do literal digitado <valueType>
é inválido: <value>
.
INVALID_UDF_IMPLEMENTATION
A função <funcName>
não implementa ScalarFunction ou AggregateFunction.
INVALID_UPGRADE_SYNTAX
<command>
<supportedOrNot>
a tabela de origem está no metastore do Hive e a tabela de destino está no Catálogo do Unity.
INVALID_URL
A url é inválida: <url>
. Se necessário, defina <ansiConfig>
como “false” para ignorar esse erro.
INVALID_USAGE_OF_STAR_OR_REGEX
Uso inválido de <elem>
em <prettyName>
.
INVALID_UTF8_STRING
Sequência de bytes UTF8 inválida encontrada na string: <str>
.
INVALID_UUID
A entrada <uuidInput>
não é uma UUID válida.
A UUID deve estar no formato ‘xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx’
Verifique o formato da UUID.
INVALID_VARIABLE_DECLARATION
Declaração de variável inválida.
Para mais detalhes, consulte INVALID_VARIABLE_DECLARATION
INVALID_VARIABLE_TYPE_FOR_QUERY_EXECUTE_IMMEDIATE
O tipo de variável precisa ser do tipo de cadeia de caracteres, mas <varType>
foi obtido.
INVALID_VARIANT_CAST
O valor da variante <value>
não pode ser convertido em <dataType>
. Use try_variant_get
em vez disso.
INVALID_VARIANT_FROM_PARQUET
Variante inválida.
Para obter mais detalhes, confira INVALID_VARIANT_FROM_PARQUET
INVALID_VARIANT_GET_PATH
O caminho <path>
não é um caminho de extração de variante válido no <functionName>
.
Um caminho válido deve começar com $
e é seguido por zero ou mais segmentos como [123]
, .name
, ['name']
ou ["name"]
.
INVALID_WHERE_CONDITION
A condição WHERE <condition>
contém expressões inválidas: <expressionList>
.
Regenere a consulta para evitar funções de janela, funções de agregação e funções geradoras na cláusula WHERE.
INVALID_WINDOW_SPEC_FOR_AGGREGATION_FUNC
Não é possível especificar ORDER BY ou um quadro de janela para <aggFunc>
.
INVALID_WRITER_COMMIT_MESSAGE
O gravador de fonte de dados gerou um número inválido de mensagens de confirmação. Esperada exatamente uma mensagem de confirmação de gravador de cada tarefa, mas recebido <detail>
.
INVALID_WRITE_DISTRIBUTION
A distribuição de gravação solicitada é inválida.
Para obter mais detalhes, consulte INVALID_WRITE_DISTRIBUTION
JOIN_CONDITION_IS_NOT_BOOLEAN_TYPE
A condição de junção <joinCondition>
tem o tipo inválido <conditionType>
, esperado “BOOLEAN
”.
KAFKA_DATA_LOSS
Alguns dados podem ter sido perdidos porque não estão mais disponíveis no Kafka;
os dados foram excluídos pelo Kafka ou o tópico pode ter sido excluído antes de todos os dados no
tópico serem processados.
Se você não quiser que a consulta de streaming falhe nesses casos, defina a opção de origem failOnDataLoss como false.
Motivo:
Para obter mais detalhes, confira KAFKA_DATA_LOSS
KINESIS_COULD_NOT_READ_SHARD_UNTIL_END_OFFSET
Não foi possível ler até que o número <endSeqNum>
sequencial desejado para o fragmento <shardId>
em
fluxo de kinesis <stream>
com o modo de consumidor <consumerMode>
. A consulta falhará devido a
possível perda de dados. O último registro lido foi um número sequencial <lastSeqNum>
.
Isso pode ocorrer se o dado com endSeqNum já expirou ou se o fluxo Kinesis foi
excluído e reconstruído com o mesmo nome. Esta falha pode ser substituída
configurando spark.databricks.kinesis.failOnDataLoss como falso na configuração spark.
KINESIS_FETCHED_SHARD_LESS_THAN_TRACKED_SHARD
O shardId mínimo buscado do Kinesis (<fetchedShardId>
)
é menor do que o shardId mínimo rastreado (<trackedShardId>
).
Isso é inesperado e ocorre quando um fluxo do Kinesis é excluído e recriado com o mesmo nome,
e uma consulta de streaming usando esse fluxo do Kinesis é reiniciada usando um local de ponto de verificação existente.
Reinicie a consulta de streaming com um novo local de ponto de verificação ou crie um fluxo com um novo nome.
KINESIS_RECORD_SEQ_NUMBER_ORDER_VIOLATION
Para <shard>
de fragmentos, o último registro lido do Kinesis em buscas anteriores tem <lastSeqNum>
de número de sequência,
que é maior que o registro lido na busca atual com o número de sequência <recordSeqNum>
.
Isso é inesperado e pode acontecer quando a posição inicial da repetição ou da próxima busca é inicializada incorretamente e pode resultar em registros duplicados downstream.
KRYO_BUFFER_OVERFLOW
Falha na serialização do Kryo: <exceptionMsg>
. Para evitar isso, aumente o valor "<bufferSizeConfKey>
".
LABELS_MISMATCH
O rótulo <beginLabel>
inicial não corresponde ao rótulo <endLabel>
final.
LOAD_DATA_PATH_NOT_EXISTS
O caminho de entrada LOAD DATA não existe: <path>
.
LOCAL_MUST_WITH_SCHEMA_FILE
O LOCAL deve ser usado junto com o esquema de file
, mas tem: <actualSchema>
.
LOCATION_ALREADY_EXISTS
Não é possível nomear a tabela gerenciada como <identifier>
, pois seu local associado <location>
já existe. Escolha um nome de tabela diferente ou remova o local existente primeiro.
LOST_TOPIC_PARTITIONS_IN_END_OFFSET_WITH_TRIGGER_AVAILABLENOW
Algumas partições de tópico(s) Kafka foram perdidas durante a execução da consulta com Trigger.AvailableNow. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
topic-partitions para o último deslocamento: <tpsForLatestOffset>
, topic-partitions para o deslocamento final: <tpsForEndOffset>
MALFORMED_AVRO_MESSAGE
Mensagens Avro malformadas são detectadas na desserialização de mensagens. Modo de Análise: <mode>
. Para processar a mensagem Avro malformada como resultado nulo, tente definir a opção ''mode'' como ''PERMISSIVE''.
MALFORMED_CHARACTER_CODING
Valor inválido encontrado ao executar <function>
com <charset>
MALFORMED_CSV_RECORD
Registro de CSV malformado: <badRecord>
MALFORMED_RECORD_IN_PARSING
Registros malformados são detectados na análise de registros: <badRecord>
.
Modo de Análise: <failFastMode>
. Para processar os registros malformados como resultado nulo, tente definir a opção ‘mode’ como ‘PERMISSIVE’.
Para obter mais detalhes, consulte MALFORMED_RECORD_IN_PARSING
MALFORMED_VARIANT
O binário da variante está malformado. Verifique se a fonte de dados é válida.
MANAGED_TABLE_WITH_CRED
Não há suporte para criar uma tabela gerenciada com a credencial de armazenamento.
MATERIALIZED_VIEW_MESA_REFRESH_WITHOUT_PIPELINE_ID
A exibição materializada não pode se tornar <refreshType>
porque ela existia antes do pipelineId. Para habilitar <refreshType>
, remova e recrie a exibição materializada.
MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
A operação <operation>
de exibição materializada não é permitida:
Para obter mais detalhes,consulte MATERIALIZED_VIEW_OPERATION_NOT_ALLOWED
MATERIALIZED_VIEW_OUTPUT_WITHOUT_EXPLICIT_ALIAS
A expressão de saída <expression>
em uma exibição materializada deve ter um alias explícito.
MATERIALIZED_VIEW_OVER_STREAMING_QUERY_INVALID
Não foi possível criar <name>
de exibição materializada com a consulta de streaming. Use CREATE [OR REFRESH] STREAMING TABLE ou remova a palavra-chave STREAM para sua cláusula FROM para transformar essa relação em uma consulta em lote.
MATERIALIZED_VIEW_UNSUPPORTED_OPERATION
Não há suporte para a operação <operation>
em Exibições Materializadas para esta versão.
MAX_NUMBER_VARIABLES_IN_SESSION_EXCEEDED
Não é possível criar a variável <variableName>
porque o número de variáveis na sessão excede o número máximo permitido (<maxNumVariables>
).
MAX_RECORDS_PER_FETCH_INVALID_FOR_KINESIS_SOURCE
maxRecordsPerFetch precisa ser um número inteiro positivo menor ou igual a <kinesisRecordLimit>
MERGE_CARDINALITY_VIOLATION
A condição de pesquisa ON da instrução MERGE correspondeu a uma única linha da tabela de destino com várias linhas da tabela de origem.
Isso pode fazer com que a linha de destino seja operada mais de uma vez com uma operação de atualização ou exclusão e não seja permitida.
METRIC_CONSTRAINT_NOT_SUPPORTED
METRIC CONSTRAINT não está habilitada.
METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
O valor fornecido "<argValue>
" não é suportado pelo argumento "<argName>
" para a função de tabela METRIC_STORE.
Para obter mais detalhes, consulte METRIC_STORE_INVALID_ARGUMENT_VALUE_ERROR
METRIC_STORE_UNSUPPORTED_ERROR
A função repositório de métricas <functionName>
está desabilitada no momento nesse ambiente.
MISMATCHED_TOPIC_PARTITIONS_BETWEEN_END_OFFSET_AND_PREFETCHED
Fonte de dados Kafka em Trigger.AvailableNow deve fornecer as mesmas partições de tópico no deslocamento pré-coletado para deslocamento final para cada microlote. O erro pode ser transitório, reinicie sua consulta e informe se você ainda estiver experimentando o mesmo problema.
topic-partitions para o deslocamento pré-coletado: <tpsForPrefetched>
, topic-partitions para o deslocamento final: <tpsForEndOffset>
.
MISSING_AGGREGATION
A expressão não agregada <expression>
baseia-se em colunas que não estão participando da cláusula GROUP BY.
Adicione as colunas ou a expressão à GROUP BY, agregue a expressão ou use <expressionAnyValue>
se você não se importar com quais dos valores dentro de um grupo são retornados.
Para obter mais detalhes, consulte MISSING_AGGREGATION
MISSING_CONNECTION_OPTION
As conexões do tipo ‘<connectionType>
’ devem incluir as seguintes opções: <requiredOptions>
.
MISSING_GROUP_BY
A consulta não inclui uma cláusula GROUP BY. Adicione GROUP BY ou transforme-a nas funções de janela usando cláusulas OVER.
MISSING_NAME_FOR_CHECK_CONSTRAINT
A restrição CHECK deve ter um nome.
MISSING_PARAMETER_FOR_KAFKA
O parâmetro <parameterName>
é necessário para Kafka, mas não é especificado em <functionName>
.
MISSING_PARAMETER_FOR_ROUTINE
O parâmetro <parameterName>
é necessário, mas não é especificado em <functionName>
.
MISSING_WINDOW_SPECIFICATION
A especificação da janela não é definida na cláusula WINDOW para <windowName>
. Para obter mais informações sobre cláusulas WINDOW, consulte '<docroot>
/sql-ref-syntax-qry-select-window.html'.
MODIFY_BUILTIN_CATALOG
Não há suporte para a modificação do catálogo integrado <catalogName>
.
MULTIPLE_LOAD_PATH
O Databricks Delta não dá suporte a vários caminhos de entrada na API load().
caminhos: <pathList>
. Para criar apenas um DataFrame carregando
vários caminhos da mesma tabela Delta, carregue o caminho raiz da
tabela Delta com os filtros de partição correspondentes. Se os vários caminhos
forem de diferentes tabelas Delta, use as APIs union()/unionByName() do conjunto de dados
para combinar os DataFrames gerados por chamadas separadas à API load().
MULTIPLE_MATCHING_CONSTRAINTS
Encontrou pelo menos duas restrições correspondentes com a condição fornecida.
MULTIPLE_TIME_TRAVEL_SPEC
Não é possível especificar a viagem no tempo tanto na cláusula de viagem no tempo quanto nas opções.
MULTIPLE_XML_DATA_SOURCE
Detectou várias fontes de dados com o nome <provider>
(<sourceNames>
). Especifique o nome de classe totalmente qualificado ou remova <externalSource>
do classpath.
MULTI_SOURCES_UNSUPPORTED_FOR_EXPRESSION
A expressão <expr>
não dá suporte a mais de uma fonte.
MULTI_UDF_INTERFACE_ERROR
Não é permitido implementar várias interfaces UDF, UDF classe <className>
.
MUTUALLY_EXCLUSIVE_CLAUSES
Cláusulas mutuamente exclusivas ou opções <clauses>
. Remova uma destas cláusulas.
MV_ST_ALTER_QUERY_INCORRECT_BACKING_TYPE
A consulta de entrada espera um <expectedType>
, mas a tabela subjacente é um <givenType>
.
NAMED_PARAMETERS_NOT_SUPPORTED
Não há suporte para os parâmetros nomeados da função <functionName>
; tente a consulta novamente com argumentos posicionais para a chamada de função.
NAMED_PARAMETERS_NOT_SUPPORTED_FOR_SQL_UDFS
Não é possível chamar a função <functionName>
porque não há suporte para referências de argumento nomeado. Nesse caso, a referência de argumento nomeado era <argument>
.
NAMED_PARAMETER_SUPPORT_DISABLED
Não é possível chamar a função <functionName>
porque as referências de argumento nomeado não estão habilitadas aqui.
Nesse caso, a referência de argumento nomeado era <argument>
.
Defina "spark.sql.allowNamedFunctionArguments" como "true" para ativar o recurso.
NAMESPACE_ALREADY_EXISTS
Não é possível criar o namespace <nameSpaceName>
porque ele já existe.
Escolha um nome diferente, remova o namespace existente ou adicione a cláusula IF NOT EXISTS para tolerar o namespace pré-existente.
NAMESPACE_NOT_EMPTY
Não é possível remover um namespace <nameSpaceNameName>
porque ele contém objetos.
Use DROP NAMESPACE... CASCADE para remover o namespace e todos os seus objetos.
NAMESPACE_NOT_FOUND
Não foi possível encontrar o namespace <nameSpaceName>
. Verifique a ortografia e a exatidão do namespace.
Se você não qualificou o nome com, verifique a saída current_schema() ou qualifique o nome com o corretamente.
Para tolerar o erro na remoção, use DROP NAMESPACE IF EXISTS.
NATIVE_IO_ERROR
Falha na solicitação nativa. requestId: <requestId>
, nuvem: <cloud>
, operação: <operation>
solicitação: [https: <https>
, método = <method>
, caminho = <path>
, params = <params>
, host = <host>
, cabeçalhos = <headers>
, bodyLen = <bodyLen>
],
erro: <error>
NATIVE_XML_DATA_SOURCE_NOT_ENABLED
A fonte de dados XML nativa não está habilitada neste cluster.
NESTED_AGGREGATE_FUNCTION
Não é permitido usar uma função de agregação no argumento de outra função de agregação. Use a função de agregação interna em uma subconsulta.
NESTED_EXECUTE_IMMEDIATE
Comandos EXECUTE IMMEDIATE aninhados não são permitidos. Verifique se a consulta SQL fornecida (<sqlString>
) não contém outro comando EXECUTE IMMEDIATE.
NONEXISTENT_FIELD_NAME_IN_LIST
Field(s) <nonExistFields>
do(es) não existe. Campos disponíveis: <fieldNames>
NON_FOLDABLE_ARGUMENT
A função <funcName>
requer que o parâmetro <paramName>
seja uma expressão dobrável do tipo <paramType>
, mas o argumento real é não dobrável.
NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula MATCHED em uma instrução MERGE, somente a última cláusula MATCHED pode omitir a condição.
NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma instrução MERGE, somente a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.
NON_LAST_NOT_MATCHED_BY_TARGET_CLAUSE_OMIT_CONDITION
Quando houver mais de uma cláusula NOT MATCHED [BY TARGET] em um comando MERGE, somente a última cláusula NOT MATCHED [BY TARGET] poderá omitir a condição.
NON_LITERAL_PIVOT_VALUES
Expressões literais necessárias para valores dinâmicos, encontradas <expression>
.
NON_PARTITION_COLUMN
A cláusula PARTITION não pode conter a coluna que não seja de partição: <columnName>
.
NON_TIME_WINDOW_NOT_SUPPORTED_IN_STREAMING
Não há suporte para a função de janela em <windowFunc>
(como coluna <columnName>
) em DataFrames/Datasets do streaming.
O Streaming Estruturado dá suporte apenas à agregação de janela de tempo usando a função WINDOW. (especificação da janela: <windowSpec>
)
NOT_ALLOWED_IN_FROM
Não é permitido na cláusula FROM:
Para obter mais detalhes, confira NOT_ALLOWED_IN_FROM
NOT_A_CONSTANT_STRING
A expressão <expr>
usada para a rotina ou cláusula <name>
deve ser uma constante STRING
NOT NULL.
Para obter mais detalhes, confira NOT_A_CONSTANT_STRING
NOT_A_PARTITIONED_TABLE
A operação <operation>
não é permitida porque <tableIdentWithDB>
não é uma tabela particionada.
NOT_A_SCALAR_FUNCTION
<functionName>
aparece como uma expressão escalar aqui, mas a função foi definida como uma função de tabela. Atualize a consulta para mover a chamada de função para a cláusula FROM ou ao invés disso redefina <functionName>
como uma função escalar.
NOT_A_TABLE_FUNCTION
<functionName>
aparece como uma função de tabela aqui, mas a função foi definida como uma função escalar. Atualize a consulta para mover a chamada de função para fora da cláusula FROM ou ao invés disso redefina <functionName>
como uma função de tabela.
NOT_NULL_ASSERT_VIOLATION
O valor NULL apareceu no campo não anulável: <walkedTypePath>
. Se o esquema for inferido de uma classe de tupla/caso do Scala ou de um bean Java, tente usar scala.Option[_] ou outros tipos que permitem valor nulo (como java.lang.Integer em vez de int/scala.Int).
NOT_NULL_CONSTRAINT_VIOLATION
A atribuição NULL não é permitida aqui.
Para obter mais detalhes, consulte NOT_NULL_CONSTRAINT_VIOLATION
NOT_SUPPORTED_CHANGE_COLUMN
ALTER TABLE ALTER/CHANGE COLUMN não tem suporte para alterar <table>
a coluna de <originName>
com o tipo <originType>
para <newName>
com o tipo <newType>
.
NOT_SUPPORTED_COMMAND_FOR_V2_TABLE
<cmd>
não têm suporte para tabelas v2.
NOT_SUPPORTED_COMMAND_WITHOUT_HIVE_SUPPORT
<cmd>
não há suporte, se você quiser habilitá-lo, defina "spark.sql.catalogImplementation" como "hive".
NOT_SUPPORTED_IN_JDBC_CATALOG
Comando sem suporte no catálogo JDBC:
Para obter mais detalhes, confira NOT_SUPPORTED_IN_JDBC_CATALOG
NOT_SUPPORTED_WITH_DB_SQL
<operation>
não é compatível com um SQL <endpoint>
.
NOT_SUPPORTED_WITH_SERVERLESS
<operation>
não há suporte na computação sem servidor.
NOT_UNRESOLVED_ENCODER
O codificador não resolvido era esperado, mas <attr>
foi encontrado.
NO_DEFAULT_COLUMN_VALUE_AVAILABLE
Não é possível determinar o valor padrão do <colName>
, pois ele não é anulável e não tem valores padrão.
NO_HANDLER_FOR_UDAF
Nenhum manipulador para a UDAF ‘<functionName>
’. Em vez disso, use sparkSession.udf.register(…).
NO_MERGE_ACTION_SPECIFIED
df.mergeInto precisa ser seguido por pelo menos um de whenMatched/whenNotMatched/whenNotMatchedBySource.
NO_PARENT_EXTERNAL_LOCATION_FOR_PATH
SQLSTATE: nenhuma atribuição
Nenhum local externo pai foi encontrado para o caminho ‘<path>
’. Crie um local externo em um dos caminhos pai e tente novamente executar a consulta ou o comando.
NO_SQL_TYPE_IN_PROTOBUF_SCHEMA
Não é possível encontrar <catalystFieldPath>
no esquema Protobuf.
NO_STORAGE_LOCATION_FOR_TABLE
SQLSTATE: nenhuma atribuição
Nenhum local de armazenamento foi encontrado para a tabela ‘<tableId>
‘ ao gerar credenciais de tabela. Verifique o tipo de tabela e a URL do local da tabela e tente novamente a realizar consulta ou o comando.
NO_SUCH_CATALOG_EXCEPTION
SQLSTATE: nenhuma atribuição
O catálogo ‘<catalog>
’ não foi encontrado. Verifique o nome do catálogo e tente novamente executar a consulta ou o comando.
NO_SUCH_CLEANROOM_EXCEPTION
SQLSTATE: nenhuma atribuição
A sala limpa ‘<cleanroom>
’ não existe. Verifique se o nome da sala limpa está escrito corretamente e corresponde a um nome de sala limpa válida existente e tente executar a consulta ou o comando novamente.
NO_SUCH_EXTERNAL_LOCATION_EXCEPTION
SQLSTATE: nenhuma atribuição
O local ‘ externo ’<externalLocation>
’ não existe. Verifique se o nome do local externo está correto e tente novamente executar a consulta ou o comando.
NO_SUCH_METASTORE_EXCEPTION
SQLSTATE: nenhuma atribuição
O metastore não foi encontrado. Peça ao administrador da conta que atribua um metastore ao workspace atual e tente novamente executar a consulta ou o comando.
NO_SUCH_PROVIDER_EXCEPTION
SQLSTATE: nenhuma atribuição
O provedor de compartilhamento ‘<providerName>
’ não existe. Verifique se o nome do provedor de compartilhamento está escrito corretamente e corresponde a um nome de provedor válido existente e tente novamente executar a consulta ou o comando.
NO_SUCH_RECIPIENT_EXCEPTION
SQLSTATE: nenhuma atribuição
O ’<recipient>
’ do destinatário não existe. Verifique se o nome do destinatário está escrito corretamente e corresponde a um nome de destinatário válido existente e tente novamente executar a consulta ou o comando.
NO_SUCH_SHARE_EXCEPTION
SQLSTATE: nenhuma atribuição
O compartilhamento ‘<share>
’ não existe. Verifique se o nome do compartilhamento está escrito corretamente e corresponde a um nome de compartilhamento válido existente e tente novamente executar a consulta ou o comando.
NO_SUCH_STORAGE_CREDENTIAL_EXCEPTION
SQLSTATE: nenhuma atribuição
Pode ocorrer quando a credencial ‘<storageCredential>
’ não existe. Verifique se o nome da credencial de armazenamento está escrito corretamente e corresponde a um nome de credencial de armazenamento válido existente e tente novamente executar a consulta ou o comando.
NO_SUCH_USER_EXCEPTION
SQLSTATE: nenhuma atribuição
O usuário ‘<userName>
’ não existe. Verifique se o usuário a quem você concede permissão ou cuja propriedade você altera está escrito corretamente e corresponde a um nome de usuário válido existente e tente novamente executar a consulta ou o comando.
NO_UDF_INTERFACE
A UDF classe <className>
não implementa nenhuma interface UDF.
NULLABLE_COLUMN_OR_FIELD
A coluna ou o campo <name>
é anulável quando deveria ser não anulável.
NULLABLE_ROW_ID_ATTRIBUTES
Os atributos de ID da linha não podem ser anuláveis: <nullableRowIdAttrs>
.
NULL_DATA_SOURCE_OPTION
A opção <option>
de leitura/gravação da fonte de dados não pode ter valor nulo.
NULL_MAP_KEY
Não é possível usar nulo como chave de mapa.
NULL_QUERY_STRING_EXECUTE_IMMEDIATE
Executar imediatamente requer uma variável não nula como a cadeia de caracteres de consulta, mas a variável fornecida <varName>
é nula.
NUMERIC_OUT_OF_SUPPORTED_RANGE
O valor <value>
não pode ser interpretado como numérico, pois tem mais de 38 dígitos.
NUMERIC_VALUE_OUT_OF_RANGE
Para obter mais detalhes, consulte NUMERIC_VALUE_OUT_OF_RANGE
NUM_COLUMNS_MISMATCH
<operator>
só pode ser executado em entradas com o mesmo número de colunas, mas a primeira entrada tem <firstNumColumns>
colunas e a entrada <invalidOrdinalNum>
tem <invalidNumColumns>
colunas.
NUM_TABLE_VALUE_ALIASES_MISMATCH
O número de aliases determinados não corresponde ao número de colunas de saída.
Nome da função: <funcName>
; número de aliases: <aliasesNum>
; número de colunas de saída: <outColsNum>
.
OAUTH_CUSTOM_IDENTITY_CLAIM_NOT_PROVIDED
Nenhuma declaração de identidade personalizada foi fornecida.
ONLY_SECRET_FUNCTION_SUPPORTED_HERE
Não há suporte para a função <functionName>
de chamada neste <location>
; <supportedFunctions>
tem suporte aqui.
ONLY_SUPPORTED_WITH_UC_SQL_CONNECTOR
A operação do SQL <operation>
só tem suporte em conectores SQL do Databricks com suporte do Catálogo do Unity.
OPERATION_CANCELED
A operação foi cancelada.
OPERATION_REQUIRES_UNITY_CATALOG
A operação <operation>
exige o Unity Catalog habilitado.
OP_NOT_SUPPORTED_READ_ONLY
<plan>
não há suporte no modo de sessão somente leitura.
ORDER_BY_POS_OUT_OF_RANGE
A posição <index>
de ORDER BY não está na lista de seleção (o intervalo válido é [1, <size>
]).
PARQUET_CONVERSION_FAILURE
Não é possível criar um conversor Parquet para o tipo <dataType>
de dados cujo tipo Parquet é <parquetType>
.
Para mais detalhes, consulte PARQUET_CONVERSION_FAILURE
PARSE_EMPTY_STATEMENT
Erro de sintaxe, instrução vazia inesperada.
PARSE_SYNTAX_ERROR
Erro de sintaxe em ou próximo a <error>
<hint>
.
PARTITIONS_ALREADY_EXIST
Não é possível adicionar ou renomear (ADD ou RENAME TO) as partições <partitionList>
na tabela <tableName>
porque elas já existem.
Escolha um nome diferente, remova o partição existente ou adicione a cláusula IF NOT EXISTS para tolerar a partição pré-existente.
PARTITIONS_NOT_FOUND
Não foi possível encontrar as partições <partitionList>
na tabela <tableName>
.
Verifique a especificação de partição e o nome da tabela.
Para tolerar o erro na lista suspensa, use ALTER TABLE... DROP IF EXISTS PARTITION.
PARTITION_LOCATION_ALREADY_EXISTS
O local da partição <locationPath>
já existe na tabela <tableName>
.
PARTITION_LOCATION_IS_NOT_UNDER_TABLE_DIRECTORY
Falha ao executar a instrução ALTER TABLE SET PARTITION LOCATION, porque o
local da partição <location>
não está no diretório da tabela <table>
.
Para corrigir isso, defina o local da partição como um subdiretório de <table>
.
PARTITION_METADATA
<action>
não é permitido na tabela <tableName>
, pois não há suporte para o armazenamento de metadados de partição no Unity Catalog.
PATH_ALREADY_EXISTS
O caminho <outputPath>
já existe. Defina o modo como “overwrite” para substituir o caminho existente.
PATH_NOT_FOUND
O caminho não existe: <path>
.
PIPE_OPERATOR_SELECT_CONTAINS_AGGREGATE_FUNCTION
A função <expr>
agregada não é permitida ao usar o operador de tubulação |> Cláusula SELECT; Por favor, use o operador de tubulação |> AGGREGATE em vez disso
PIVOT_VALUE_DATA_TYPE_MISMATCH
Valor dinâmico inválido ‘<value>
’: o valor do tipo de dados <valueType>
não corresponde ao tipo de dados <pivotType>
de coluna dinâmica.
PROCEDURE_ARGUMENT_NUMBER_MISMATCH
O procedimento <procedureName>
espera <expected>
argumentos, mas <actual>
foram fornecidos.
PROCEDURE_CREATION_EMPTY_ROUTINE
CREATE PROCEDURE com uma definição de rotina vazia não é permitida.
PROCEDURE_CREATION_PARAMETER_OUT_INOUT_WITH_DEFAULT
O parâmetro <parameterName>
é definido com o modo de parâmetro <parameterMode>
. O parâmetro OUT e INOUT não podem ser omitidos ao invocar uma rotina e, portanto, não dão suporte a uma expressão DEFAULT. Para continuar, remova a cláusula DEFAULT ou altere o modo de parâmetro para IN.
PROCEDURE_NOT_SUPPORTED
Não há suporte para o procedimento armazenado
PROCEDURE_NOT_SUPPORTED_WITH_HMS
Não há suporte para o procedimento armazenado com o Metastore do Hive. Em vez disso, use o Catálogo do Unity.
PROTOBUF_DEPENDENCY_NOT_FOUND
Não foi possível localizar a dependência: <dependencyName>
.
PROTOBUF_DESCRIPTOR_FILE_NOT_FOUND
Erro ao ler o arquivo do descritor Protobuf no caminho: <filePath>
.
PROTOBUF_FIELD_MISSING
Pesquisando por <field>
no esquema Protobuf em <protobufSchema>
forneceu <matchSize>
correspondências. Candidatos: <matches>
.
PROTOBUF_FIELD_MISSING_IN_SQL_SCHEMA
Encontrado <field>
no esquema Protobuf, mas não há correspondência no esquema SQL.
PROTOBUF_FIELD_TYPE_MISMATCH
Incompatibilidade de tipo encontrada no campo: <field>
.
PROTOBUF_JAVA_CLASSES_NOT_SUPPORTED
Não há suporte de classes Java para <protobufFunction>
. Entre em contato com o Suporte do Databricks para saber sobre as opções alternativas.
PROTOBUF_MESSAGE_NOT_FOUND
Não é possível localizar a Mensagem <messageName>
no Descritor.
PROTOBUF_TYPE_NOT_SUPPORT
O tipo de Protobuf ainda não tem suporte: <protobufType>
.
PS_FETCH_RETRY_EXCEPTION
A tarefa no estágio de busca de pubsub não pode ser repetida. Partição <partitionInfo>
no estágio <stageInfo>
, TID <taskId>
.
PS_INVALID_EMPTY_OPTION
<key>
não pode ser uma cadeia de caracteres vazia.
PS_INVALID_KEY_TYPE
Tipo de chave inválido das deduções do PubSub: <key>
.
PS_INVALID_OPTION
A opção <key>
não tem suporte do PubSub. Ele só pode ser usado em testes.
PS_INVALID_OPTION_TYPE
Tipo inválido para <key>
. O tipo esperado de <key>
ser do tipo <type>
.
PS_INVALID_READ_LIMIT
Limite de leitura inválido no fluxo PubSub: <limit>
.
PS_INVALID_UNSAFE_ROW_CONVERSION_FROM_PROTO
UnsafeRow inválido para decodificar no PubSubMessageMetadata, o esquema proto desejado é: <protoSchema>
. A entrada UnsafeRow pode estar corrompida: <unsafeRow>
.
PS_MISSING_AUTH_INFO
Ocorreu um erro ao localizar informações completas de autenticação do PubSub.
PS_MISSING_REQUIRED_OPTION
Não foi possível localizar o arquivo necessário: <key>
.
PS_MOVING_CHECKPOINT_FAILURE
Ocorreu um erro ao mover arquivos de ponto de verificação de dados brutos de <src>
para o diretório de destino: <dest>
.
PS_MULTIPLE_FAILED_EPOCHS
O fluxo de dados PubSub não pode ser iniciado, pois há mais de uma busca com fetch: <failedEpochs>
.
PS_OPTION_NOT_IN_BOUNDS
<key>
deve estar dentro dos seguintes limites (<min>
, <max>
) exclusivos de ambos os limites.
PS_PROVIDE_CREDENTIALS_WITH_OPTION
Os clusters compartilhados não dão suporte à autenticação com perfis de instância. Forneça credenciais para o fluxo diretamente usando .option().
PS_SPARK_SPECULATION_NOT_SUPPORTED
O conector de origem PubSub só está disponível no cluster com spark.speculation
desabilitado.
PS_UNABLE_TO_CREATE_SUBSCRIPTION
Ocorreu um erro ao tentar criar uma assinatura <subId>
no tópico <topicId>
. Verifique se há permissões suficientes para criar uma assinatura e tente novamente.
PS_UNABLE_TO_PARSE_PROTO
Não é possível analisar os bytes serializados para gerar proto.
PS_UNSUPPORTED_GET_OFFSET_CALL
Não há suporte para getOffset sem fornecer um limite.
PYTHON_DATA_SOURCE_ERROR
Falha ao <action>
a fonte de dados do Python <type>
: <msg>
PYTHON_STREAMING_DATA_SOURCE_RUNTIME_ERROR
Falha quando a fonte de dados de streaming do Python executa <action>
: <msg>
QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
Não é possível acessar a tabela referenciada porque uma máscara de coluna atribuída anteriormente é incompatível com o esquema da tabela. Para continuar, contate o proprietário da tabela para atualizar a política:
Para obter mais detalhes, confira QUERIED_TABLE_INCOMPATIBLE_WITH_COLUMN_MASK_POLICY
QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
Não é possível acessar a tabela referenciada porque uma política de segurança de nível de linha atribuída anteriormente é incompatível com o esquema da tabela. Para continuar, contate o proprietário da tabela para atualizar a política:
Para obter mais detalhes, confira QUERIED_TABLE_INCOMPATIBLE_WITH_ROW_LEVEL_SECURITY_POLICY
READ_CURRENT_FILE_NOT_FOUND
<message>
É possível que os arquivos subjacentes tenham sido atualizados. Você pode invalidar explicitamente o cache no Spark executando o comando ‘REFRESH TABLE table name’ no SQL ou recriando o conjunto de dados ou o dataframe envolvido.
READ_FILES_AMBIGUOUS_ROUTINE_PARAMETERS
A invocação da função <functionName>
tem <parameterName>
e <alternativeName>
definidos, que são aliases um do outro. Defina apenas um deles.
READ_TVF_UNEXPECTED_REQUIRED_PARAMETER
O parâmetro <functionName>
necessário para a função <parameterName>
deve ser atribuído à posição <expectedPos>
sem o nome.
RECIPIENT_EXPIRATION_NOT_SUPPORTED
Somente os tipos TIMESTAMP
/TIMESTAMP_LTZ/TIMESTAMP_NTZ são compatíveis com o carimbo de data/hora de expiração do destinatário.
RECURSIVE_PROTOBUF_SCHEMA
Referência recursiva encontrada no esquema Protobuf, que não pode ser processado pelo Spark por padrão: <fieldDescriptor>
. Tente definir a opção recursive.fields.max.depth
1 a 10. Não é permitido ultrapassar 10 níveis de recursão.
RECURSIVE_VIEW
Exibição recursiva <viewIdent>
detectada (ciclo: <newPath>
).
REF_DEFAULT_VALUE_IS_NOT_ALLOWED_IN_PARTITION
Referências aos valores de coluna DEFAULT não são permitidas dentro da cláusula PARTITION.
RELATION_LARGER_THAN_8G
Não é possível compilar um <relationName>
que seja maior que 8G.
REMOTE_FUNCTION_HTTP_FAILED_ERROR
Falha na solicitação HTTP remota com o código <errorCode>
e a mensagem de erro <errorMessage>
REMOTE_FUNCTION_HTTP_RESULT_PARSE_ERROR
Falha ao avaliar a função SQL <functionName>
devido à incapacidade de analisar o resultado JSON da resposta HTTP remota; a mensagem de erro é <errorMessage>
. Verifique a API REST: <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
REMOTE_FUNCTION_HTTP_RESULT_UNEXPECTED_ERROR
Falha ao avaliar a função SQL <functionName>
devido à incapacidade de processar a resposta HTTP remota inesperada; a mensagem de erro é <errorMessage>
. Verifique a API REST: <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
REMOTE_FUNCTION_HTTP_RETRY_TIMEOUT
A solicitação remota falhou após tentar novamente <N>
vezes; o último código de erro HTTP com falha foi <errorCode>
e a mensagem foi <errorMessage>
REMOTE_FUNCTION_MISSING_REQUIREMENTS_ERROR
Falha ao avaliar a função SQL <functionName>
porque <errorMessage>
. Verifique os requisitos em <docUrl>
. Corrija o problema indicado na mensagem de erro e repita a consulta.
RENAME_SRC_PATH_NOT_FOUND
Falha ao renomear pois <sourcePath>
não foi encontrado.
REPEATED_CLAUSE
Um máximo de <clause>
cláusulas pode ser usado uma vez em cada <operation>
operação.
REQUIRED_PARAMETER_ALREADY_PROVIDED_POSITIONALLY
O parâmetro <parameterName>
necessário da função <functionName>
foi atribuído na posição <positionalIndex>
sem o nome.
Atualize a chamada de função para remover o argumento nomeado com <parameterName>
esse parâmetro ou remova o posicionamento
argumento no <positionalIndex>
e tente a consulta novamente.
REQUIRED_PARAMETER_NOT_FOUND
Não é possível invocar a função <functionName>
porque o parâmetro chamado <parameterName>
é necessário, mas a chamada de função não forneceu um valor. Atualize a chamada de função para fornecer um valor de argumento (posicionalmente no índice <index>
ou por nome) e repita a consulta.
REQUIRES_SINGLE_PART_NAMESPACE
<sessionCatalog>
requer um namespace de parte única, mas obteve <namespace>
.
RESCUED_DATA_COLUMN_CONFLICT_WITH_SINGLE_VARIANT
A opção de leitor de API DataFrame 'rescuedDataColumn' é mutuamente exclusiva com a opção de API DataFrame 'singleVariantColumn'.
Remova um deles e repita a operação DataFrame novamente.
RESERVED_CDC_COLUMNS_ON_WRITE
A gravação contém colunas <columnList>
reservadas que são usadas
internamente como metadados do Feed de Dados de Alterações. Para gravar na tabela, renomeie/remova
essas colunas ou desabilite o Feed de Dados de Alterações na tabela definindo a opção
<config>
como false.
RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
A opção <option>
tem valores restritos em clusters compartilhados para a origem de <source>
.
Para obter mais detalhes, consulte RESTRICTED_STREAMING_OPTION_PERMISSION_ENFORCED
ROUTINE_ALREADY_EXISTS
Não é possível criar o <newRoutineType>
<routineName>
porque um <existingRoutineType>
desse nome já existe.
Escolha um nome diferente, descarte ou substitua o existente <existingRoutineType>
ou adicione a cláusula IF NOT EXISTS para tolerar um .<newRoutineType>
ROUTINE_NOT_FOUND
Não foi possível encontrar a rotina <routineName>
. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na remoção, use DROP … IF EXISTS.
ROUTINE_PARAMETER_NOT_FOUND
A função <functionName>
não dá suporte ao parâmetro <parameterName>
especificado na posição <pos>
.<suggestion>
ROUTINE_USES_SYSTEM_RESERVED_CLASS_NAME
A função <routineName>
não pode ser criada porque o nome de classe especificado ‘<className>
’ está reservado para uso do sistema. Renomeie a classe e tente novamente.
ROW_LEVEL_SECURITY_CHECK_CONSTRAINT_UNSUPPORTED
Não há suporte para a criação da restrição CHECK na tabela <tableName>
com políticas de máscara de coluna.
ROW_LEVEL_SECURITY_DUPLICATE_COLUMN_NAME
Uma instrução <statementType>
tentou atribuir uma política de segurança em nível de linha a uma tabela, mas duas ou mais colunas referenciadas tinham o mesmo nome <columnName>
, o que é inválido.
ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
Não há suporte para políticas de segurança em nível de linha para <tableName>
:
Para obter mais detalhes, confira ROW_LEVEL_SECURITY_FEATURE_NOT_SUPPORTED
ROW_LEVEL_SECURITY_INCOMPATIBLE_SCHEMA_CHANGE
Não é possível <statementType>
<columnName>
da tabela <tableName>
porque ela é referenciada em uma política de segurança em nível de linha. O proprietário da tabela deve remover ou alterar essa política antes de continuar.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_SOURCE
As operações MERGE INTO não dão suporte para políticas de segurança em nível de linha na tabela de origem <tableName>
.
ROW_LEVEL_SECURITY_MERGE_UNSUPPORTED_TARGET
As operações MERGE INTO não dão suporte à gravação na tabela <tableName>
com políticas de segurança em nível de linha.
ROW_LEVEL_SECURITY_MULTI_PART_COLUMN_NAME
Essa instrução tentou atribuir uma política de segurança em nível de linha a uma tabela, mas a coluna <columnName>
referenciada tinha várias partes do nome, o que é inválido.
ROW_LEVEL_SECURITY_REQUIRE_UNITY_CATALOG
As políticas de segurança em nível de linha só tem suporte no Catálogo do Unity.
ROW_LEVEL_SECURITY_TABLE_CLONE_SOURCE_NOT_SUPPORTED
<mode>
não há suporte para clonar da tabela <tableName>
com a política de segurança em nível de linha.
ROW_LEVEL_SECURITY_TABLE_CLONE_TARGET_NOT_SUPPORTED
Não há suporte para <mode>
clonar na tabela <tableName>
com a política de segurança em nível de linha.
ROW_LEVEL_SECURITY_UNSUPPORTED_CONSTANT_AS_PARAMETER
Não há suporte para o uso de uma constante como parâmetro em uma política no nível de linha. Atualize o comando SQL para remover a constante da definição do filtro de linha e tente o comando novamente.
ROW_LEVEL_SECURITY_UNSUPPORTED_PROVIDER
Falha ao executar o comando <statementType>
, pois não há suporte para a atribuição de política de segurança em nível de linha para a fonte de dados de destino com o provedor de tabela: “<provider>
”.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como uma expressão.
ROW_VALUE_IS_NULL
Encontrado NULL em uma linha no índice <index>
, esperava um valor não NULL.
RULE_ID_NOT_FOUND
Não foi encontrada uma ID para o nome da regra "<ruleName>
". Modifique RuleIdCollection.scala se você estiver adicionando uma nova regra.
SAMPLE_TABLE_PERMISSIONS
Permissões sem suporte nos bancos de dados ou nas tabelas de exemplo.
SCALAR_SUBQUERY_IS_IN_GROUP_BY_OR_AGGREGATE_FUNCTION
A subconsulta escalar correlacionada '<sqlExpr>
' não está presente no GROUP BY nem em uma função de agregação.
Adicione-o ao GROUP BY usando a posição ordinal ou encapsule-o em first()
(ou first_value
) se você não se importar com o valor obtido.
SCALAR_SUBQUERY_TOO_MANY_ROWS
Mais de uma linha retornada por uma subconsulta usada como uma expressão.
SCHEDULE_PERIOD_INVALID
O período de agendamento para <timeUnit>
deve ser um valor inteiro entre 1 e <upperBound>
(inclusive). Recebido: <actual>
.
SCHEMA_ALREADY_EXISTS
Não é possível criar o esquema <schemaName>
porque ele já existe.
Escolha um nome diferente, remova o esquema existente ou adicione a cláusula IF NOT EXISTS para tolerar o esquema pré-existente.
SCHEMA_NOT_EMPTY
Não é possível remover um esquema <schemaName>
porque ele contém objetos.
Use DROP SCHEMA... CASCADE para remover o esquema e todos os seus objetos.
SCHEMA_NOT_FOUND
Não foi possível encontrar o esquema <schemaName>
. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um catálogo, verifique a saída current_schema() ou qualifique o nome com o catálogo correto.
Para tolerar o erro na remoção, use DROP SCHEMA IF EXISTS.
SCHEMA_REGISTRY_CONFIGURATION_ERROR
Não foi possível inicializar o esquema do registro de esquema. <reason>
.
SECOND_FUNCTION_ARGUMENT_NOT_INTEGER
O segundo argumento da função <functionName>
precisa ser um inteiro.
SECRET_FUNCTION_INVALID_LOCATION
Não é possível executar o comando <commandType>
com uma ou mais referências não criptografadas à função SECRET; criptografe o resultado de cada chamada de função com AES_ENCRYPT e tente o comando novamente
SEED_EXPRESSION_IS_UNFOLDABLE
A expressão <seedExpr>
de semente da expressão <exprWithSeed>
deve ser dobrável.
SERVER_IS_BUSY
Este servidor está ocupado e não conseguiu tratar o pedido. Aguarde um momento e tente de novo.
SORT_BY_WITHOUT_BUCKETING
O sortBy deve ser usado junto com o bucketBy.
SPARK_JOB_CANCELLED
Trabalho <jobId>
cancelado <reason>
SPECIFY_BUCKETING_IS_NOT_ALLOWED
Uma CREATE TABLE sem uma lista colunada explícita não pode especificar informação bucketing.
Use o formulário com uma lista colunada explícita e especifique a informação bucketing.
Alternativamentre, permitir informação bucketing para ser inferido ao omitir a cláusula.
SPECIFY_CLUSTER_BY_WITH_BUCKETING_IS_NOT_ALLOWED
CLUSTER BY e CLUSTERED BY EM BUCKETS não podem ser especificados simultaneamente.
SPECIFY_CLUSTER_BY_WITH_PARTITIONED_BY_IS_NOT_ALLOWED
CLUSTER BY e PARTITIONED BY não podem ser especificados simultaneamente.
SPECIFY_PARTITION_IS_NOT_ALLOWED
Uma CREATE TABLE sem uma lista colunada explícita não pode especificar PARTICIONADO POR.
Use o formulário com uma lista colunada explícita e especifique PARTICIONADO POR.
Como alternativa, permita que o particionamento seja inferido omitindo a cláusula PARTICIONAR POR.
SQL_CONF_NOT_FOUND
A configuração <sqlConf>
do SQL não pode ser encontrada. Verifique se a configuração existe.
STAGING_PATH_CURRENTLY_INACCESSIBLE
Erro transitório ao acessar o caminho de preparação de destino <path>
, tente em alguns minutos
STAR_GROUP_BY_POS
A estrela (*) não é permitida em uma lista de seleção quando GROUP BY uma posição ordinal é usada.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_HANDLE_STATE
Falha ao executar a operação de processador com estado=<operationType>
com estado de identificador inválido=<handleState>
.
STATEFUL_PROCESSOR_CANNOT_PERFORM_OPERATION_WITH_INVALID_TIME_MODE
Falha ao executar a operação de processador com estado=<operationType>
com timeMode= inválido<timeMode>
STATEFUL_PROCESSOR_CANNOT_REINITIALIZE_STATE_ON_KEY
Não é possível inicializar novamente o estado na mesma chave de agrupamento durante o tratamento de estado inicial para processador com estado. Chave de agrupamento inválida=<groupingKey>
. Verifique o estado inicial, remova linhas duplicadas e reinicie a consulta.
STATEFUL_PROCESSOR_DUPLICATE_STATE_VARIABLE_DEFINED
A variável de estado com nome <stateVarName>
já foi definida no StatefulProcessor.
STATEFUL_PROCESSOR_INCORRECT_TIME_MODE_TO_ASSIGN_TTL
Não é possível usar TTL para state=<stateName>
em timeMode=<timeMode>
, use TimeMode.ProcessingTime() em vez disso.
STATEFUL_PROCESSOR_TTL_DURATION_MUST_BE_POSITIVE
A duração da TTL deve ser maior que zero para a operação de armazenamento de estado=<operationType>
em state=<stateName>
.
STATEFUL_PROCESSOR_UNKNOWN_TIME_MODE
Modo de hora <timeMode>
desconhecido . Os modos timeMode aceitos são 'none', 'processingTime', 'eventTime'
STATE_STORE_CANNOT_CREATE_COLUMN_FAMILY_WITH_RESERVED_CHARS
Falha ao criar uma família de colunas com caractere inicial sem suporte e name=<colFamilyName>
.
STATE_STORE_CANNOT_USE_COLUMN_FAMILY_WITH_INVALID_NAME
Falha ao executar a operação da família de colunas=<operationName>
com name=<colFamilyName>
inválido. O nome da família de colunas não pode estar vazio ou incluir espaços à esquerda/à direita ou usar a palavra-chave reservada=padrão
STATE_STORE_COLUMN_FAMILY_SCHEMA_INCOMPATIBLE
Transformação de esquema incompatível com a coluna family=<colFamilyName>
, oldSchema=<oldSchema>
, newSchema=<newSchema>
.
STATE_STORE_HANDLE_NOT_INITIALIZED
O identificador não foi inicializado para esse StatefulProcessor.
Use apenas o StatefulProcessor dentro do operador transformWithState.
STATE_STORE_INCORRECT_NUM_ORDERING_COLS_FOR_RANGE_SCAN
Número incorreto de ordinais de ordenação=<numOrderingCols>
para o codificador de verificação de intervalo. O número de ordinais de ordenação não pode ser zero ou maior que o número de colunas de esquema.
STATE_STORE_INCORRECT_NUM_PREFIX_COLS_FOR_PREFIX_SCAN
Número incorreto de colunas de prefixo=<numPrefixCols>
para o codificador de verificação de prefixo. As colunas de prefixo não podem ser zero ou maiores ou iguais ao número de colunas de esquema.
STATE_STORE_INVALID_CONFIG_AFTER_RESTART
Não é possível mudar <configName>
de <oldConfig>
para <newConfig>
entre reinicializações. Defina <configName>
como <oldConfig>
ou reinicie com um novo diretório de ponto de verificação.
STATE_STORE_INVALID_PROVIDER
O Provedor de Armazenamento de Estado <inputClass>
fornecido não estende org.apache.spark.sql.execution.streaming.state.StateStoreProvider.
STATE_STORE_INVALID_VARIABLE_TYPE_CHANGE
Não é possível alterar <stateVarName>
para <newType>
entre reinicializações de consulta. Defina <stateVarName>
como <oldType>
ou reinicie com um novo diretório de ponto de verificação.
STATE_STORE_NULL_TYPE_ORDERING_COLS_NOT_SUPPORTED
Não há suporte para a coluna de ordenação de tipo nulo com name=<fieldName>
at index=<index>
para o codificador de verificação de intervalo.
STATE_STORE_PROVIDER_DOES_NOT_SUPPORT_FINE_GRAINED_STATE_REPLAY
O Provedor de Armazenamento de Estado <inputClass>
fornecido não estende org.apache.spark.sql.execution.streaming.state.SupportsFineGrainedReplay.
Portanto, ele não dá suporte à opção snapshotStartBatchId ou readChangeFeed na fonte de dados de estado.
STATE_STORE_UNSUPPORTED_OPERATION_ON_MISSING_COLUMN_FAMILY
Operação de repositório de estado=<operationType>
não compatível com a família de colunas ausente=<colFamilyName>
.
STATE_STORE_VARIABLE_SIZE_ORDERING_COLS_NOT_SUPPORTED
Não há suporte para a coluna de ordenação de tamanho variável com name=<fieldName>
at index=<index>
para o codificador de verificação de intervalo.
STATIC_PARTITION_COLUMN_IN_INSERT_COLUMN_LIST
A coluna <staticName>
de partição estática também é especificada na lista de colunas.
STDS_COMMITTED_BATCH_UNAVAILABLE
Nenhum lote confirmado encontrado, local do ponto de verificação: <checkpointLocation>
. Verifique se a consulta executou e confirmou qualquer microlote antes de parar.
STDS_CONFLICT_OPTIONS
As opções <options>
não podem ser especificadas simultaneamente. Especifique uma delas.
STDS_FAILED_TO_READ_OPERATOR_METADATA
Falha ao ler os metadados do operador para checkpointLocation=<checkpointLocation>
e batchId=<batchId>
.
O arquivo não existe ou o arquivo está corrompido.
Execute novamente a consulta de streaming para construir os metadados do operador e relate às comunidades ou fornecedores correspondentes se o erro persistir.
STDS_FAILED_TO_READ_STATE_SCHEMA
Falha ao ler o esquema de estado. O arquivo não existe ou o arquivo está corrompido. opções: <sourceOptions>
.
Execute novamente a consulta de streaming para construir o esquema de estado e relate às comunidades ou fornecedores correspondentes se o erro persistir.
STDS_INVALID_OPTION_VALUE
Valor inválido para a opção de origem ‘<optionName>
’:
Para obter mais detalhes, consulte STDS_INVALID_OPTION_VALUE
STDS_NO_PARTITION_DISCOVERED_IN_STATE_STORE
O estado não tem nenhuma partição. Verifique novamente se a consulta aponta para o estado válido. opções: <sourceOptions>
STDS_OFFSET_LOG_UNAVAILABLE
O log de deslocamento para <batchId>
não existe; local do ponto de verificação: <checkpointLocation>
.
Especifique a ID do lote que está disponível para consulta. Você pode consultar as IDs do lote disponíveis usando a fonte de dados de metadados de estado.
STDS_OFFSET_METADATA_LOG_UNAVAILABLE
Os metadados não estão disponíveis para o log de deslocamento para <batchId>
, local do ponto de verificação: <checkpointLocation>
.
O ponto de verificação parece ser executado apenas com versões mais antigas do Spark. Execute a consulta de streaming com a versão recente do Spark, para que o Spark construa os metadados de estado.
STDS_REQUIRED_OPTION_UNSPECIFIED
‘<optionName>
’ precisa ser especificado.
STREAMING_AQE_NOT_SUPPORTED_FOR_STATEFUL_OPERATORS
Não há suporte para Execução de Consulta Adaptável para operadores com estado no Streaming Estruturado.
STREAMING_FROM_MATERIALIZED_VIEW
Não é possível transmitir a partir da Exibição Materializada <viewName>
. Não há suporte para a transmissão de Exibições Materializadas.
STREAMING_OUTPUT_MODE
Modo de saída de streaming inválido: <outputMode>
.
Para mais detalhes, consulte STREAMING_OUTPUT_MODE
STREAMING_STATEFUL_OPERATOR_NOT_MATCH_IN_STATE_METADATA
O nome do operador com estado de streaming não corresponde ao operador em metadados de estado. Isso provavelmente acontecerá quando o usuário adicionar/remover/alterar o operador com estado da consulta de streaming existente.
Operadores com estado nos metadados: [<OpsInMetadataSeq>
]; operadores com estado no lote atual: [<OpsInCurBatchSeq>
].
STREAMING_TABLE_NEEDS_REFRESH
A tabela <tableName>
de streaming precisa ser atualizada para executar <operation>
. Execute CREATE OR REFRESH STREAMING TABLE <tableName>
AS para atualizar a tabela.
STREAMING_TABLE_NOT_SUPPORTED
As tabelas de streaming podem ser criadas e atualizadas somente no Delta Live Tables e em Warehouses SQL do Databricks.
STREAMING_TABLE_OPERATION_NOT_ALLOWED
A operação <operation>
não é permitida:
Para obter mais detalhes, confira STREAMING_TABLE_OPERATION_NOT_ALLOWED
STREAMING_TABLE_QUERY_INVALID
A tabela <tableName>
de transmissão só pode ser criada a partir de uma consulta de transmissão. Adicione o palavra-chave STREAM à sua cláusula FROM para transformar essa relação em uma consulta de transmissão.
STREAM_NOT_FOUND_FOR_KINESIS_SOURCE
O fluxo do Kinesis <streamName>
não foi encontrado em <region>
.
Inicie uma nova consulta apontando para o nome correto do fluxo.
STRUCT_ARRAY_LENGTH_MISMATCH
A linha de entrada não tem o número esperado de valores exigidos pelo esquema. <expected>
os campos são necessários enquanto <actual>
os valores são fornecidos.
SUM_OF_LIMIT_AND_OFFSET_EXCEEDS_MAX_INT
A soma da cláusula LIMIT e da cláusula OFFSET não deve ser maior que o valor inteiro máximo de 32 bits (2.147.483.647), mas o limite encontrado = <limit>
, deslocamento = <offset>
.
SYNC_METADATA_DELTA_ONLY
O comando Reparar metadados de sincronização de tabela só tem suporte na tabela delta.
SYNC_METADATA_NOT_SUPPORTED
O comando Reparar metadados de sincronização de tabela só tem suporte nas tabelas do Catálogo do Unity.
SYNC_SRC_TARGET_TBL_NOT_SAME
O nome <srcTable>
da tabela de origem deve ser o mesmo que o nome <destTable>
da tabela de destino.
SYNTAX_DISCONTINUED
Suporte da cláusula ou palavra-chave: <clause>
foi descontinuado neste contexto.
Para obter mais detalhes, consulte SYNTAX_DISCONTINUED
TABLE_OR_VIEW_ALREADY_EXISTS
Não é possível criar a tabela ou exibição <relationName>
porque ela já existe.
Escolha um nome diferente, solte o objeto existente, adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes, adicione a cláusula OR REPLACE para substituir a exibição materializada existente ou adicione a cláusula OR REFRESH para atualizar a tabela de streaming existente.
TABLE_OR_VIEW_NOT_FOUND
Não foi possível encontrar a tabela ou a exibição <relationName>
. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na lista suspensa, use DROP VIEW IF EXISTS ou DROP TABLE IF EXISTS.
Para obter mais detalhes, consulte TABLE_OR_VIEW_NOT_FOUND
TABLE_VALUED_ARGUMENTS_NOT_YET_IMPLEMENTED_FOR_SQL_FUNCTIONS
Não é possível <action>
usar a função definida pelo usuário do SQL <functionName>
com argumentos TABLE porque essa funcionalidade ainda não foi implementada.
TABLE_VALUED_FUNCTION_FAILED_TO_ANALYZE_IN_PYTHON
Falha ao analisar a função de tabela definida pelo usuário do Python: <msg>
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INCOMPATIBLE_WITH_CALL
Falha ao avaliar a função de tabela <functionName>
porque seus metadados de tabela são <requestedMetadata>
, mas a função chama <invalidFunctionCallProperty>
.
TABLE_VALUED_FUNCTION_REQUIRED_METADATA_INVALID
Falha ao avaliar a função de tabela <functionName>
porque os metadados da tabela eram inválidos; <reason>
.
TABLE_VALUED_FUNCTION_TOO_MANY_TABLE_ARGUMENTS
Há muitos argumentos de tabela para a função com valor de tabela.
Ele permite um argumento de tabela, mas obtém: <num>
.
Se você quiser permitir, defina "spark.sql.allowMultipleTableArguments.enabled" como "true”
TABLE_WITH_ID_NOT_FOUND
Tabela com ID <tableId>
não pode ser encontrada. Verifique se a UUID está correta.
TASK_WRITE_FAILED
Falha na tarefa ao gravar linhas para <path>
.
TEMP_TABLE_OR_VIEW_ALREADY_EXISTS
Não é possível criar a exibição temporária <relationName>
porque ela já existe.
Escolha um nome diferente, remova ou substitua a exibição existente ou adicione a cláusula IF NOT EXISTS para tolerar exibições pré-existentes.
TEMP_VIEW_NAME_TOO_MANY_NAME_PARTS
CREATE TEMPORARY VIEW ou as APIs de conjunto de dados correspondentes aceitam somente nomes de exibição de parte única, mas obtiveram: <actualName>
.
UC_BUCKETED_TABLES
Não há suporte para tabelas em bucket no Catálogo do Unity.
UC_CATALOG_NAME_NOT_PROVIDED
No Catálogo do Unity, especifique explicitamente o nome do catálogo. Por exemplo, MOSTRAR CONCESSÃO your.address@email.com
NO CATÁLOGO principal.
UC_COMMAND_NOT_SUPPORTED
Os comandos: <commandName>
não têm suporte para o Catálogo do Unity.
Para obter mais detalhes, confira UC_COMMAND_NOT_SUPPORTED
UC_COMMAND_NOT_SUPPORTED_IN_SHARED_ACCESS_MODE
Os comandos: <commandName>
não têm suporte para clusters do Catálogo do Unity no modo de acesso compartilhado. Use o modo de acesso de usuário único.
UC_CREDENTIAL_PURPOSE_NOT_SUPPORTED
Não há suporte para o tipo de credencial especificado.
UC_DATASOURCE_NOT_SUPPORTED
Não há suporte para o formato de fonte de dados <dataSourceFormatName>
no Unity Catalog.
UC_DATASOURCE_OPTIONS_NOT_SUPPORTED
Não há suporte para opções de fonte de dados no Catálogo do Unity.
UC_EXTERNAL_VOLUME_MISSING_LOCATION
A cláusula LOCATION deve estar presente para o volume externo. Verifique a sintaxe ‘CREATE EXTERNAL VOLUME ... LOCATION ...’ para criar um volume externo.
UC_FAILED_PROVISIONING_STATE
A consulta falhou porque tentou fazer referência à tabela <tableName>
, mas não pôde fazer isso: <failureReason>
. Atualize a tabela <tableName>
para garantir que ela esteja em um estado de provisionamento ativo e tente novamente a consulta.
UC_FILE_SCHEME_FOR_TABLE_CREATION_NOT_SUPPORTED
A criação de tabela no Catálogo do Unity com esquema de arquivo <schemeName>
não tem suporte.
Em vez disso, crie uma conexão de fonte de dados federada usando o comando CREATE CONNECTION para o mesmo provedor de tabela e crie um catálogo com base na conexão com o comando CREATE FOREIGN CATALOG para referenciar as tabelas nela contidas.
UC_HIVE_METASTORE_FEDERATION_CROSS_CATALOG_VIEW_NOT_SUPPORTED
A exibição de Federação do Metastore do Hive não oferece suporte a dependências em vários catálogos. Exibir <view>
no Hive Metastore O catálogo de federação deve usar a dependência do catálogo hive_metastore ou spark_catalog, mas sua dependência <dependency>
está em outro catálogo <referencedCatalog>
. Atualize as dependências para atender a essa restrição e, em seguida, repita sua consulta ou comando novamente.
UC_HIVE_METASTORE_FEDERATION_NOT_ENABLED
A federação de Metastore do Hive não está habilitada neste cluster.
Não há suporte para acessar o catálogo <catalogName>
neste cluster
UC_INVALID_DEPENDENCIES
As dependências de <viewName>
são registradas como <storedDeps>
enquanto são analisadas como <parsedDeps>
. Isto provavelmente ocorreu através do uso inadequado de uma API não SQL. Você pode reparar as dependências no Databricks Runtime executando ALTER VIEW <viewName>
AS <viewText>
.
UC_INVALID_NAMESPACE
Não há suporte para namespaces aninhados ou vazios no Catálogo do Unity.
UC_INVALID_REFERENCE
Não pode ser feita referência a um objeto <name>
que não seja do Unity Catalog em objetos do Unity Catalog.
UC_LAKEHOUSE_FEDERATION_WRITES_NOT_ALLOWED
O suporte de gravação da Federação do Lakehouse de Catálogo do Unity não está habilitado para <provider>
de provedor neste cluster.
UC_LOCATION_FOR_MANAGED_VOLUME_NOT_SUPPORTED
O volume gerenciado não aceita a cláusula LOCATION. Verifique a sintaxe ‘CREATE VOLUME ...’ para a criação de um volume gerenciado.
UC_NOT_ENABLED
O Catálogo do Unity não está habilitado neste cluster.
UC_QUERY_FEDERATION_NOT_ENABLED
A Federação de Consultas do Unity Catalog não está habilitada neste cluster.
UC_SERVICE_CREDENTIALS_NOT_ENABLED
As credenciais de serviço não estão habilitadas neste cluster.
UC_VOLUMES_NOT_ENABLED
O suporte para Volumes do Unity Catalog não está habilitado nesta instância.
UC_VOLUMES_SHARING_NOT_ENABLED
O suporte do Compartilhamento de Volume não está ativado nesta instância.
UC_VOLUME_NOT_FOUND
O volume <name>
não existe. Use ‘SHOW VOLUMES’ para listar os volumes disponíveis.
UDF_ERROR
SQLSTATE: nenhuma atribuição
Falha na execução da função <fn>
Para obter mais detalhes, consulte UDF_ERROR
UDF_LIMITS
Um ou mais limites de UDF foram violados.
Para obter mais detalhes, consulte UDF_LIMITS
UDF_MAX_COUNT_EXCEEDED
Limite de UDF em toda a consulta excedido de <maxNumUdfs>
UDFs (limitado durante a versão prévia pública). Encontrado <numUdfs>
. As UDFs eram: <udfNames>
.
UDF_PYSPARK_ERROR
O trabalho do Python foi encerrado inesperadamente
Para mais detalhes, consulte UDF_PYSPARK_ERROR
UDF_PYSPARK_UNSUPPORTED_TYPE
Não há suporte para o PySpark UDF <udf>
(<eval-type>
) em clusters no modo de acesso compartilhado.
UDF_PYSPARK_USER_CODE_ERROR
Falha na execução.
Para mais detalhes, consulte UDF_PYSPARK_USER_CODE_ERROR
UDF_UNSUPPORTED_PARAMETER_DEFAULT_VALUE
Não há suporte para o valor padrão do parâmetro para a função <functionType>
definida pelo usuário.
UDF_USER_CODE_ERROR
Falha na execução da função <fn>
.
Para obter mais detalhes, consulte UDF_USER_CODE_ERROR
UDTF_ALIAS_NUMBER_MISMATCH
O número de aliases fornecidos na cláusula AS não corresponde ao número de colunas de saída pelo UDTF.
Aliases <aliasesSize>
esperados, mas têm <aliasesNames>
.
Verifique se o número de aliases fornecidos corresponde ao número de colunas de saída pelo UDTF.
UDTF_INVALID_ALIAS_IN_REQUESTED_ORDERING_STRING_FROM_ANALYZE_METHOD
Falha ao avaliar a função de tabela definida pelo usuário porque o ‘método de análise’ dela retornou um OrderingColumn solicitado cuja expressão de nome de coluna incluía um alias desnecessário <aliasName>
; remova esse alias e tente realizar a consulta novamente.
UDTF_INVALID_REQUESTED_SELECTED_EXPRESSION_FROM_ANALYZE_METHOD_REQUIRES_ALIAS
Falha ao avaliar a função de tabela definida pelo usuário porque seu método 'analyze' retornou uma expressão 'select' (<expression>
) que não inclui um alias correspondente; atualize o UDTF para especificar um alias lá e repita a consulta.
UNABLE_TO_ACQUIRE_MEMORY
Não é possível adquirir <requestedBytes>
bytes de memória, foi obtido <receivedBytes>
.
UNABLE_TO_CONVERT_TO_PROTOBUF_MESSAGE_TYPE
Não é possível converter o tipo SQL <toType>
para o Protobuf tipo <protobufType>
.
UNABLE_TO_FETCH_HIVE_TABLES
Não é possível buscar tabelas do banco de dados Hive: <dbName>
. Nome da classe do erro: <className>
.
UNABLE_TO_INFER_SCHEMA
Não é possível inferir esquema para <format>
. Ele deve ser especificado manualmente.
UNAUTHORIZED_ACCESS
Acesso não autorizado:
<report>
UNBOUND_SQL_PARAMETER
Encontrou o parâmetro não associado: <name>
. Corrija args
e forneça um mapeamento do parâmetro para funções de literal ou construtor de coleção do SQL, como map()
, array()
, struct()
.
UNCLOSED_BRACKETED_COMMENT
Um comentário entre colchetes em aberto foi encontrado. Acrescente */ no final do comentário.
UNEXPECTED_INPUT_TYPE
O parâmetro <paramIndex>
da função <functionName>
requer o tipo <requiredType>
, no entanto, <inputSql>
tem o tipo <inputType>
.
UNEXPECTED_OPERATOR_IN_STREAMING_VIEW
Operador <op>
inesperado na instrução CREATE VIEW como uma fonte de streaming.
Uma consulta de exibição de streaming deve consistir apenas em operações SELECT, WHERE e UNION ALL.
UNEXPECTED_POSITIONAL_ARGUMENT
Não é possível invocar a função <functionName>
porque ela contém argumentos posicionais após argumentos nomeados<parameterName>
; reorganize-os para que os argumentos posicionais venham primeiro e tentem a consulta novamente.
UNEXPECTED_SERIALIZER_FOR_CLASS
A classe <className>
tem um serializador de expressão inesperado. Espera “STRUCT
” ou " IF” que retorna "STRUCT
", mas encontrou <expr>
.
UNKNOWN_FIELD_EXCEPTION
Foram encontrados campos desconhecidos durante a análise: <unknownFieldBlob>
, que pode ser corrigida por uma nova tentativa automática: <isRetryable>
Para obter mais detalhes, consulte UNKNOWN_FIELD_EXCEPTION
UNKNOWN_POSITIONAL_ARGUMENT
A invocação da função <functionName>
contém um argumento posicional <sqlExpr>
desconhecido na posição <pos>
. Ele é inválido.
UNKNOWN_PRIMITIVE_TYPE_IN_VARIANT
O tipo primitivo desconhecido com id <id>
foi encontrado em um valor variante.
UNKNOWN_PROTOBUF_MESSAGE_TYPE
Tentativa de tratar <descriptorName>
como uma Mensagem, mas era <containingType>
.
UNPIVOT_REQUIRES_ATTRIBUTES
UNPIVOT exige que todas as expressões <given>
fornecidas sejam colunas quando não forem fornecidas expressões <empty>
. Essas não são colunas: [<expressions>
].
UNPIVOT_REQUIRES_VALUE_COLUMNS
Pelo menos uma coluna de valor deve ser especificada como UNPIVOT, todas as colunas especificadas como IDs.
UNPIVOT_VALUE_DATA_TYPE_MISMATCH
As colunas de valor Unpivot devem compartilhar um tipo menos comum, alguns tipos não: [<types>
].
UNPIVOT_VALUE_SIZE_MISMATCH
Todas as colunas de valor não dinâmico devem ter o mesmo tamanho como há nomes de coluna de valor (<names>
).
UNRECOGNIZED_PARAMETER_NAME
Não é possível invocar a função <functionName>
porque a chamada de função incluiu uma referência de argumento nomeado para o argumento chamado <argumentName>
, mas essa função não inclui assinaturas que contenha um argumento com esse nome. Você quis dizer um dos seguintes? [<proposal>
].
UNRECOGNIZED_SQL_TYPE
Tipo SQL não reconhecido - nome: <typeName>
, ID: <jdbcType>
.
UNRESOLVABLE_TABLE_VALUED_FUNCTION
Não foi possível resolver <name>
a uma função com o valor de tabela.
Verifique se isso <name>
é definido como uma função com valor de tabela e se todos os parâmetros necessários são fornecidos corretamente.
Se <name>
não estiver definido, crie a função com valor de tabela antes de usá-la.
Para obter mais informações sobre como definir funções com valor de tabela, consulte a documentação do Apache Spark.
UNRESOLVED_ALL_IN_GROUP_BY
Não é possível inferir o agrupamento de colunas para GROUP BY ALL com base na cláusula de seleção. Especifique explicitamente as colunas de agrupamento.
UNRESOLVED_COLUMN
Não é possível resolver um parâmetro de coluna ou função com nome <objectName>
.
Para obter mais detalhes, confira UNRESOLVED_COLUMN
UNRESOLVED_FIELD
Um campo com nome <fieldName>
não pode ser resolvido com a coluna <columnPath>
do tipo struct.
Para obter mais detalhes, confira UNRESOLVED_FIELD
UNRESOLVED_MAP_KEY
Não é possível resolver a coluna <objectName>
como uma chave de mapear. Se a chave for um literal de cadeia de caracteres, adicione aspas simples ‘’ em seu entorno.
Para obter mais detalhes, confira UNRESOLVED_MAP_KEY
UNRESOLVED_ROUTINE
Não é possível resolver a rotina <routineName>
no caminho de pesquisa <searchPath>
.
Para obter mais detalhes, consulte UNRESOLVED_ROUTINE
UNRESOLVED_USING_COLUMN_FOR_JOIN
A coluna USING <colName>
não pode ser resolvida no lado <side>
da junção. A coluna <side>
-lateral: [<suggestion>
].
UNRESOLVED_VARIABLE
Não é possível resolver a função <variableName>
no caminho de pesquisa <searchPath>
.
UNSUPPORTED_ADD_FILE
Não dê suporte à adição de arquivo.
Para obter mais detalhes, consulte UNSUPPORTED_ADD_FILE
UNSUPPORTED_ARROWTYPE
Não há suporte para o tipo de seta <typeName>
.
UNSUPPORTED_BATCH_TABLE_VALUED_FUNCTION
A função <funcName>
não dá suporte para consultas em lote.
UNSUPPORTED_CALL
Não é possível chamar o método “<methodName>
” da classe "<className>
".
Para obter mais detalhes, consulte UNSUPPORTED_CALL
UNSUPPORTED_CHAR_OR_VARCHAR_AS_STRING
O tipo char/varchar não pode ser usado no esquema de tabela.
Se você quiser que o Spark os trate como tipo de cadeia de caracteres da mesma forma que o Spark 3.0 e anteriores, defina "spark.sql.legacy.charVarcharAsString" como "true".
UNSUPPORTED_CLAUSE_FOR_OPERATION
O <clause>
não têm suporte para <operation>
.
UNSUPPORTED_COLLATION
Não há suporte para ordenação <collationName>
para:
Para obter mais detalhes, consulte UNSUPPORTED_COLLATION
UNSUPPORTED_COMMON_ANCESTOR_LOC_FOR_FILE_STREAM_SOURCE
O ancestral comum do caminho de origem e sourceArchiveDir deve ser registrado com UC.
Se você vir essa mensagem de erro, é provável que você registre o caminho de origem e sourceArchiveDir em diferentes locais externos.
Coloque-os em um único local externo.
UNSUPPORTED_CONSTRAINT_CLAUSES
Cláusulas de restrição <clauses>
sem suporte.
UNSUPPORTED_CONSTRAINT_TYPE
Tipo de restrição sem suporte. Apenas <supportedConstraintTypes>
tem suporte
UNSUPPORTED_DATASOURCE_FOR_DIRECT_QUERY
Tipo de fonte de dados sem suporte para consultas diretas de arquivos: <dataSourceType>
UNSUPPORTED_DATATYPE
Tipos de dados <typeName>
sem suporte.
UNSUPPORTED_DATA_SOURCE_SAVE_MODE
A fonte de dados "<source>
" não pode ser gravada no modo <createMode>
. Em vez disso, use o modo “Acrescentar” ou “Substituir”.
UNSUPPORTED_DATA_TYPE_FOR_DATASOURCE
A fonte de dados <format>
não é comatível com a coluna <columnName>
do tipo <columnType>
.
UNSUPPORTED_DATA_TYPE_FOR_ENCODER
Não é possível criar um codificador para <dataType>
. Use um tipo de dados de saída diferente para sua UDF ou DataFrame.
UNSUPPORTED_DEFAULT_VALUE
Não há suporte para os valores de coluna DEFAULT.
Para obter mais detalhes, consulte UNSUPPORTED_DEFAULT_VALUE
UNSUPPORTED_DESERIALIZER
Não há suporte para o desserializador:
Para obter mais detalhes, confira UNSUPPORTED_DESERIALIZER
UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
A coluna gerada <fieldName>
com expressão de geração <expressionStr>
não pode ser criada devido a <reason>
.
UNSUPPORTED_EXPR_FOR_OPERATOR
Um operador de consulta contém uma ou mais expressões sem suporte.
Considere regenerar para evitar funções de janela, funções de agregação e funções geradoras na cláusula WHERE.
Expressões inválidas: [<invalidExprSqls>
]
UNSUPPORTED_EXPR_FOR_PARAMETER
Um parâmetro de consulta contém uma expressão sem suporte.
Os parâmetros podem ser variáveis ou literais.
Expressão inválida: [<invalidExprSql>
]
UNSUPPORTED_EXPR_FOR_WINDOW
A expressão <sqlExpr>
não tem suporte em uma função de janela.
UNSUPPORTED_FEATURE
Não há suporte para este recurso:
Para obter mais detalhes, confira UNSUPPORTED_FEATURE
UNSUPPORTED_FN_TYPE
Tipo de função definida pelo usuário sem suporte: <language>
UNSUPPORTED_GENERATOR
O gerador não tem suporte:
Para mais detalhes, consulte UNSUPPORTED_GENERATOR
UNSUPPORTED_GROUPING_EXPRESSION
grouping()/grouping_id() só pode ser usado com GroupingSets/Cube/Rollup.
UNSUPPORTED_INITIAL_POSITION_AND_TRIGGER_PAIR_FOR_KINESIS_SOURCE
<trigger>
com a posição inicial 8<initialPosition>
não é compatível com a fonte Kinesis
UNSUPPORTED_INSERT
Não é possível inserir no destino.
Para obter mais detalhes, consulte UNSUPPORTED_INSERT
UNSUPPORTED_JOIN_TYPE
Tipo de junção sem suporte '<typ>
'. Os tipos de junção suportados incluem: <supported>
.
UNSUPPORTED_MANAGED_TABLE_CREATION
Não há suporte para a criação de uma tabela <tableName>
gerenciada usando o fonte de dados <dataSource>
. Você precisa usar a fonte de dados DELTA ou criar uma tabela externa usando CREATE EXTERNAL TABLE <tableName>
… USING <dataSource>
…
UNSUPPORTED_MERGE_CONDITION
A operação MERGE contém uma condição <condName>
sem suporte.
Para obter mais detalhes, consulte UNSUPPORTED_MERGE_CONDITION
UNSUPPORTED_NESTED_ROW_OR_COLUMN_ACCESS_POLICY
A tabela <tableName>
tem uma política de segurança em nível de linha ou máscara de coluna que se refere indiretamente a outra tabela com uma política de segurança em nível de linha ou máscara de coluna. Não há suporte para isso. Sequência de chamada: <callSequence>
UNSUPPORTED_OVERWRITE
Não é possível substituir o destino que também está sendo lido.
Para obter mais detalhes, confira UNSUPPORTED_OVERWRITE
UNSUPPORTED_SAVE_MODE
O modo de salvamento <saveMode>
não é compatível com:
Para obter mais detalhes, confira UNSUPPORTED_SAVE_MODE
UNSUPPORTED_STREAMING_OPERATOR_WITHOUT_WATERMARK
<outputMode>
modo de saída não suportado para <statefulOperator>
DataFrames/DataSets de streaming sem marca d'água.
UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
Sem suporte para transmitir uma exibição. Motivo:
Para obter mais detalhes, consulte UNSUPPORTED_STREAMING_OPTIONS_FOR_VIEW
UNSUPPORTED_STREAMING_OPTIONS_PERMISSION_ENFORCED
As opções de transmissão <options>
não são compatíveis com uma fonte de dados <source>
em um cluster compartilhado. Confirme se as opções estão especificadas e escritas corretamente e verifiquehttps://docs.databricks.com/en/compute/access-mode-limitations.html#streaming-limitations-and-requirements-for-unity-catalog-shared-access-mode se há limitações.
UNSUPPORTED_STREAMING_SINK_PERMISSION_ENFORCED
Não há suporte para a fonte de dados <sink>
como um coletor de transmissão em um cluster compartilhado.
UNSUPPORTED_STREAMING_SOURCE_PERMISSION_ENFORCED
Não há suporte para a fonte de dados <source>
como uma fonte de transmissão em um cluster compartilhado.
UNSUPPORTED_STREAMING_TABLE_VALUED_FUNCTION
A função <funcName>
não dá suporte ao transmissão. Remova a palavra-chave STREAM
UNSUPPORTED_STREAM_READ_LIMIT_FOR_KINESIS_SOURCE
<streamReadLimit>
não tem suporte com a fonte Kinesis
UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
Expressão de subconsulta sem suporte:
Para mais detalhes, consulte UNSUPPORTED_SUBQUERY_EXPRESSION_CATEGORY
UNSUPPORTED_TIMESERIES_COLUMNS
Não há suporte para a criação de chave primária com colunas de séries temporais
UNSUPPORTED_TIMESERIES_WITH_MORE_THAN_ONE_COLUMN
Não há suporte para a criação de chave primária com mais de uma coluna <colSeq>
de série temporal
UNSUPPORTED_TRIGGER_FOR_KINESIS_SOURCE
<trigger>
não tem suporte com a fonte Kinesis
UNSUPPORTED_TYPED_LITERAL
Literais do tipo <unsupportedType>
não têm suporte. Os tipos compatíveis são <supportedTypes>
.
UNTYPED_SCALA_UDF
Você está usando uma UDF do Scala não tipado, que não tem as informações de tipo de entrada.
O Spark pode passar um valor nulo cegamente para o fechamento do Scala com o argumento de tipo primitivo, e o fechamento verá o valor padrão do tipo Java para o argumento nulo, por exemplo, em udf((x: Int) => x, IntegerType)
, o resultado é 0 para uma entrada nula. Para se livrar desse erro, você pode:
- usar APIs de Scala UDF com tipo (sem parâmetro de tipo de retorno), por exemplo,
udf((x: Int) => x)
. - usar APIs de Java UDF, por exemplo,
udf(new UDF1[String, Integer] { override def call(s: String): Integer = s.length() }, IntegerType)
, se os tipos de entrada forem todos não primitivos. - definir spark.sql.legacy.allowUntypedScalaUDF para “true” e usar essa API com cuidado.
UPGRADE_NOT_SUPPORTED
A tabela não está qualificada para atualização do Metastore do Hive para o Catálogo do Unity. Motivo:
Para obter mais informações, consulte UPGRADE_NOT_SUPPORTED
USER_DEFINED_FUNCTIONS
A função definida pelo usuário é inválida:
Para obter mais detalhes, confira USER_DEFINED_FUNCTIONS
USER_RAISED_EXCEPTION
<errorMessage>
USER_RAISED_EXCEPTION_PARAMETER_MISMATCH
A função raise_error()
foi usada para gerar a classe de erro: <errorClass>
que espera parâmetros: <expectedParms>
.
Os parâmetros fornecidos <providedParms>
não correspondem aos parâmetros esperados.
Certifique-se de fornecer todos os parâmetros esperados.
USER_RAISED_EXCEPTION_UNKNOWN_ERROR_CLASS
A função raise_error()
foi usada para gerar uma classe de erro desconhecida: <errorClass>
VARIABLE_ALREADY_EXISTS
Não é possível criar a função <variableName>
porque ela já existe.
Escolha um nome diferente ou solte ou substitua a variável existente.
VARIABLE_NOT_FOUND
A variável <variableName>
não pode ser encontrada. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema e um catálogo, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na remoção, use DROP VIEW IF EXISTS.
VARIANT_CONSTRUCTOR_SIZE_LIMIT
Não é possível construir uma Variant maior que 16 MiB. O tamanho máximo permitido de um valor Variant é de 16 MiB.
VARIANT_DUPLICATE_KEY
Falha ao criar variante devido a uma chave de objeto duplicada <key>
.
VARIANT_SIZE_LIMIT
Não é possível criar variante maior que <sizeLimit>
em <functionName>
.
Evite cadeias de caracteres de entrada grandes para essa expressão (por exemplo, adicione chamadas de função para verificar o tamanho da expressão e convertê-la em NULL primeiro se ela for muito grande).
VIEW_ALREADY_EXISTS
Não é possível criar a exibição <relationName>
porque ela já existe.
Escolha um nome diferente, remova ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.
VIEW_EXCEED_MAX_NESTED_DEPTH
A profundidade da exibição <viewName>
excede a profundidade máxima de resolução da exibição (<maxNestedDepth>
).
A análise é anulada para evitar erros. Se você quiser contornar esse problema, tente aumentar o valor de "spark.sql.view.maxNestedViewDepth".
VIEW_NOT_FOUND
Não foi possível encontrar a exibição <relationName>
. Verifique a ortografia e a correção do esquema e do catálogo.
Se você não qualificou o nome com um esquema, verifique a saída current_schema() ou qualifique o nome com o esquema e o catálogo corretos.
Para tolerar o erro na remoção, use DROP VIEW IF EXISTS.
VOLUME_ALREADY_EXISTS
Não é possível criar o volume <relationName>
porque ele já existe.
Escolha um nome diferente, remova ou substitua o objeto existente ou adicione a cláusula IF NOT EXISTS para tolerar objetos pré-existentes.
WINDOW_FUNCTION_AND_FRAME_MISMATCH
A <funcName>
função só pode ser avaliada em um quadro de janela baseado em linha ordenado com um único deslocamento: <windowExpr>
.
WINDOW_FUNCTION_WITHOUT_OVER_CLAUSE
A função Window <funcName>
requer uma cláusula OVER.
WITH_CREDENTIAL
Não há suporte para a sintaxe WITH CREDENTIAL para <type>
.
WRITE_STREAM_NOT_ALLOWED
writeStream
pode ser chamado somente no conjunto de dados/DataFrame de streaming.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_ALTER_TABLE_ADD_COLUMN_NOT_SUPPORTED
Falha ao executar o comando porque não há suporte para valores DEFAULT ao adicionar novas
colunas para tabelas Delta existentes anteriormente; adicione a coluna sem um valor padrão
primeiro, depois execute um segundo comando ALTER TABLE ALTER COLUMN SET DEFAULT para, em vez disso, aplicar
a linhas inseridas futuras.
WRONG_COLUMN_DEFAULTS_FOR_DELTA_FEATURE_NOT_ENABLED
Falha ao executar o comando <commandType>
porque ele atribuiu um valor DEFAULT de coluna,
mas o recurso de tabela correspondente não estava habilitado. Tente executar o comando novamente
depois de executar ALTER TABLE tableName SET
TBLPROPERTIES(‘delta.feature.allowColumnDefaults’ = ‘supported’).
WRONG_COMMAND_FOR_OBJECT_TYPE
A operação <operation>
requer <requiredType>
. Mas <objectName>
é <foundType>
. Use <alternative>
em vez disso.
WRONG_NUM_ARGS
<functionName>
requer <expectedNum>
parâmetros, mas o número real é <actualNum>
.
Para obter mais detalhes, confira WRONG_NUM_ARGS
XML_ROW_TAG_MISSING
A opção <rowTag>
é necessária para ler arquivos no formato XML.
XML_UNSUPPORTED_NESTED_TYPES
O XML não dá suporte a <innerDataType>
como tipo interno de <dataType>
. Encapsule o <innerDataType>
dentro de um campo StructType ao usá-lo dentro de <dataType>
.
XML_WILDCARD_RESCUED_DATA_CONFLICT_ERROR
Dados resgatados e coluna curinga não podem ser habilitados simultaneamente. Remova a opção wildcardColumnName.
ZORDERBY_COLUMN_DOES_NOT_EXIST
A coluna ZOrderBy <columnName>
não existe.
Delta Lake
DELTA_ACTIVE_SPARK_SESSION_NOT_FOUND
Não foi possível localizar uma SparkSession ativa
DELTA_ACTIVE_TRANSACTION_ALREADY_SET
Não é possível definir um novo txn como ativo quando um já está ativo
DELTA_ADDING_COLUMN_WITH_INTERNAL_NAME_FAILED
Falhou ao adicionar a coluna <colName>
porque o nome está reservado.
DELTA_ADDING_DELETION_VECTORS_DISALLOWED
A operação atual tentou adicionar um vetor de exclusão a uma tabela que não permite a criação de novos vetores de exclusão. Envie um relatório de bug.
DELTA_ADDING_DELETION_VECTORS_WITH_TIGHT_BOUNDS_DISALLOWED
Todas as operações que adicionam vetores de exclusão devem definir a coluna tightBounds nas estatísticas como false. Envie um relatório de bug.
DELTA_ADD_COLUMN_AT_INDEX_LESS_THAN_ZERO
O índice <columnIndex>
para adicionar a coluna <columnName>
é inferior a 0
DELTA_ADD_COLUMN_PARENT_NOT_STRUCT
Não é possível adicionar <columnName>
porque o elemento pai não é um StructType. Encontrado <other>
DELTA_ADD_COLUMN_STRUCT_NOT_FOUND
Struct não encontrado na posição <position>
DELTA_ADD_CONSTRAINTS
Use ALTER TABLE ADD CONSTRAINT para adicionar restrições CHECK.
DELTA_AGGREGATE_IN_GENERATED_COLUMN
Encontrado <sqlExpr>
. Uma coluna gerada não pode usar uma expressão de agregação
DELTA_AGGREGATION_NOT_SUPPORTED
Não há suporte para funções de agregação no <operation>
<predicate>
.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_BLOOM_FILTER
Falha ao alterar a ordenação da coluna <column>
porque ela tem um índice de filtro de bloom. Retenha a ordenação existente ou descarte o índice do filtro de bloom e tente novamente o comando novamente para alterar a ordenação.
DELTA_ALTER_COLLATION_NOT_SUPPORTED_CLUSTER_BY
Falha ao alterar o agrupamento da coluna <column>
porque é uma coluna de clustering. Retenha a ordenação existente ou altere a coluna para uma coluna sem clustering com um comando ALTER TABLE e, em seguida, repita o comando para alterar a ordenação.
DELTA_ALTER_TABLE_CHANGE_COL_NOT_SUPPORTED
ALTER TABLE CHANGE COLUMN não pode ser usado para alteração da coluna <currentType>
para <newType>
DELTA_ALTER_TABLE_CLUSTER_BY_NOT_ALLOWED
ALTER TABLE CLUSTER BY não é permitido para a tabela Delta com o clustering do Liquid.
DELTA_ALTER_TABLE_CLUSTER_BY_ON_PARTITIONED_TABLE_NOT_ALLOWED
ALTER TABLE CLUSTER BY não pode ser aplicado a uma tabela particionada.
DELTA_ALTER_TABLE_RENAME_NOT_ALLOWED
Operação não permitida: ALTER TABLE RENAME TO não é permitido para tabelas Delta gerenciadas no S3, pois a consistência eventual no S3 pode corromper o log de transações Delta. Se você insistir em fazer isso e tiver certeza de que nunca houve uma tabela Delta com o novo nome <newName>
antes, poderá habilitar isso definindo <key>
como true.
DELTA_ALTER_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível habilitar o recurso de tabela <tableFeature>
usando ALTER TABLE SET TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com clustering.
DELTA_AMBIGUOUS_DATA_TYPE_CHANGE
Não é possível alterar o tipo de dados de <column>
de <from>
para<to>
. Essa alteração contém remoções de coluna e adições, portanto, elas são ambíguas. Faça essas alterações individualmente usando ALTER TABLE [ADD | DROP | RENAME] COLUMN.
DELTA_AMBIGUOUS_PARTITION_COLUMN
A coluna <column>
de partição ambígua pode ser <colMatches>
.
DELTA_AMBIGUOUS_PATHS_IN_CREATE_TABLE
CREATE TABLE contém dois locais diferentes: <identifier>
e <location>
.
Você pode remover a cláusula LOCATION da instrução CREATE TABLE ou definir
<config>
para true para ignorar essa verificação.
DELTA_ARCHIVED_FILES_IN_LIMIT
A tabela <table>
não contém registros suficientes em arquivos não arquivados para atender ao LIMIT especificado de <limit>
registros.
DELTA_ARCHIVED_FILES_IN_SCAN
Foram encontrados <numArchivedFiles>
arquivos potencialmente arquivados na tabela <table>
que precisam ser verificados como parte dessa consulta.
Os arquivos arquivados não podem ser acessados. O tempo atual até o arquivamento é configurado como <archivalTime>
.
Ajuste seus filtros de consulta para excluir todos os arquivos guardados.
DELTA_BLOCK_COLUMN_MAPPING_AND_CDC_OPERATION
A operação “<opName>
” não é permitida quando a tabela habilitou o CDF (feed de dados de alterações) e passou por alterações de esquema usando DROP COLUMN ou RENAME COLUMN.
DELTA_BLOOM_FILTER_DROP_ON_NON_EXISTING_COLUMNS
Não é possível descartar índices do filtro de bloom para as seguintes colunas inexistentes: <unknownColumns>
DELTA_BLOOM_FILTER_OOM_ON_WRITE
OutOfMemoryError ocorreu durante a gravação de índices de filtro bloom para as seguintes colunas: <columnsWithBloomFilterIndices>
.
Você pode reduzir o volume de memória dos índices de filtro de bloom escolhendo um valor menor para a opção 'numItems', um valor maior para a opção 'fpp' ou indexando menos colunas.
DELTA_CANNOT_CHANGE_DATA_TYPE
Não é possível alterar o tipo de dados: <dataType>
DELTA_CANNOT_CHANGE_LOCATION
Não é possível alterar o 'local' da tabela Delta usando SET TBLPROPERTIES. Em vez disso, use ALTER TABLE SET LOCATION.
DELTA_CANNOT_CHANGE_PROVIDER
'provider' é uma propriedade de tabela reservada e não pode ser alterada.
DELTA_CANNOT_CREATE_BLOOM_FILTER_NON_EXISTING_COL
Não é possível criar índices do filtro de bloom para as seguintes colunas inexistentes: <unknownCols>
DELTA_CANNOT_CREATE_LOG_PATH
Não é possível criar <path>
DELTA_CANNOT_DESCRIBE_VIEW_HISTORY
Não é possível descrever o histórico de uma exibição.
DELTA_CANNOT_DROP_BLOOM_FILTER_ON_NON_INDEXED_COLUMN
Não é possível remover o índice de filtro bloom em uma coluna não indexada: <columnName>
DELTA_CANNOT_DROP_CHECK_CONSTRAINT_FEATURE
Não foi possível remover o recurso restrições CHECK de tabela.
As seguintes restrições devem ser descartadas primeiro: <constraints>
.
DELTA_CANNOT_EVALUATE_EXPRESSION
Não é possível avaliar a expressão: <expression>
DELTA_CANNOT_FIND_BUCKET_SPEC
Esperando uma tabela Delta bucketing, mas não é possível encontrar a especificação de bucket na tabela
DELTA_CANNOT_GENERATE_CODE_FOR_EXPRESSION
Não é possível gerar código para a expressão: <expression>
DELTA_CANNOT_MODIFY_APPEND_ONLY
Esta tabela está configurada para permitir somente acréscimos. Se você quiser permitir atualizações ou exclusões, use ‘ALTER TABLE <table_name> SET TBLPROPERTIES (<config>
=false)’.
DELTA_CANNOT_MODIFY_COORDINATED_COMMITS_DEPENDENCIES
<Command>
não é possível substituir ou desconfigurar as propriedades da tabela de carimbo de data/hora na confirmação porque as confirmações coordenadas estão habilitadas nesta tabela e dependem delas. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_MODIFY_TABLE_PROPERTY
A configuração <prop>
da tabela Delta não pode ser especificada pelo usuário
DELTA_CANNOT_OVERRIDE_COORDINATED_COMMITS_CONFS
<Command>
não é possível substituir configurações de confirmações coordenadas para uma tabela de destino existente. Remova-os ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview", "delta.coordinatedCommits.tableConf-preview") da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_RECONSTRUCT_PATH_FROM_URI
Um uri (<uri>
) que não pode ser transformado em um caminho relativo foi encontrado no log de transações.
DELTA_CANNOT_RELATIVIZE_PATH
Um caminho (<path>
) que não pode ser relativizado com a entrada atual encontrada no
log de transações. Execute isto novamente como:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<userPath>
”, true)
e, em seguida, também execute:
%%scala com.databricks.delta.Delta.fixAbsolutePathsInLog(“<path>
”)
DELTA_CANNOT_RENAME_PATH
Não é possível renomear <currentPath>
para <newPath>
DELTA_CANNOT_REPLACE_MISSING_TABLE
A tabela <tableName>
não pode ser substituída, pois ela não existe. Use CREATE OR REPLACE TABLE para criar a tabela.
DELTA_CANNOT_RESOLVE_COLUMN
Não é possível resolver a coluna <columnName>
em <schema>
DELTA_CANNOT_RESTORE_TABLE_VERSION
Não é possível restaurar a tabela para a versão <version>
. Versões disponíveis: [<startVersion>
, <endVersion>
].
DELTA_CANNOT_RESTORE_TIMESTAMP_EARLIER
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>
) como é antes da versão mais antiga disponível. Use um carimbo de data/hora após (<earliestTimestamp>
).
DELTA_CANNOT_RESTORE_TIMESTAMP_GREATER
Não é possível restaurar a tabela para o carimbo de data/hora (<requestedTimestamp>
), pois ele é posterior à versão mais recente disponível. Use um carimbo de data/hora anterior a (<latestTimestamp>
)
DELTA_CANNOT_SET_COORDINATED_COMMITS_DEPENDENCIES
<Command>
não é possível definir propriedades de tabela de carimbo de data/hora na confirmação junto com confirmações coordenadas, porque a última depende da primeira e define a primeira internamente. Remova-os ("delta.enableInCommitTimestamps", "delta.inCommitTimestampEnablementVersion", "delta.inCommitTimestampEnablementTimestamp") da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CANNOT_SET_LOCATION_ON_PATH_IDENTIFIER
Não é possível alterar o local de uma tabela baseada em caminho.
DELTA_CANNOT_SET_MANAGED_STATS_COLUMNS_PROPERTY
Não é possível definir delta.managedDataSkippingStatsColumns em tabelas não DLT
DELTA_CANNOT_UNSET_COORDINATED_COMMITS_CONFS
ALTER não pode desconfigurar configurações de confirmações coordenadas. Para fazer downgrade de uma tabela de commits coordenados, tente novamente usando ALTER TABLE [table-name] DROP FEATURE 'coordinatedCommits-preview'
.
DELTA_CANNOT_UPDATE_ARRAY_FIELD
Não é possível atualizar o tipo %2$s do campo %1$s: atualize o elemento atualizando %2$s.element
DELTA_CANNOT_UPDATE_MAP_FIELD
Não é possível atualizar o tipo %2$s do campo %1$s: atualize um mapa atualizando %2$s.key ou %2$s.value
DELTA_CANNOT_UPDATE_OTHER_FIELD
Não é possível atualizar o campo <tableName>
de tipo <typeName>
DELTA_CANNOT_UPDATE_STRUCT_FIELD
Não é possível atualizar o campo <tableName>
tipo <fieldName>
: atualize o struct adicionando, excluindo ou atualizando os respectivos campos
DELTA_CANNOT_USE_ALL_COLUMNS_FOR_PARTITION
Não é possível usar todas as colunas para colunas de partição
DELTA_CANNOT_WRITE_INTO_VIEW
<table>
é uma exibição. Não há suporte para gravações em uma exibição.
DELTA_CAST_OVERFLOW_IN_TABLE_WRITE
Ocorreu um erro ao inserir um valor de <sourceType>
tipo na <targetType>
coluna de tipo <columnName>
devido a um estouro.
Use try_cast
no valor de entrada para tolerar o estouro e retornar NULL.
Se necessário, defina <storeAssignmentPolicyFlag>
como "LEGACY" para ignorar esse erro ou defina <updateAndMergeCastingFollowsAnsiEnabledFlag>
como true para reverter ao comportamento antigo e siga <ansiEnabledFlag>
em UPDATE e MERGE.
DELTA_CDC_NOT_ALLOWED_IN_THIS_VERSION
A configuração delta.enableChangeDataFeed não pode ser definida. A alteração do feed de dados do Delta ainda não está disponível.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_DATA_SCHEMA
A recuperação de alterações de tabela entre as versões <start>
e <end>
falhou devido a um esquema de dados incompatível.
Seu esquema de leitura é <readSchema>
na versão <readVersion>
, mas encontramos um esquema de dados incompatível na versão <incompatibleVersion>
.
Se possível, recupere as alterações de tabela usando o esquema da versão final definindo <config>
para endVersion
, ou entre em contato com o suporte.
DELTA_CHANGE_DATA_FEED_INCOMPATIBLE_SCHEMA_CHANGE
A recuperação de alterações de tabela entre as versões <start>
e <end>
falhou devido a uma alteração de esquema incompatível.
Seu esquema de leitura é <readSchema>
na versão <readVersion>
, mas encontramos uma alteração de esquema incompatível na versão <incompatibleVersion>
.
Se possível, consulte as alterações da tabela separadamente da versão <start>
para <incompatibleVersion>
- 1, e da versão <incompatibleVersion>
para <end>
.
DELTA_CHANGE_DATA_FILE_NOT_FOUND
Não é possível encontrar um arquivo <filePath>
referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE
. Essa solicitação parece estar direcionando o Feed de Dados de Alterações, se esse for o caso, esse erro poderá ocorrer quando o arquivo de dados de alteração estiver fora do período de retenção e tiver sido excluído pela instrução VACUUM
. Para obter mais informações, consulte <faqPath>
.
DELTA_CHANGE_TABLE_FEED_DISABLED
Não é possível gravar na tabela com delta.enableChangeDataFeed definido. A alteração do feed de dados do Delta não está disponível.
DELTA_CHECKPOINT_NON_EXIST_TABLE
Não é possível fazer o ponto de verificação de uma tabela <path>
não existente. Você excluiu manualmente arquivos no diretório _delta_log?
DELTA_CLONE_AMBIGUOUS_TARGET
Dois caminhos foram fornecidos como o destino CLONE, de modo que a escolha de qual usar é ambígua. Um local
externo para CLONE foi fornecido em <externalLocation>
ao mesmo tempo que o caminho
<targetIdentifier>
.
DELTA_CLONE_INCOMPLETE_FILE_COPY
O arquivo (<fileName>
) não foi copiado integralmente. Tamanho esperado do arquivo: <expectedSize>
, encontrado: <actualSize>
. Para continuar com a operação ignorando a verificação de tamanho do arquivo, defina <config>
como false.
DELTA_CLONE_UNSUPPORTED_SOURCE
Origem de clone <mode>
sem suporte ‘<name>
’, cujo formato é <format>
.
Os formatos com suporte são ‘delta’, ‘iceberg’ e ‘parquet’.
DELTA_CLUSTERING_CLONE_TABLE_NOT_SUPPORTED
O CLONE não possui suporte da tabela Delta com o clustering do Liquid para BR versão < 14.0.
DELTA_CLUSTERING_COLUMNS_DATATYPE_NOT_SUPPORTED
Não há suporte para CLUSTER BY porque as seguintes colunas: <columnsWithDataTypes>
não dão suporte à ignorância de dados.
DELTA_CLUSTERING_COLUMNS_MISMATCH
As colunas de clustering fornecidas não correspondem às tabelas existentes.
- fornecido:
<providedClusteringColumns>
- existente:
<existingClusteringColumns>
DELTA_CLUSTERING_COLUMN_MISSING_STATS
O clustering líquido requer que as colunas de clustering tenham estatísticas. Não foi possível’encontrar colunas de clustering '<columns>
' no esquema de estatísticas:
<schema>
DELTA_CLUSTERING_CREATE_EXTERNAL_NON_LIQUID_TABLE_FROM_LIQUID_TABLE
A criação de uma tabela externa sem clustering líquido de um diretório de tabela com clustering líquido não é permitida; caminho: <path>
.
DELTA_CLUSTERING_NOT_SUPPORTED
‘<operation>
’ não dá suporte ao clustering.
DELTA_CLUSTERING_PHASE_OUT_FAILED
Não é possível concluir o <phaseOutType>
da tabela com o recurso de tabela <tableFeatureToAdd>
(motivo: <reason>
). Tente o comando OPTIMIZE novamente.
== Error ==
<error>
DELTA_CLUSTERING_REPLACE_TABLE_WITH_PARTITIONED_TABLE
Uma tabela Delta do REPLACE com o clustering do Liquid por uma tabela particionada não é permitido.
DELTA_CLUSTERING_SHOW_CREATE_TABLE_WITHOUT_CLUSTERING_COLUMNS
NÃO há suporte para SHOW CREATE TABLE na tabela Delta com o clustering do Liquid sem colunas de clustering.
DELTA_CLUSTERING_TO_PARTITIONED_TABLE_WITH_NON_EMPTY_CLUSTERING_COLUMNS
A transição de uma tabela Delta com clustering líquido para uma tabela particionada não é permitida para operação: <operation>
, quando a tabela existente tem colunas de clustering não vazias.
Execute ALTER TABLE CLUSTER BY NONE para remover as colunas de clustering primeiro.
DELTA_CLUSTERING_WITH_DYNAMIC_PARTITION_OVERWRITE
O modo de substituição de partição dinâmica não é permitido para a tabela Delta com clustering do Liquid.
DELTA_CLUSTERING_WITH_PARTITION_PREDICATE
O comando OPTIMIZE da tabela Delta com o clustering do Liquid não dá suporte aos predicados de partição. Remova os predicados: <predicates>
.
DELTA_CLUSTERING_WITH_ZORDER_BY
O comando OPTIMIZE da tabela Delta com o clustering do Liquid não pode especificar o ZORDER BY. Remova oo ZORDER BY (<zOrderBy>
).
DELTA_CLUSTER_BY_INVALID_NUM_COLUMNS
CLUSTER BY para clustering Liquid dá suporte a <numColumnsLimit>
clustering de colunas , mas a tabela tem <actualNumColumns>
clustering de colunas. Remova as colunas extras de agrupamento.
DELTA_CLUSTER_BY_SCHEMA_NOT_PROVIDED
Não é permitido especificar CLUSTER BY quando o esquema não está definido. Defina o esquema para a tabela <tableName>
.
DELTA_CLUSTER_BY_WITH_BUCKETING
Clustering e bucketing não podem ser especificados. Remova CLUSTERED BY INTO BUCKETS / bucketBy se você quiser criar uma tabela Delta com clustering.
DELTA_CLUSTER_BY_WITH_PARTITIONED_BY
Clustering e particionamento não podem ser especificados. Remova PARTITIONED BY / partitionBy / partitionedBy se você quiser criar uma tabela Delta com clustering.
DELTA_COLLATIONS_NOT_SUPPORTED
Não há suporte para ordenações no Delta Lake.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_PARTITIONED_COLUMN
Não há suporte para ignorar dados na coluna de partição “<column>
”.
DELTA_COLUMN_DATA_SKIPPING_NOT_SUPPORTED_TYPE
Não há suporte para ignorar dados para a coluna “<column>
” do tipo <type>
.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET
A propriedade ID de coluna máxima (<prop>
) não está definida em uma tabela habilitada para mapeamento de coluna.
DELTA_COLUMN_MAPPING_MAX_COLUMN_ID_NOT_SET_CORRECTLY
A propriedade ID de coluna máxima (<prop>
) em uma tabela habilitada para mapeamento de coluna é <tableMax>
, que não pode ser menor que a ID máxima da coluna para todos os campos (<fieldMax>
).
DELTA_COLUMN_MISSING_DATA_TYPE
O tipo de dados da coluna <colName>
não foi fornecido.
DELTA_COLUMN_NOT_FOUND
Não é possível localizar a coluna <columnName>
fornecida [<columnList>
]
DELTA_COLUMN_NOT_FOUND_IN_MERGE
Não é possível localizar a coluna ‘<targetCol>
’ da tabela de destino das colunas INSERT: <colNames>
. A cláusula INSERT deve especificar o valor para todas as colunas da tabela de destino.
DELTA_COLUMN_NOT_FOUND_IN_SCHEMA
Não foi possível localizar a coluna <columnName>
em:
<tableSchema>
DELTA_COLUMN_PATH_NOT_NESTED
Espera-se que <columnPath>
seja um tipo de dados aninhado, mas foi encontrado <other>
. Estava procurando pelo
índice de <column>
em um campo aninhado.
Esquema:
<schema>
DELTA_COLUMN_STRUCT_TYPE_MISMATCH
A coluna do struct <source>
não pode ser inserida em um campo <targetType>
de <targetField>
em <targetTable>
.
DELTA_COMPACTION_VALIDATION_FAILED
Falha na validação da compactação do caminho <compactedPath>
para <newPath>
: envie um relatório de bug.
DELTA_COMPLEX_TYPE_COLUMN_CONTAINS_NULL_TYPE
Um NullType aninhado foi encontrado na coluna <columName>
que é de <dataType>
. O Delta não dá suporte à gravação de NullType em tipos complexos.
DELTA_CONCURRENT_APPEND
ConcurrentAppendException: os arquivos foram adicionados por <partition>
uma atualização simultânea. <retryMsg>
<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONCURRENT_DELETE_DELETE
ConcurrentDeleteDeleteException: essa transação tentou excluir um ou mais arquivos que foram excluídos (por exemplo <file>
) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONCURRENT_DELETE_READ
ConcurrentDeleteReadException: essa transação tentou ler um ou mais arquivos que foram excluídos (por exemplo <file>
) por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONCURRENT_TRANSACTION
ConcurrentTransactionException: esse erro ocorre quando várias consultas de streaming estão usando o mesmo ponto de verificação para gravar nesta tabela. Você executou várias instâncias da mesma consulta de streaming ao mesmo tempo?<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONCURRENT_WRITE
ConcurrentWriteException: uma transação simultânea gravou novos dados desde que a transação atual leu a tabela. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_CONFLICT_SET_COLUMN
Há um conflito devido a essas colunas SET: <columnList>
.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_COMMAND
Durante <command>
o , a configuração "<configuration>
" não pode ser definida a partir do comando. Remova-o da cláusula TBLPROPERTIES e tente novamente o comando.
DELTA_CONF_OVERRIDE_NOT_SUPPORTED_IN_SESSION
Durante <command>
o , a configuração "<configuration>
" não pode ser definida nas configurações do SparkSession. Por favor, desconfigure-o executando spark.conf.unset("<configuration>")
e tente novamente o comando.
DELTA_CONSTRAINT_ALREADY_EXISTS
A restrição ‘<constraintName>
’ já existe. Exclua a restrição antiga primeiro.
Restrição antiga:
<oldConstraint>
DELTA_CONSTRAINT_DATA_TYPE_MISMATCH
A coluna <columnName>
tem tipo de dados <columnType>
e não pode ser alterada para o tipo de dados <dataType>
porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
DELTA_CONSTRAINT_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName>
porque essa coluna é referenciada pelas seguintes restrições de verificação:
<constraints>
DELTA_CONSTRAINT_DOES_NOT_EXIST
Não é possível remover a restrição inexistente <constraintName>
da tabela <tableName>
. Para evitar a geração de um erro, forneça o parâmetro IF EXISTS ou defina a configuração da sessão SQL de <config>
para <confValue>
.
DELTA_CONVERSION_NO_PARTITION_FOUND
Não foi encontrada nenhuma informação de partição no catálogo da tabela <tableName>
. Você executou "MSCK REPAIR TABLE" em sua tabela para descobrir partições?
DELTA_CONVERSION_UNSUPPORTED_COLLATED_PARTITION_COLUMN
Não é possível converter a tabela Parquet com coluna <colName>
de partição agrupada em Delta.
DELTA_CONVERSION_UNSUPPORTED_COLUMN_MAPPING
A configuração ‘<config>
’ não pode ser definida para <mode>
ao usar CONVERT TO DELTA.
DELTA_CONVERT_NON_PARQUET_TABLE
CONVERT TO DELTA só dá suporte a tabelas parquet, mas você está tentando converter uma fonte <sourceName>
: <tableId>
DELTA_CONVERT_TO_DELTA_ROW_TRACKING_WITHOUT_STATS
Não é possível habilitar o rastreamento de linhas sem coletar estatísticas.
Se você quiser habilitar o acompanhamento de linhas, faça o seguinte:
Habilite a coleta de estatísticas executando o comando
SET
<statisticsCollectionPropertyKey>
= true- Execute CONVERT TO DELTA sem a opção NO STATISTICS.
Se não quiser coletar estatísticas, desabilite o acompanhamento de linhas:
Desative a habilitação do recurso de tabela por padrão executando o comando:
RESET
<rowTrackingTableFeatureDefaultKey>
Desative a propriedade da tabela por padrão ao executar:
SET
<rowTrackingDefaultPropertyKey>
= false
DELTA_COPY_INTO_TARGET_FORMAT
O destino COPY INTO deve ser uma tabela Delta.
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_SCHEMA
Você está tentando criar uma tabela externa <tableName>
com base em <path>
usando Delta, mas o esquema não é especificado quando o
caminho de entrada está vazio.
Para saber mais sobre o Delta, consulte <docLink>
DELTA_CREATE_EXTERNAL_TABLE_WITHOUT_TXN_LOG
Você está tentando criar uma tabela externa <tableName>
com base em %2$s
usando o Delta, mas não há nenhum log de transações presente em
%2$s/_delta_log
. Verifique o trabalho upstream para verificar se ele está gravando usando
o formato ("delta") e que o caminho é a raiz da tabela.
Para saber mais sobre o Delta, consulte <docLink>
DELTA_CREATE_TABLE_IDENTIFIER_LOCATION_MISMATCH
Não há suporte para a criação de uma tabela Delta baseada em caminho com um local diferente. Identificador: <identifier>
, Local: <location>
DELTA_CREATE_TABLE_MISSING_TABLE_NAME_OR_LOCATION
O nome ou o local da tabela deve ser especificado.
DELTA_CREATE_TABLE_SCHEME_MISMATCH
O esquema especificado não corresponde ao esquema existente em <path>
.
== Especificado ==
<specifiedSchema>
== Existente ==
<existingSchema>
== Diferenças ==
<schemaDifferences>
Se sua intenção é manter o esquema existente, você pode omitir o
esquema do comando create table. Caso contrário, verifique se
o esquema corresponde.
DELTA_CREATE_TABLE_SET_CLUSTERING_TABLE_FEATURE_NOT_ALLOWED
Não é possível habilitar o recurso de tabela <tableFeature>
usando TBLPROPERTIES. Use CREATE OR REPLACE TABLE CLUSTER BY para criar uma tabela Delta com clustering.
DELTA_CREATE_TABLE_WITH_DIFFERENT_CLUSTERING
As colunas de clustering especificadas não correspondem às colunas de clustering existentes em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PARTITIONING
O particionamento especificado não corresponde ao particionamento existente em <path>
.
== Especificado ==
<specifiedColumns>
== Existente ==
<existingColumns>
DELTA_CREATE_TABLE_WITH_DIFFERENT_PROPERTY
As propriedades especificadas não correspondem às propriedades existentes em <path>
.
== Especificado ==
<specifiedProperties>
== Existente ==
<existingProperties>
DELTA_CREATE_TABLE_WITH_NON_EMPTY_LOCATION
Não é possível criar a tabela (‘<tableId>
’). O local associado (‘<tableLocation>
’) não está vazio e também não é uma tabela Delta.
DELTA_DATA_CHANGE_FALSE
Não é possível alterar os metadados da tabela porque a opção 'dataChange' está definida como false. Tentativa de operação: ‘<op>
’.
DELTA_DELETED_PARQUET_FILE_NOT_FOUND
Não é possível encontrar um arquivo <filePath>
referenciado no log de transações. Esse arquivo parquet pode ser excluído na política de retenção de dados da tabela Delta.
Duração da retenção de dados Delta padrão: <logRetentionPeriod>
. Hora de modificação do arquivo parquet: <modificationTime>
. Hora de exclusão do arquivo parquet: <deletionTime>
. Excluído na versão Delta: <deletionVersion>
.
DELTA_DELETION_VECTOR_MISSING_NUM_RECORDS
É inválido fazer commit de arquivos com vetores de exclusão que não tenham a estatística numRecords.
DELTA_DOMAIN_METADATA_NOT_SUPPORTED
Foram detectadas ações DomainMetadata para domínios <domainNames>
, mas DomainMetadataTableFeature não está habilitado.
DELTA_DROP_COLUMN_AT_INDEX_LESS_THAN_ZERO
O índice <columnIndex>
para remover a coluna é inferior a 0
DELTA_DROP_COLUMN_ON_SINGLE_FIELD_SCHEMA
Não é possível remover a coluna de um esquema com uma única coluna. Esquema:
<schema>
DELTA_DUPLICATE_ACTIONS_FOUND
A operação de arquivo ‘<actionType>
’ para o caminho <path>
foi especificada várias vezes.
Está em conflito com <conflictingPath>
.
Não é válido que várias operações de arquivo com o mesmo caminho existam em um único commit.
DELTA_DUPLICATE_COLUMNS_FOUND
Colunas duplicadas encontradas <coltype>
: <duplicateCols>
DELTA_DUPLICATE_COLUMNS_ON_INSERT
Nomes das colunas duplicadas na cláusula INSERT
DELTA_DUPLICATE_COLUMNS_ON_UPDATE_TABLE
<message>
Remova as colunas duplicadas antes de atualizar sua tabela.
DELTA_DUPLICATE_DATA_SKIPPING_COLUMNS
Foram encontrados dados duplicados ignorando colunas: <columns>
.
DELTA_DUPLICATE_DOMAIN_METADATA_INTERNAL_ERROR
Erro interno: duas ações DomainMetadata na mesma transação têm o mesmo domínio <domainName>
DELTA_DV_HISTOGRAM_DESERIALIZATON
Não foi possível desserializar o histograma de contagens de registros excluídos durante a verificação de integridade da tabela.
DELTA_DYNAMIC_PARTITION_OVERWRITE_DISABLED
O modo de substituição de partição dinâmica é especificado por opções de gravação ou configuração de sessão, mas é desabilitado por spark.databricks.delta.dynamicPartitionOverwrite.enabled=false
.
DELTA_EMPTY_DATA
Os dados usados na criação da tabela Delta não têm colunas.
DELTA_EMPTY_DIRECTORY
Nenhum arquivo encontrado no diretório: <directory>
.
DELTA_EXCEED_CHAR_VARCHAR_LIMIT
O valor "<value>
" excede a limitação de comprimento do tipo char/varchar. Verificação com falha: <expr>
.
DELTA_FAILED_CAST_PARTITION_VALUE
Falha ao converter o valor <value>
para <dataType>
da partição
DELTA_FAILED_FIND_ATTRIBUTE_IN_OUTPUT_COLUMNS
Não foi possível localizar <newAttributeName>
entre a saída de destino existente <targetOutputColumns>
DELTA_FAILED_INFER_SCHEMA
Falha ao inferir o esquema da lista de arquivos fornecida.
DELTA_FAILED_MERGE_SCHEMA_FILE
Falha ao mesclar o esquema do arquivo <file>
:
<schema>
DELTA_FAILED_READ_FILE_FOOTER
Não foi possível ler o rodapé do arquivo: <currentFile>
DELTA_FAILED_RECOGNIZE_PREDICATE
Não é possível reconhecer o predicado ‘<predicate>
’
DELTA_FAILED_SCAN_WITH_HISTORICAL_VERSION
Espere uma verificação completa da versão mais recente da fonte Delta, mas encontrou uma verificação do histórico da versão <historicalVersion>
DELTA_FAILED_TO_MERGE_FIELDS
Falha ao mesclar os campos ‘<currentField>
’ e ‘<updateField>
’
DELTA_FEATURES_PROTOCOL_METADATA_MISMATCH
Não é possível operar nesta tabela porque os seguintes recursos de tabela estão habilitados em metadados, mas não estão listados no protocolo: <features>
.
DELTA_FEATURES_REQUIRE_MANUAL_ENABLEMENT
Seu esquema de tabela requer a habilitação manual dos seguintes recursos de tabela: <unsupportedFeatures>
.
Para fazer isso, execute o seguinte comando para cada um dos recursos listados acima:
ALTER TABLE table_name SET TBLPROPERTIES ('delta.feature.feature_name' = 'supported')
Substitua “table_name” e “feature_name” por valores reais.
Recursos atualmente com suporte: <supportedFeatures>
.
DELTA_FEATURE_DROP_CONFLICT_REVALIDATION_FAIL
Não é possível descartar o recurso porque uma transação simultânea modificou a tabela.
Repita a operação.
<concurrentCommit>
DELTA_FEATURE_DROP_DEPENDENT_FEATURE
Não é possível descartar o recurso de tabela <feature>
porque alguns outros recursos (<dependentFeatures>
) nesta tabela dependem <feature>
.
Considere removê-los primeiro antes de descartar esse recurso.
DELTA_FEATURE_DROP_FEATURE_NOT_PRESENT
Não é possível remover <feature>
dessa tabela porque no momento ela não está presente no protocolo da tabela.
DELTA_FEATURE_DROP_HISTORICAL_VERSIONS_EXIST
Não é possível descartar <feature>
porque o log Delta contém versões históricas que usam o recurso.
Aguarde até o período de retenção do histórico (<logRetentionPeriodKey>
=<logRetentionPeriod>
)
passou desde que o recurso foi ativo pela última vez.
Como alternativa, aguarde até que o período de retenção TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>
)
e execute:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_DROP_HISTORY_TRUNCATION_NOT_ALLOWED
O recurso específico não requer truncamento de histórico.
DELTA_FEATURE_DROP_NONREMOVABLE_FEATURE
Não é possível remover <feature>
porque não há suporte para a remoção desse recurso.
Entre em contato com o suporte do Databricks.
DELTA_FEATURE_DROP_UNSUPPORTED_CLIENT_FEATURE
Não é possível remover <feature>
porque não há suporte para essa versão do Databricks.
Considere usar o Databricks com uma versão superior.
DELTA_FEATURE_DROP_WAIT_FOR_RETENTION_PERIOD
A remoção <feature>
foi parcialmente bem-sucedida.
O recurso agora não é mais usado na versão atual da tabela. No entanto, o recurso
ainda está presente em versões históricas da tabela. O recurso de tabela não pode ser descartado
do protocolo da tabela até que essas versões históricas tenham expirado.
Para remover o recurso de tabela do protocolo, aguarde até que as versões históricas
expirem e repita esse comando. O período de retenção para versões históricas está
configurado como <logRetentionPeriodKey>
=<logRetentionPeriod>
no momento.
Como alternativa, aguarde até que o período de retenção TRUNCATE HISTORY expire (<truncateHistoryLogRetentionPeriod>
)
e execute:
ALTER TABLE table_name DROP FEATURE feature_name TRUNCATE HISTORY
DELTA_FEATURE_REQUIRES_HIGHER_READER_VERSION
Não é possível habilitar o recurso de tabela <feature>
porque ele exige uma versão de protocolo de leitor superior (atual <current>
). Considere atualizar a versão do protocolo de leitor da tabela para <required>
, ou para uma versão que dê suporte a recursos de tabela de leitor. Consulte <docLink>
para obter mais informações sobre versões de protocolo de tabela.
DELTA_FEATURE_REQUIRES_HIGHER_WRITER_VERSION
Não é possível habilitar o recurso de tabela <feature>
porque ele exige uma versão de protocolo de gravador superior (atual <current>
). Considere atualizar a versão do protocolo de gravador da tabela para <required>
, ou para uma versão que dê suporte a recursos de tabela de gravador. Consulte <docLink>
para obter mais informações sobre versões de protocolo de tabela.
DELTA_FILE_ALREADY_EXISTS
Caminho do arquivo existente <path>
DELTA_FILE_LIST_AND_PATTERN_STRING_CONFLICT
Não é possível especificar a lista de arquivos e a cadeia de caracteres do padrão.
DELTA_FILE_NOT_FOUND
Caminho do arquivo <path>
DELTA_FILE_NOT_FOUND_DETAILED
Não é possível encontrar um arquivo <filePath>
referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE
. Para obter mais informações, consulte <faqPath>
.
DELTA_FILE_OR_DIR_NOT_FOUND
Esse arquivo ou diretório não existe: <path>
DELTA_FILE_TO_OVERWRITE_NOT_FOUND
O arquivo (<path>
) a ser gravado novamente não foi encontrado entre os arquivos candidatos:
<pathList>
DELTA_FOUND_MAP_TYPE_COLUMN
Um MapType foi encontrado. Para acessar a chave ou o valor de um MapType, especifique um
de:
<key>
ou
<value>
seguido pelo nome da coluna (somente se essa coluna for um tipo struct).
por exemplo, mymap.key.mykey
Se a coluna for um tipo básico, mymap.key ou mymap.value será suficiente.
Esquema:
<schema>
DELTA_GENERATED_COLUMNS_DATA_TYPE_MISMATCH
A coluna <columnName>
tem tipo de dados <columnType>
e não pode ser alterada para o tipo de dados <dataType>
porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>
DELTA_GENERATED_COLUMNS_DEPENDENT_COLUMN_CHANGE
Não é possível alterar a coluna <columnName>
porque essa coluna é referenciada pelas seguintes colunas geradas:
<generatedColumns>
DELTA_GENERATED_COLUMNS_EXPR_TYPE_MISMATCH
O tipo de expressão da coluna gerada <columnName>
é <expressionType>
, mas o tipo de coluna é <columnType>
DELTA_GENERATED_COLUMN_UPDATE_TYPE_MISMATCH
A coluna <currentName>
é uma coluna gerada ou uma coluna usada por uma coluna gerada. O tipo de dados é <currentDataType>
e não pode ser convertido para o tipo de dados <updateDataType>
DELTA_ICEBERG_COMPAT_VIOLATION
A validação do IcebergCompatV<version>
falhou.
Para obter mais detalhes, consulte DELTA_ICEBERG_COMPAT_VIOLATION
DELTA_IDENTITY_COLUMNS_ALTER_COLUMN_NOT_SUPPORTED
ALTER TABLE ALTER COLUMN não é suportado para colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_ALTER_NON_DELTA_FORMAT
ALTER TABLE ALTER COLUMN SYNC IDENTITY só é suportado pela Delta.
DELTA_IDENTITY_COLUMNS_ALTER_NON_IDENTITY_COLUMN
ALTER TABLE ALTER COLUMN SYNC IDENTITY não pode ser chamado em colunas que não sejam IDENTITY.
DELTA_IDENTITY_COLUMNS_EXPLICIT_INSERT_NOT_SUPPORTED
Não há suporte para o fornecimento de valores para a coluna <colName>
GENERATED ALWAYS AS IDENTITY.
DELTA_IDENTITY_COLUMNS_ILLEGAL_STEP
A etapa da coluna IDENTITY não pode ser 0.
DELTA_IDENTITY_COLUMNS_NON_DELTA_FORMAT
As colunas IDENTITY são suportadas apenas pela Delta.
DELTA_IDENTITY_COLUMNS_PARTITION_NOT_SUPPORTED
Não há suporte para a coluna <colName>
PARTITIONED BY IDENTITY.
DELTA_IDENTITY_COLUMNS_REPLACE_COLUMN_NOT_SUPPORTED
ALTER TABLE REPLACE COLUMNS não é suportado para tabela com colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_UNSUPPORTED_DATA_TYPE
Não há suporte para DataType <dataType>
para colunas IDENTITY.
DELTA_IDENTITY_COLUMNS_UPDATE_NOT_SUPPORTED
UPDATE na coluna <colName>
IDENTITY não é suportada.
DELTA_IDENTITY_COLUMNS_WITH_GENERATED_EXPRESSION
A coluna IDENTITY não pode ser especificada com uma expressão de coluna gerada.
DELTA_ILLEGAL_OPTION
Valor inválido ‘<input>
’ para a opção ‘<name>
’, <explain>
DELTA_ILLEGAL_USAGE
O uso de <option>
não é permitido quando <operation>
se trata de uma tabela Delta.
DELTA_INCONSISTENT_BUCKET_SPEC
BucketSpec na tabela Delta com bucket não corresponde a BucketSpec de metadata.Esperado: <expected>
. Atual: <actual>
.
DELTA_INCONSISTENT_LOGSTORE_CONFS
(<setKeys>
) não pode ser definido como valores diferentes. Defina apenas um deles ou ambos como o mesmo valor.
DELTA_INCORRECT_ARRAY_ACCESS
Um ArrayType está sendo acessado incorretamente. Use a posição arrayname.element.elementname para
adicionar a uma matriz.
DELTA_INCORRECT_ARRAY_ACCESS_BY_NAME
Um ArrayType foi encontrado. Para acessar elementos de um ArrayType, especifique
<rightName>
em vez de<wrongName>
.
Esquema:
<schema>
DELTA_INCORRECT_GET_CONF
Usar getConf()
em vez de 'conf.getConf()
DELTA_INCORRECT_LOG_STORE_IMPLEMENTATION
O erro normalmente ocorre quando a implementação padrão do LogStore, que
é HDFSLogStore, é usado para gravar em uma tabela Delta em um sistema de armazenamento não HDFS.
Para obter as garantias ACID transacionais em atualizações de tabela, você precisa usar a
implementação correta do LogStore que é apropriada para o seu sistema de armazenamento.
Para obter detalhes, consulte <docLink>
.
DELTA_INDEX_LARGER_OR_EQUAL_THAN_STRUCT
O índice <position>
para remover a coluna é igual ou maior que o comprimento do struct: <length>
DELTA_INDEX_LARGER_THAN_STRUCT
O índice <index>
para adicionar a coluna <columnName>
é maior que o comprimento do struct: <length>
DELTA_INSERT_COLUMN_ARITY_MISMATCH
Não é possível gravar para ‘<tableName>
’, <columnName>
; a tabela de destino tem <numColumns>
colunas, mas os dados inseridos têm <insertColumns>
colunas
DELTA_INSERT_COLUMN_MISMATCH
A coluna <columnName>
não é especificada em INSERT
DELTA_INVALID_AUTO_COMPACT_TYPE
Tipo de compactação automática inválido: <value>
. Os valores permitidos são: <allowed>
.
DELTA_INVALID_BUCKET_COUNT
Contagem de buckets inválida: <invalidBucketCount>
. A contagem de buckets deve ser um número positivo que é uma potência de 2 e é no mínimo 8. Você pode usar <validBucketCount>
em vez dela.
DELTA_INVALID_BUCKET_INDEX
Não é possível localizar a coluna bucket nas colunas de partição
DELTA_INVALID_CALENDAR_INTERVAL_EMPTY
O intervalo não pode ser nulo nem em branco.
DELTA_INVALID_CDC_RANGE
O intervalo do CDC do início <start>
ao fim <end>
era inválido. O fim não pode estar antes do início.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAME
O nome do atributo “<columnName>
” contém caracteres inválidos entre “ ,;{}()\n\t=”. Use o alias para renomeá-lo.
DELTA_INVALID_CHARACTERS_IN_COLUMN_NAMES
Encontrados caracteres inválidos entre ' ,;{}()nt=' nos nomes de coluna do esquema.
Nomes de coluna inválidos: <invalidColumnNames>
.
Use outros caracteres e tente novamente.
Como alternativa, habilite o Mapeamento de Colunas para continuar usando esses caracteres.
DELTA_INVALID_CLONE_PATH
O local de destino para CLONE precisa ser um caminho absoluto ou um nome de tabela. Usar um
caminho absoluto em vez de <path>
.
DELTA_INVALID_COLUMN_NAMES_WHEN_REMOVING_COLUMN_MAPPING
Encontrados caracteres inválidos entre ' ,;{}()nt=' nos nomes de coluna do esquema.
Nomes de coluna inválidos: <invalidColumnNames>
.
O mapeamento de coluna não pode ser removido quando há caracteres inválidos nos nomes das colunas.
Renomeie as colunas para remover os caracteres inválidos e execute este comando novamente.
DELTA_INVALID_FORMAT
Formato incompatível detectado.
Um log de transações para Delta foi encontrado em <deltaRootPath>
/_delta_log``,
mas você está tentando <operation>
<path>
usando o formato(“<format>
”). É necessário usar
‘format(“delta”)’ ao ler e gravar em uma tabela delta.
Para saber mais sobre o Delta, consulte <docLink>
DELTA_INVALID_GENERATED_COLUMN_REFERENCES
Uma coluna gerada não pode usar uma coluna inexistente ou outra coluna gerada
DELTA_INVALID_IDEMPOTENT_WRITES_OPTIONS
Opções inválidas para gravações de quadro de dados idempotentes: <reason>
DELTA_INVALID_INTERVAL
<interval>
não é um INTERVAL válido.
DELTA_INVALID_INVENTORY_SCHEMA
O esquema do INVENTORY especificado não contém todos os campos necessários. Os campos necessários são: <expectedSchema>
DELTA_INVALID_ISOLATION_LEVEL
Nível de isolamento inválido ‘<isolationLevel>
’
DELTA_INVALID_LOGSTORE_CONF
(<classConfig>
) e (<schemeConfig>
) não podem ser definidos ao mesmo tempo. Defina apenas um grupo deles.
DELTA_INVALID_MANAGED_TABLE_SYNTAX_NO_SCHEMA
Você está tentando criar uma tabela gerenciada <tableName>
usando Delta, mas o esquema não está especificado.
Para saber mais sobre o Delta, consulte <docLink>
DELTA_INVALID_PARTITION_COLUMN
<columnName>
não é uma coluna de partição válida na tabela <tableName>
.
DELTA_INVALID_PARTITION_COLUMN_NAME
Colunas de partição encontradas com caracteres inválidos entre " ,;{}()nt=". Altere o nome para suas colunas de partição. Essa verificação pode ser desativada definindo spark.conf.set(“spark.databricks.delta.partitionColumnValidity.enabled”, false), no entanto, isso não é recomendado, pois outros recursos do Delta podem não funcionar corretamente.
DELTA_INVALID_PARTITION_COLUMN_TYPE
Não há suporte para uso da coluna <name>
do tipo <dataType>
como uma coluna de partição.
DELTA_INVALID_PARTITION_PATH
Um fragmento de caminho de partição deve ser de um formato semelhante a part1=foo/part2=bar
. O caminho da partição: <path>
DELTA_INVALID_PROTOCOL_DOWNGRADE
A versão do protocolo não pode ser rebaixada de <oldProtocol>
para <newProtocol>
DELTA_INVALID_PROTOCOL_VERSION
Versão do protocolo Delta sem suporte: a tabela “<tableNameOrPath>
” requer a versão <readerRequired>
do leitor e versão <writerRequired>
do gravador, mas essa versão do Databricks dá suporte a versões de leitor <supportedReaders>
e versões de gravador <supportedWriters>
. Atualize para uma versão mais recente.
DELTA_INVALID_TABLE_VALUE_FUNCTION
A função <function>
é uma função com valor de tabela sem suporte para leituras CDC.
DELTA_INVALID_TIMESTAMP_FORMAT
O carimbo de data/hora <timestamp>
fornecido não corresponde à sintaxe esperada <format>
.
DELTA_LOG_ALREADY_EXISTS
Já existe um log Delta em <path>
DELTA_LOG_FILE_NOT_FOUND_FOR_STREAMING_SOURCE
Se ela nunca foi excluída, é provável que sua consulta apresente atrasos. Exclua o ponto de verificação dela para reiniciar do zero. Para evitar que isso aconteça novamente, é possível atualizar a política de retenção da tabela Delta
DELTA_MATERIALIZED_ROW_TRACKING_COLUMN_NAME_MISSING
O nome da coluna materializada <rowTrackingColumn>
está faltando no <tableName>
.
DELTA_MAX_ARRAY_SIZE_EXCEEDED
Use um limite menor que Int.MaxValue: 8.
DELTA_MAX_COMMIT_RETRIES_EXCEEDED
Esse commit falhou, pois foram realizadas <numAttempts>
tentativas de realizá-lo, sem êxito.
Isso pode ser causado pela tabela Delta fazendo commit continuamente por muitos commits
simultâneos.
Commit iniciado na versão: <startVersion>
Falha no commit na versão: <failVersion>
Número de ações que tentaram fazer commit: <numActions>
Tempo total gasto ao tentar fazer esse commit: <timeSpent>
ms
DELTA_MAX_LIST_FILE_EXCEEDED
A lista de arquivos deve ter no máximo <maxFileListSize>
entradas, tinha <numFiles>
.
DELTA_MERGE_ADD_VOID_COLUMN
Não é possível adicionar coluna <newColumn>
com o tipo VOID. Especifique explicitamente um tipo não nulo.
DELTA_MERGE_INCOMPATIBLE_DATATYPE
Falha ao mesclar tipos de dados <currentDataType>
e <updateDataType>
incompatíveis
DELTA_MERGE_INCOMPATIBLE_DECIMAL_TYPE
Falha ao mesclar tipos decimais com <decimalRanges>
incompatíveis
DELTA_MERGE_MATERIALIZE_SOURCE_FAILED_REPEATEDLY
Manter a fonte da instrução MERGE materializada tem falhado repetidamente.
DELTA_MERGE_MISSING_WHEN
Deve haver pelo menos uma cláusula WHEN em uma instrução MERGE.
DELTA_MERGE_RESOLVED_ATTRIBUTE_MISSING_FROM_INPUT
Atributos <missingAttributes>
resolvidos ausentes de <input>
no operador <merge>
DELTA_MERGE_UNEXPECTED_ASSIGNMENT_KEY
Chave de atribuição inesperada: <unexpectedKeyClass>
- <unexpectedKeyObject>
DELTA_MERGE_UNRESOLVED_EXPRESSION
Não é possível resolver <sqlExpr>
em <clause>
com <cols>
fornecido.
DELTA_METADATA_CHANGED
MetadataChangedException: os metadados da tabela Delta foram alterados por uma atualização simultânea. Tente a operação novamente.<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_MISSING_CHANGE_DATA
Erro ao obter dados de alteração para intervalo [<startVersion>
, <endVersion>
], pois os dados de alteração não foram
registrados para a versão [<version>
]. Se você habilitou o feed de dados de alterações nesta tabela,
use DESCRIBE HISTORY
para ver quando ele foi habilitado pela primeira vez.
Caso contrário, para começar a gravar dados de alterações, use 'ALTER TABLE table_name SET TBLPROPERTIES
(<key>
=true)`.
DELTA_MISSING_COLUMN
Não é possível localizar <columnName>
em colunas de tabela: <columnList>
DELTA_MISSING_COMMIT_INFO
Esta tabela tem o recurso <featureName>
habilitado que requer a presença da ação CommitInfo em cada confirmação. No entanto, a ação CommitInfo está ausente da versão de confirmação <version>
.
DELTA_MISSING_COMMIT_TIMESTAMP
Esta tabela tem o recurso <featureName>
habilitado que requer a presença de commitTimestamp na ação CommitInfo. No entanto, esse campo não foi definido na versão de confirmação <version>
.
DELTA_MISSING_DELTA_TABLE
<tableName>
não é uma tabela Delta.
DELTA_MISSING_DELTA_TABLE_COPY_INTO
A tabela não existe. Crie uma tabela Delta vazia primeiro usando CREATE TABLE <tableName>
.
DELTA_MISSING_ICEBERG_CLASS
A classe do Iceberg não foi encontrada. Verifique se o suporte ao Delta Iceberg está instalado.
Consulte <docLink>
para obter mais detalhes.
DELTA_MISSING_NOT_NULL_COLUMN_VALUE
A coluna <columnName>
, que tem uma restrição NOT NULL, está ausente dos dados que estão sendo gravados na tabela.
DELTA_MISSING_PARTITION_COLUMN
A coluna de partição <columnName>
não foi encontrada no esquema <columnList>
DELTA_MISSING_PART_FILES
Não foi possível localizar todos os arquivos de parte da versão do ponto de verificação: <version>
DELTA_MISSING_PROVIDER_FOR_CONVERT
CONVERT TO DELTA dá suporte apenas a tabelas parquet. Grave novamente seu destino como parquet.<path>
se for um diretório parquet.
DELTA_MISSING_SET_COLUMN
Coluna SET <columnName>
não encontrou as colunas fornecidas: <columnList>
.
DELTA_MISSING_TRANSACTION_LOG
Formato incompatível detectado.
Você está tentando <operation>
<path>
usando o Delta, mas não há
log de transações presente. Verifique o trabalho upstream para verificar se ele está gravando
usando format("delta") e você está tentando %1$s o caminho base da tabela.
Para saber mais sobre o Delta, consulte <docLink>
DELTA_MODE_NOT_SUPPORTED
O modo especificado ‘<mode>
’ não é compatível. Os modos compatíveis são: <supportedModes>
DELTA_MULTIPLE_CDC_BOUNDARY
Vários argumentos <startingOrEnding>
fornecidos para leitura de CDC. Forneça ou o <startingOrEnding>
Carimbo de data/hora ou a Versão <startingOrEnding>
.
DELTA_MULTIPLE_CONF_FOR_SINGLE_COLUMN_IN_BLOOM_FILTER
Várias configurações de índice de filtro bloom passadas ao comando para a coluna: <columnName>
DELTA_MULTIPLE_SOURCE_ROW_MATCHING_TARGET_ROW_IN_MERGE
Não é possível executar Mesclar, pois várias linhas de fonte corresponderam e tentaram modificar a mesma
linha de destino na tabela Delta de maneiras possivelmente conflitantes. Por semântica SQL de Mesclagem,
quando várias linhas de origem correspondem à mesma linha de destino, o resultado pode ser ambíguo
porque não está claro qual linha de origem deve ser usada para atualizar ou excluir a linha de destino
correspondente. É possível pré-processar a tabela de origem para eliminar a possibilidade de
várias correspondências. Consulte
<usageReference>
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_COMMAND
Durante <command>
o , ambas as configurações de confirmações coordenadas ("delta.coordinatedCommits.commitCoordinator-preview", "delta.coordinatedCommits.commitCoordinatorConf-preview") são definidas no comando ou nenhuma delas. Faltando: "<configuration>
". Especifique essa configuração na cláusula TBLPROPERTIES ou remova a outra configuração e, em seguida, repita o comando novamente.
DELTA_MUST_SET_ALL_COORDINATED_COMMITS_CONFS_IN_SESSION
Durante <command>
o , ambas as configurações de confirmações coordenadas ("coordinatedCommits.commitCoordinator-preview", "coordinatedCommits.commitCoordinatorConf-preview") são definidas nas configurações do SparkSession ou em nenhuma delas. Faltando: "<configuration>
". Defina essa configuração no SparkSession ou desdefina a outra configuração e repita o comando novamente.
DELTA_NAME_CONFLICT_IN_BUCKETED_TABLE
Os seguintes nomes de coluna são reservados somente para uso interno da tabela delta com bucket: <names>
DELTA_NESTED_FIELDS_NEED_RENAME
O esquema de entrada contém campos aninhados que são colocados em maiúsculas de forma diferente da tabela de destino.
Eles precisam ser renomeados para evitar a perda de dados nesses campos durante a gravação no Delta.
Campos:
<fields>
.
Esquema original:
<schema>
DELTA_NESTED_NOT_NULL_CONSTRAINT
O tipo <nestType>
do campo <parent>
contém uma restrição NOT NULL. O Delta não dá suporte a restrições NOT NULL aninhadas em matrizes ou mapas. Para suprimir esse erro e ignorar silenciosamente as restrições especificadas, defina <configKey>
= true.
Tipo <nestType>
analisado:
<nestedPrettyJson>
DELTA_NESTED_SUBQUERY_NOT_SUPPORTED
A subconsulta aninhada não tem suporte na condição <operation>
.
DELTA_NEW_CHECK_CONSTRAINT_VIOLATION
<numRows>
linhas em <tableName>
violam a nova restrição CHECK (<checkConstraint>
)
DELTA_NEW_NOT_NULL_VIOLATION
<numRows>
linhas em <tableName>
violam a nova restrição NOT NULL em <colName>
DELTA_NON_BOOLEAN_CHECK_CONSTRAINT
A restrição CHECK ‘<name>
’ (<expr>
) deve ser uma expressão booliana.
DELTA_NON_DETERMINISTIC_EXPRESSION_IN_GENERATED_COLUMN
Encontrado <expr>
. Uma coluna gerada não pode usar uma expressão não determinística.
DELTA_NON_DETERMINISTIC_FUNCTION_NOT_SUPPORTED
Funções não determinísticas não têm suporte no <operation>
<expression>
DELTA_NON_LAST_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula MATCHED em uma instrução MERGE, somente a última cláusula MATCHED pode omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_BY_SOURCE_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED BY SOURCE em uma instrução MERGE, somente a última cláusula NOT MATCHED BY SOURCE pode omitir a condição.
DELTA_NON_LAST_NOT_MATCHED_CLAUSE_OMIT_CONDITION
Quando há mais de uma cláusula NOT MATCHED em uma instrução MERGE, somente a última cláusula NOT MATCHED pode omitir a condição
DELTA_NON_PARSABLE_TAG
Não foi possível analisar a marca <tag>
.
As marcas de arquivo são: <tagList>
DELTA_NON_PARTITION_COLUMN_ABSENT
Os dados gravados na Delta precisam conter pelo menos uma coluna não particionada.<details>
DELTA_NON_PARTITION_COLUMN_REFERENCE
O predicado faz referência à coluna '', que não é de partição ‘<columnName>
’. Somente as colunas de partição podem ser referenciadas: [<columnList>
]
DELTA_NON_PARTITION_COLUMN_SPECIFIED
As colunas não particionadas <columnList>
são especificadas onde apenas colunas de particionamento são esperadas: <fragment>
.
DELTA_NON_SINGLE_PART_NAMESPACE_FOR_CATALOG
O catálogo delta exige um namespace de parte única, mas <identifier>
contém várias partes.
DELTA_NOT_A_DATABRICKS_DELTA_TABLE
<table>
não é uma tabela Delta. Remova esta tabela primeiro se quiser criá-la com o Databricks Delta.
DELTA_NOT_A_DELTA_TABLE
<tableName>
não é uma tabela Delta. Remova esta tabela primeiro se quiser recriá-la com o Delta Lake.
DELTA_NOT_NULL_COLUMN_NOT_FOUND_IN_STRUCT
Coluna não anulável não encontrada no struct: <struct>
DELTA_NOT_NULL_CONSTRAINT_VIOLATED
Restrição NOT NULL violada para a coluna: <columnName>
.
DELTA_NOT_NULL_NESTED_FIELD
Um campo aninhado não anulável não pode ser adicionado a um pai anulável. Defina a nulidade da coluna pai adequadamente.
DELTA_NO_COMMITS_FOUND
Não foi encontrado nenhum commit em <logPath>
DELTA_NO_RECREATABLE_HISTORY_FOUND
Não foram encontradas commits recriáveis em <logPath>
DELTA_NO_RELATION_TABLE
A tabela <tableIdent>
não foi encontrada
DELTA_NO_START_FOR_CDC_READ
Nenhum startingVersion ou startingTimestamp fornecido para leitura CDC.
DELTA_NULL_SCHEMA_IN_STREAMING_WRITE
O Delta não aceita NullTypes no esquema para gravações de streaming.
DELTA_ONEOF_IN_TIMETRAVEL
Para viagem no tempo, forneça 'timestampAsOf' ou então 'versionAsOf'.
DELTA_ONLY_OPERATION
<operation>
só é compatível com tabelas Delta.
DELTA_OPERATION_MISSING_PATH
Forneça o caminho ou o identificador da tabela para <operation>
.
DELTA_OPERATION_NOT_ALLOWED
Operação não permitida: <operation>
não é compatível com tabelas Delta
DELTA_OPERATION_NOT_ALLOWED_DETAIL
Operação não permitida: <operation>
não é compatível com tabelas Delta: <tableName>
DELTA_OPERATION_NOT_SUPPORTED_FOR_COLUMN_WITH_COLLATION
<operation>
não há suporte para coluna <colName>
com ordenação não padrão <collation>
.
DELTA_OPERATION_NOT_SUPPORTED_FOR_EXPRESSION_WITH_COLLATION
<operation>
não há suporte para expressão <exprText>
porque ela usa ordenação não padrão.
DELTA_OPERATION_ON_TEMP_VIEW_WITH_GENERATED_COLS_NOT_SUPPORTED
O comando <operation>
em uma exibição temporária referente a uma tabela Delta que contém colunas geradas não é compatível. Execute o comando <operation>
diretamente na tabela Delta
DELTA_OPERATION_ON_VIEW_NOT_ALLOWED
Operação não permitida: <operation>
não pode ser executada em um modo de exibição.
DELTA_OPTIMIZE_FULL_NOT_SUPPORTED
OPTIMIZE FULL só tem suporte para tabelas clusterizadas com colunas de clustering não vazias.
DELTA_OVERWRITE_MUST_BE_TRUE
A opção de cópia overwriteSchema não pode ser especificada sem a definição de OVERWRITE = 'true'.
DELTA_OVERWRITE_SCHEMA_WITH_DYNAMIC_PARTITION_OVERWRITE
'overwriteSchemaV não pode ser usado no modo de substituição de partição dinâmica.
DELTA_PARTITION_COLUMN_CAST_FAILED
Falha ao converter o valor <value>
em <dataType>
para a coluna de partição <columnName>
DELTA_PARTITION_COLUMN_NOT_FOUND
A coluna de partição <columnName>
não foi encontrada no esquema [<schemaMap>
]
DELTA_PARTITION_SCHEMA_IN_ICEBERG_TABLES
O esquema de partição não pode ser especificado ao converter tabelas de Iceberg. Ele é inferido automaticamente.
DELTA_PATH_DOES_NOT_EXIST
<path>
não existe ou não é uma tabela Delta.
DELTA_PATH_EXISTS
Não é possível gravar no caminho <path>
já existente sem a definição de OVERWRITE = 'true'.
DELTA_POST_COMMIT_HOOK_FAILED
A confirmação da versão da tabela Delta <version>
foi bem-sucedida, mas houve um erro ao executar o gancho pós-confirmação <name>
<message>
DELTA_PROTOCOL_CHANGED
ProtocolChangedException: a versão do protocolo da tabela Delta foi alterada por uma atualização simultânea. <additionalInfo>
<conflictingCommit>
Consulte <docLink>
para obter mais detalhes.
DELTA_PROTOCOL_PROPERTY_NOT_INT
A propriedade <key>
do protocolo precisa ser um inteiro. Encontrado <value>
DELTA_READ_FEATURE_PROTOCOL_REQUIRES_WRITE
Não é possível atualizar apenas a versão do protocolo de leitor para usar recursos de tabela. A versão do protocolo de gravador deve ser pelo menos <writerVersion>
para prosseguir. Consulte <docLink>
para obter mais informações sobre versões de protocolo de tabela.
DELTA_READ_TABLE_WITHOUT_COLUMNS
Você está tentando ler uma tabela Delta <tableName>
que não tem colunas.
Grave alguns dados novos na opção mergeSchema = true
para poder ler a tabela.
DELTA_REGEX_OPT_SYNTAX_ERROR
Verifique novamente sua sintaxe para ‘<regExpOption>
’
DELTA_REPLACE_WHERE_IN_OVERWRITE
Você não pode usar o replaceWhere em conjunto com uma substituição por filtro
DELTA_REPLACE_WHERE_MISMATCH
Os dados gravados não estão em conformidade com a condição de substituição parcial da tabela ou a restrição ‘<replaceWhere>
’.
<message>
DELTA_REPLACE_WHERE_WITH_DYNAMIC_PARTITION_OVERWRITE
A expressão 'replaceWhere' e a 'partitionOverwriteMode'='dynamic' não podem ser definidas nas opções DataFrameWriter.
DELTA_REPLACE_WHERE_WITH_FILTER_DATA_CHANGE_UNSET
'replaceWhere' não pode ser usada com filtros de dados quando 'dataChange' estiver definida como false. Filtros: <dataFilters>
DELTA_ROW_ID_ASSIGNMENT_WITHOUT_STATS
Não é possível atribuir IDs de linha sem estatísticas de contagem de linhas.
Colete estatísticas para a tabela executando o seguinte código em um notebook Scala e tente novamente:
import com.databricks.sql.transaction.tahoe.DeltaLog
import com.databricks.sql.transaction.tahoe.stats.StatisticsCollection
import org.apache.spark.sql.catalyst.TableIdentifier
val log = DeltaLog.forTable(spark, TableIdentifier(table_name))
StatisticsCollection.recompute(spark, log)
DELTA_SCHEMA_CHANGED
Alteração de esquema detectada:
esquema de origem de transmissão: <readSchema>
Esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGED_WITH_STARTING_OPTIONS
Alteração de esquema detectada na versão <version>
:
esquema de origem de transmissão: <readSchema>
Esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação. Se o problema persistir após
a alteração para um novo diretório de ponto de verificação, é aconselhável alterar a opção
''startingVersion'' ou ''startingTimestamp'' existente para iniciar de uma versão mais recente do que
<version>
com um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGED_WITH_VERSION
Alteração de esquema detectada na versão <version>
:
esquema de origem de transmissão: <readSchema>
Esquema de arquivo de dados: <dataSchema>
Tente reiniciar a consulta. Se esse problema se repetir entre reinicializações de consulta sem
fazer progresso, você fez uma alteração de esquema incompatível e precisa iniciar sua
consulta do zero usando um novo diretório de ponto de verificação.
DELTA_SCHEMA_CHANGE_SINCE_ANALYSIS
O esquema da tabela Delta foi alterado de maneira incompatível desde que o objeto DataFrame
ou DeltaTable foi criado. Redefina seu objeto DataFrame ou DeltaTable.
Alterações:
<schemaDiff>
<legacyFlagMessage>
DELTA_SCHEMA_NOT_PROVIDED
O esquema da tabela não foi fornecido. Forneça o esquema (definição de coluna) da tabela quando usar a tabela REPLACE e uma consulta AS SELECT não for fornecida.
DELTA_SCHEMA_NOT_SET
O esquema da tabela não está definido. Escreva dados nele ou use CREATE TABLE para definir o esquema.
DELTA_SET_LOCATION_SCHEMA_MISMATCH
O esquema do novo local Delta é diferente do esquema de tabela atual.
esquema original:
<original>
esquema de destino:
<destination>
Se essa for uma alteração pretendida, você poderá desativar essa verificação executando:
%%sql set <config>
= true
DELTA_SHALLOW_CLONE_FILE_NOT_FOUND
Não é possível encontrar um arquivo <filePath>
referenciado no log de transações. Isso ocorre quando os dados são excluídos manualmente do sistema de arquivos em vez de usar a instrução da tabela DELETE
. Esta tabela parece ser um clone superficial. Se esse for o caso, esse erro pode ocorrer quando a tabela original da qual esta tabela foi clonada tiver excluído um arquivo que o clone ainda está usando. Se você quiser que os clones sejam independentes da tabela original, use um clone DEEP em vez disso.
DELTA_SHARING_CANNOT_MODIFY_RESERVED_RECIPIENT_PROPERTY
As propriedades predefinidas que começam com <prefix>
não podem ser modificadas.
DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
Os dados são restritos pela propriedade do destinatário <property>
que não se aplicam ao destinatário atual na sessão.
Para obter mais detalhes, confira DELTA_SHARING_CURRENT_RECIPIENT_PROPERTY_UNDEFINED
DELTA_SHARING_INVALID_OP_IN_EXTERNAL_SHARED_VIEW
O <operation>
não pode ser usado em exibições de compartilhamento Delta que são compartilhadas entre contas.
DELTA_SHARING_INVALID_PROVIDER_AUTH
Tipo de autenticação <authenticationType>
ilegal para provedor <provider>
.
DELTA_SHARING_INVALID_RECIPIENT_AUTH
Tipo de autenticação <authenticationType>
ilegal para destinatário <recipient>
.
DELTA_SHARING_INVALID_SHARED_DATA_OBJECT_NAME
Nome inválido para fazer referência a um <type>
dentro de um Share. Você pode usar <type>
o nome de 's dentro do compartilhamento seguindo o formato de [schema].[<type>
], ou também pode usar o nome completo original da tabela seguindo o formato de [catalog].[ esquema]. [>tipo>].
Se você não tiver certeza sobre qual nome usar, você pode executar "MOSTRAR TUDO EM COMPARTILHAR [compartilhar]" e encontrar o nome do <type>
para remover: coluna "nome" é o <type>
nome do dentro do compartilhamento e coluna "shared_object" é o nome completo original do <type>
.
DELTA_SHARING_MAXIMUM_RECIPIENT_TOKENS_EXCEEDED
Existem mais de dois tokens para o destinatário <recipient>
.
DELTA_SHARING_RECIPIENT_PROPERTY_NOT_FOUND
A propriedade <property>
do destinatário não existe.
DELTA_SHARING_RECIPIENT_TOKENS_NOT_FOUND
Os tokens de destinatário estão ausentes para o destinatário <recipient>
.
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_COLUMN
Colunas não particionadas <badCols>
são especificadas para SHOW PARTITIONS
DELTA_SHOW_PARTITION_IN_NON_PARTITIONED_TABLE
SHOW PARTITIONS não é permitido em uma tabela que não está particionada: <tableName>
DELTA_SOURCE_IGNORE_DELETE
Dados excluídos detectados (por exemplo <removedFile>
) da fonte de transmissão na versão <version>
. Não há suporte para esse recurso no momento. Se você quiser ignorar exclusões, defina a opção 'ignoreDeletes' como 'true'. A tabela de origem pode ser encontrada no caminho <dataPath>
.
DELTA_SOURCE_TABLE_IGNORE_CHANGES
Detectou uma atualização de dados (por exemplo <file>
) na tabela de origem na versão <version>
. Não há suporte para esse recurso no momento. Se isso acontecer regularmente e você não quiser ignorar as alterações, defina a opção ‘skipChangeCommits’ como ‘true’. Se você quiser que a atualização de dados seja refletida, reinicie essa consulta com um novo diretório de ponto de verificação ou atualize tudo se estiver usando DLT. Se você precisar lidar com essas alterações, alterne para MVs. A tabela de origem pode ser encontrada no caminho <dataPath>
.
DELTA_STARTING_VERSION_AND_TIMESTAMP_BOTH_SET
Ou forneça ‘<version>
’ ou ‘<timestamp>
’
DELTA_STATS_COLLECTION_COLUMN_NOT_FOUND
<statsType>
estatísticas não encontradas para a coluna nos metadados parquet: <columnPath>
.
DELTA_STREAMING_CANNOT_CONTINUE_PROCESSING_POST_SCHEMA_EVOLUTION
Detectamos uma ou mais alterações de esquema não aditivas (<opType>
s) entre a versão <previousSchemaChangeVersion>
e <currentSchemaChangeVersion>
do Delta na fonte de streaming do Delta.
Verifique se deseja propagar manualmente as alterações de esquema para a tabela do coletor antes de prosseguirmos com o processamento de fluxo usando o esquema finalizado em <currentSchemaChangeVersion>
.
Depois de corrigir o esquema da tabela do coletor ou decidir que não há necessidade de corrigir, você pode definir (uma das) seguintes configurações de SQL para desbloquear essas alterações de esquema não aditivas e continuar o processamento da transmissão.
Para desbloquear essa transmissão específica apenas para esta série de alterações de esquema: defina <allowCkptVerKey>` = `<allowCkptVerValue>
.
Para desbloquear para essa transmissão específica: defina <allowCkptKey>` = `<allowCkptValue>
Para desbloquear todas as transmissões: defina <allowAllKey>` = `<allowAllValue>
.
Como alternativa, se aplicável, você pode substituir <allowAllMode>
por <opSpecificMode>
na configuração do SQL para desbloquear a transmissão apenas para esse tipo de alteração de esquema.
DELTA_STREAMING_CHECK_COLUMN_MAPPING_NO_SNAPSHOT
Houve falha ao obter o instantâneo de log do Delta para a versão inicial ao verificar as alterações de esquema de mapeamento de coluna. Escolha uma versão inicial diferente ou force a habilitação da leitura de transmissão por sua conta e risco definindo ‘<config>
’ como ‘true’.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE
A leitura de transmissão não tem suporte em tabelas com alterações de esquema incompatíveis com a leitura (por exemplo, renomear ou remover ou alterar tipo de dados).
Para obter mais informações e as próximas etapas possíveis para resolver esse problema, examine a documentação em <docLink>
Esquema de leitura: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
DELTA_STREAMING_INCOMPATIBLE_SCHEMA_CHANGE_USE_SCHEMA_LOG
A leitura de transmissão não tem suporte em tabelas com alterações de esquema incompatíveis com a leitura (por exemplo, renomear ou remover ou alterar tipo de dados).
Forneça um 'schemaTrackingLocation' para habilitar a evolução não aditiva do esquema para o processamento de fluxo Delta.
Confira <docLink>
para saber mais.
Esquema de leitura: <readSchema>
. Esquema de dados incompatível: <incompatibleSchema>
.
DELTA_STREAMING_METADATA_EVOLUTION
O esquema, a configuração de tabela ou o protocolo da tabela Delta foram alterados durante o streaming.
O log de rastreamento de esquemas ou metadados foi atualizado.
Reinicie o stream para continuar processando usando os metadados atualizados.
Esquema atualizado: <schema>
.
Configurações de tabela atualizadas: <config>
.
Protocolo de tabela atualizado: <protocol>
DELTA_STREAMING_SCHEMA_EVOLUTION_UNSUPPORTED_ROW_FILTER_COLUMN_MASKS
O streaming da tabela de origem <tableId>
com acompanhamento de esquema não dá suporte a filtros de linha ou máscaras de coluna.
Remova os filtros de linha ou as máscaras de coluna, ou desabilite o acompanhamento de esquema.
DELTA_STREAMING_SCHEMA_LOCATION_CONFLICT
Detectado o local de esquema conflitante ‘<loc>
’ durante a transmissão da tabela ou da tabela localizada em ‘<table>
’.
Outra transmissão pode estar reutilizando o mesmo local de esquema, o que não é permitido.
Forneça um novo caminho exclusivo schemaTrackingLocation
ou streamingSourceTrackingId
como uma opção de leitor para uma das transmissões desta tabela.
DELTA_STREAMING_SCHEMA_LOCATION_NOT_UNDER_CHECKPOINT
O local do esquema ‘<schemaTrackingLocation>
’ deve ser colocado sob o local do ponto de verificação ‘<checkpointLocation>
’.
DELTA_STREAMING_SCHEMA_LOG_DESERIALIZE_FAILED
Arquivo de log incompleto no log de esquema da origem de transmissão Delta em ‘<location>
’.
O log do esquema pode ter sido corrompido. Escolha um novo local do esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_DELTA_TABLE_ID
Foi detectada uma ID de tabela Delta incompatível durante a leitura da transmissão Delta.
ID da tabela persistente: <persistedId>
, ID da tabela: <tableId>
O log do esquema pode ter sido reutilizado. Escolha um novo local do esquema.
DELTA_STREAMING_SCHEMA_LOG_INCOMPATIBLE_PARTITION_SCHEMA
Foi detectado um esquema de partição incompatível ao tentar a leitura da transmissão Delta.
Esquema persistente: <persistedSchema>
, esquema de partição Delta: <partitionSchema>
Escolha um novo local de esquema para reinicializar o log do esquema se você tiver alterado manualmente o esquema de partição da tabela recentemente.
DELTA_STREAMING_SCHEMA_LOG_INIT_FAILED_INCOMPATIBLE_METADATA
Não foi possível inicializar o registro do esquema de origem do streaming Delta porque
detectamos uma alteração incompatível de esquema ou protocolo ao servir um lote de streaming da versão da tabela <a>
para <b>
.
DELTA_STREAMING_SCHEMA_LOG_PARSE_SCHEMA_FAILED
Falha ao analisar o esquema do log de esquema de origem de transmissão Delta.
O log do esquema pode ter sido corrompido. Escolha um novo local do esquema.
DELTA_TABLE_ALREADY_CONTAINS_CDC_COLUMNS
Não é possível habilitar a captura de dados de alterações na tabela. A tabela já contém
colunas <columnList>
reservadas que
serão usadas internamente como metadados para o feed de dados de alterações da tabela. Para habilitar
o feed de dados de alterações na tabela, renomeie/remova essas colunas.
DELTA_TABLE_ALREADY_EXISTS
A tabela <tableName>
já existe.
DELTA_TABLE_FOR_PATH_UNSUPPORTED_HADOOP_CONF
Atualmente, o DeltaTable.forPath dá suporte apenas a chaves de configuração do hadoop começando com <allowedPrefixes>
mas obteve <unsupportedOptions>
DELTA_TABLE_ID_MISMATCH
A tabela Delta em <tableLocation>
foi substituída enquanto esse comando estava usando a tabela.
A ID da tabela foi <oldId>
, mas agora está <newId>
.
Tente novamente o comando atual para garantir que ele leia uma exibição consistente da tabela.
DELTA_TABLE_LOCATION_MISMATCH
O local da tabela existente <tableName>
é <existingTableLocation>
. Ele não corresponde ao local especificado <tableLocation>
.
DELTA_TABLE_NOT_FOUND
A tabela Delta <tableName>
não existe.
DELTA_TABLE_NOT_SUPPORTED_IN_OP
A tabela não é compatível com <operation>
. Em vez disso, use um caminho.
DELTA_TABLE_ONLY_OPERATION
<tableName>
não é uma tabela Delta. <operation>
só é compatível com tabelas Delta.
DELTA_TARGET_TABLE_FINAL_SCHEMA_EMPTY
O esquema final da tabela de destino está vazio.
DELTA_TIMESTAMP_GREATER_THAN_COMMIT
O carimbo de data/hora (<providedTimestamp>
) fornecido é posterior à versão mais recente disponível para esta
tabela (<tableName>
). Use um carimbo de data/hora até <maximumTimestamp>
.
DELTA_TIMESTAMP_INVALID
O carimbo de data/hora fornecido (<expr>
) não pode ser convertido em um carimbo de data/hora válido.
DELTA_TIME_TRAVEL_INVALID_BEGIN_VALUE
<timeTravelKey>
precisa ser um valor inicial válido.
DELTA_TRUNCATED_TRANSACTION_LOG
<path>
: não é possível reconstruir o estado na versão <version>
pois o log de transações foi truncado devido à exclusão manual ou à política de retenção de log (<logRetentionKey>
=<logRetention>
) e à política de retenção do ponto de verificação (<checkpointRetentionKey>
=<checkpointRetention>
)
DELTA_TRUNCATE_TABLE_PARTITION_NOT_SUPPORTED
Operação não permitida: TRUNCATE TABLE em tabelas Delta não é compatível com predicados de partição. Use DELETE para excluir partições ou linhas específicas.
DELTA_UDF_IN_GENERATED_COLUMN
Encontrado <udfExpr>
. Uma coluna gerada não pode usar uma função definida pelo usuário
DELTA_UNEXPECTED_ACTION_EXPRESSION
Expressão de ação inesperada <expression>
.
DELTA_UNEXPECTED_NUM_PARTITION_COLUMNS_FROM_FILE_NAME
Esperava <expectedColsSize>
colunas de partição: <expectedCols>
, mas encontrou <parsedColsSize>
colunas de partição: <parsedCols>
da análise do nome do arquivo: <path>
DELTA_UNEXPECTED_PARTIAL_SCAN
Uma verificação completa das fontes Delta era esperada, mas uma verificação parcial foi encontrada. caminho:<path>
DELTA_UNEXPECTED_PARTITION_COLUMN_FROM_FILE_NAME
Esperava <expectedCol>
coluna de partição, mas encontrou <parsedCol>
coluna de partição da análise de nome do arquivo: <path>
DELTA_UNEXPECTED_PARTITION_SCHEMA_FROM_USER
CONVERT TO DELTA foi chamado com um esquema de partição diferente daquele deduzido do catálogo, evite fornecer o esquema para que o esquema de partição possa ser escolhido no catálogo.
esquema de partição do catálogo:
<catalogPartitionSchema>
esquema de partição fornecido:
<userPartitionSchema>
DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
A leitura de Iceberg com Uniforme Delta falhou.
Para obter mais detalhes, consulte DELTA_UNIFORM_ICEBERG_INGRESS_VIOLATION
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED
Não há suporte para criar ou atualizar a tabela de entrada uniforme.
DELTA_UNIFORM_INGRESS_NOT_SUPPORTED_FORMAT
Não há suporte para o formato <fileFormat>
. Há suporte apenas para o iceberg como formato de arquivo original.
DELTA_UNIFORM_NOT_SUPPORTED
O Formato Universal só tem suporte em tabelas do Catálogo do Unity.
DELTA_UNIVERSAL_FORMAT_CONVERSION_FAILED
Falha ao converter a versão <version>
da tabela no formato universal <format>
. <message>
DELTA_UNIVERSAL_FORMAT_VIOLATION
Falha na validação do Formato Universal (<format>
): <violation>
DELTA_UNKNOWN_CONFIGURATION
Configuração desconhecida foi especificada: <config>
DELTA_UNKNOWN_PRIVILEGE
Privilégio desconhecido: <privilege>
DELTA_UNKNOWN_READ_LIMIT
ReadLimit desconhecido: <limit>
DELTA_UNRECOGNIZED_COLUMN_CHANGE
Alteração de coluna não reconhecida <otherClass>
. Você pode estar executando uma versão do Delta Lake desatualizada.
DELTA_UNRECOGNIZED_INVARIANT
Invariável não reconhecida. Atualize sua versão do Spark.
DELTA_UNRECOGNIZED_LOGFILE
Arquivo de log não reconhecido <fileName>
DELTA_UNSET_NON_EXISTENT_PROPERTY
Tentativa de remover definição da propriedade ‘<property>
’ inexistente na tabela <tableName>
DELTA_UNSUPPORTED_ABS_PATH_ADD_FILE
<path>
não dá suporte à adição de arquivos com um caminho absoluto
DELTA_UNSUPPORTED_ALTER_TABLE_CHANGE_COL_OP
ALTER TABLE CHANGE COLUMN não pode ser usado para alteração da coluna <fieldPath>
de <oldField>
para <newField>
DELTA_UNSUPPORTED_ALTER_TABLE_REPLACE_COL_OP
Operação ALTER TABLE REPLACE COLUMNS incompatível. Motivo: <details>
Falha ao alterar o esquema de:
<oldSchema>
para:
<newSchema>
DELTA_UNSUPPORTED_CLONE_REPLACE_SAME_TABLE
Você tentou efetuar REPLACE de uma tabela (<tableName>
) existente com CLONE. Esta operação é
sem suporte. Tente um destino diferente para CLONE ou exclua a tabela no destino atual.
DELTA_UNSUPPORTED_COLUMN_MAPPING_MODE_CHANGE
A alteração do modo de mapeamento de coluna de ‘<oldMode>
’ para ‘<newMode>
’ não é compatível.
DELTA_UNSUPPORTED_COLUMN_MAPPING_PROTOCOL
A versão atual do protocolo de tabela não é compatível com a alteração dos modos de mapeamento de coluna
usando <config>
.
Versão do protocolo Delta exigida para o mapeamento de colunas:
<requiredVersion>
A versão atual do protocolo Delta da tabela:
<currentVersion>
<advice>
DELTA_UNSUPPORTED_COLUMN_MAPPING_SCHEMA_CHANGE
Uma alteração do esquema foi detectada:
esquema antigo:
<oldTableSchema>
novo esquema:
<newTableSchema>
Alterações de esquema não são permitidas durante a alteração do modo de mapeamento de colunas.
DELTA_UNSUPPORTED_COLUMN_MAPPING_WRITE
A gravação de dados não é compatível com o modo de mapeamento de colunas.
DELTA_UNSUPPORTED_COLUMN_TYPE_IN_BLOOM_FILTER
Não há suporte para a criação de um índice de filtro bloom em uma coluna com tipo <dataType>
: <columnName>
DELTA_UNSUPPORTED_COMMENT_MAP_ARRAY
Não é possível adicionar um comentário a <fieldPath>
. Não há suporte para adicionar um comentário a um elemento de chave/valor ou matriz de mapa.
DELTA_UNSUPPORTED_DATA_TYPES
Foram encontradas colunas usando tipos de dados incompatíveis: <dataTypeList>
. Você pode definir ‘<config>
’ como ‘false’ para desabilitar a verificação de tipo. Desabilitar essa verificação de tipo pode permitir que os usuários criem tabelas Delta incompatíveis, e esse recurso só deve ser usado ao tentar ler/gravar tabelas herdadas.
DELTA_UNSUPPORTED_DATA_TYPE_IN_GENERATED_COLUMN
<dataType>
não pode ser o resultado de uma coluna gerada
DELTA_UNSUPPORTED_DEEP_CLONE
Não há suporte para clone profundo nesta versão do Delta.
DELTA_UNSUPPORTED_DESCRIBE_DETAIL_VIEW
<view>
é uma exibição. DESCRIBE DETAIL só tem suporte para tabelas.
DELTA_UNSUPPORTED_DROP_CLUSTERING_COLUMN
A remoção de colunas de clustering (<columnList>
) não é permitida.
DELTA_UNSUPPORTED_DROP_COLUMN
DROP COLUMN não é compatível com a sua tabela Delta. <advice>
DELTA_UNSUPPORTED_DROP_NESTED_COLUMN_FROM_NON_STRUCT_TYPE
Só é possível remover colunas aninhadas do StructType. Encontrado <struct>
DELTA_UNSUPPORTED_DROP_PARTITION_COLUMN
A remoção de colunas de partição (<columnList>
) não é permitida.
DELTA_UNSUPPORTED_EXPRESSION
Tipo de expressão(<expType>
) sem suporte para <causedBy>
. Os tipos com suporte são [<supportedTypes>
].
DELTA_UNSUPPORTED_EXPRESSION_GENERATED_COLUMN
<expression>
não pode ser usada em uma coluna gerada
DELTA_UNSUPPORTED_FEATURES_FOR_READ
Recurso de leitura Delta sem suporte: “<tableNameOrPath>
” requer recursos de tabela de leitor incompatíveis com esta versão do Databricks: <unsupported>
. Consulte <link>
para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
DELTA_UNSUPPORTED_FEATURES_FOR_WRITE
Recurso de gravação Delta sem suporte: “<tableNameOrPath>
” requer recursos de tabela de gravador incompatíveis com esta versão do Databricks: <unsupported>
. Consulte <link>
para obter mais informações sobre a compatibilidade de recursos do Delta Lake.
DELTA_UNSUPPORTED_FEATURES_IN_CONFIG
Os recursos de tabela configurados nas configurações do Spark ou propriedades da tabela Delta a seguir não são reconhecidos por esta versão do Databricks: <configs>
.
DELTA_UNSUPPORTED_FEATURE_STATUS
Esperava que o status do recurso de tabela <feature>
fosse “habilitado”, mas foi obtido “<status>
”.
DELTA_UNSUPPORTED_FIELD_UPDATE_NON_STRUCT
A atualização de campos aninhados só é compatível com StructType, mas você está tentando atualizar um campo de <columnName>
, que é do tipo: <dataType>
.
DELTA_UNSUPPORTED_FSCK_WITH_DELETION_VECTORS
Não há suporte para o comando ‘FSCK REPAIR TABLE’ em versões de tabela com arquivos vetores de exclusão ignorados.
Contate a equipe de suporte.
DELTA_UNSUPPORTED_GENERATE_WITH_DELETION_VECTORS
O comando 'GENERATE symlink_format_manifest' não tem suporte em versões de tabela com vetores de exclusão.
Para produzir uma versão da tabela sem vetores de exclusão, execute 'REORG TABLE table APPLY (PURGE)'. Em seguida, execute novamente o comando 'GENERATE'.
Verifique se nenhuma transação simultânea está adicionando vetores de exclusão novamente entre REORG e GENERATE.
Se você precisar gerar manifestos regularmente ou não puder impedir transações simultâneas, considere a desabilitação de vetores de exclusão nesta tabela usando 'ALTER TABLE table SET TBLPROPERTIES (delta.enableDeletionVectors = false)'.
DELTA_UNSUPPORTED_INVARIANT_NON_STRUCT
Invariáveis não são compatíveis com campos aninhados que não sejam StructTypes.
DELTA_UNSUPPORTED_IN_SUBQUERY
Em consulta aninhada, não há suporte na condição <operation>
.
DELTA_UNSUPPORTED_LIST_KEYS_WITH_PREFIX
listKeywithPrefix não disponível
DELTA_UNSUPPORTED_MANIFEST_GENERATION_WITH_COLUMN_MAPPING
A geração de manifesto não é compatível com tabelas que aproveitam o mapeamento de colunas, pois os leitores externos não podem ler essas tabelas Delta. Confira a documentação do Delta para obter mais detalhes.
DELTA_UNSUPPORTED_MERGE_SCHEMA_EVOLUTION_WITH_CDC
No momento, as operações MERGE INTO com evolução do esquema não são compatíveis com a gravação da saída CDC.
DELTA_UNSUPPORTED_MULTI_COL_IN_PREDICATE
Predicados de várias colunas não têm suporte na condição <operation>
.
DELTA_UNSUPPORTED_NESTED_COLUMN_IN_BLOOM_FILTER
No momento, a criação de índices de arquivador bloom não é compatível com colunas aninhadas: <columnName>
DELTA_UNSUPPORTED_NESTED_FIELD_IN_OPERATION
Campos aninhados não têm suporte no <operation>
(field = <fieldName>
).
DELTA_UNSUPPORTED_NON_EMPTY_CLONE
A tabela de destino de clone não está vazia. TRUNCATE ou DELETE FROM da tabela antes de executar CLONE.
DELTA_UNSUPPORTED_OUTPUT_MODE
A fonte de dados <dataSource>
não é compatível com o modo de saída <mode>
DELTA_UNSUPPORTED_PARTITION_COLUMN_IN_BLOOM_FILTER
A criação de índices de filtro bloom não é compatível com colunas de particionamento: <columnName>
DELTA_UNSUPPORTED_RENAME_COLUMN
A renomeação de colunas não é compatível com a sua tabela Delta. <advice>
DELTA_UNSUPPORTED_SCHEMA_DURING_READ
O Delta não dá suporte à especificação do esquema em tempo de leitura.
DELTA_UNSUPPORTED_SORT_ON_BUCKETED_TABLES
SORTED BY não é compatível com tabelas Delta em bucket
DELTA_UNSUPPORTED_SOURCE
<operation>
o destino dá suporte apenas a origens Delta.
<plan>
DELTA_UNSUPPORTED_STATIC_PARTITIONS
No momento, não há suporte para especificar partições estáticas na especificação de partição durante inserções
DELTA_UNSUPPORTED_STRATEGY_NAME
Nome da estratégia incompatível: <strategy>
DELTA_UNSUPPORTED_SUBQUERY
Sub-consultas não têm suporte na <operation>
(condição = <cond>
).
DELTA_UNSUPPORTED_SUBQUERY_IN_PARTITION_PREDICATES
Subconsultas não têm suporte em predicados de partição.
DELTA_UNSUPPORTED_TIME_TRAVEL_MULTIPLE_FORMATS
Não é possível especificar viagens no tempo em vários formatos.
DELTA_UNSUPPORTED_TIME_TRAVEL_VIEWS
Não aceita versões de viagem no tempo, subconsultas, fluxos ou alterar consultas de feed de dados.
DELTA_UNSUPPORTED_TRUNCATE_SAMPLE_TABLES
Tabelas de exemplo truncadas não têm suporte
DELTA_UNSUPPORTED_TYPE_CHANGE_IN_SCHEMA
Não é possível operar nesta tabela porque uma alteração de tipo sem suporte foi aplicada. O campo <fieldName>
foi alterado de <fromType>
para <toType>
.
DELTA_UNSUPPORTED_VACUUM_SPECIFIC_PARTITION
Forneça o caminho base (<baseDeltaPath>
) ao aspirar tabelas Delta. Atualmente, não há suporte para aspirar partições específicas.
DELTA_UNSUPPORTED_WRITES_STAGED_TABLE
A implementação da tabela não dá suporte a gravações: <tableName>
DELTA_UNSUPPORTED_WRITES_WITHOUT_COORDINATOR
Você está tentando executar gravações em uma tabela que foi registrada com o coordenador <coordinatorName>
de confirmação. No entanto, nenhuma implementação desse coordenador está disponível no ambiente atual e gravações sem coordenadores não são permitidas.
DELTA_UNSUPPORTED_WRITE_SAMPLE_TABLES
A gravação não é compatível com tabelas de exemplo
DELTA_UPDATE_SCHEMA_MISMATCH_EXPRESSION
Não é possível converter <fromCatalog>
em <toCatalog>
. Todas as colunas aninhadas devem corresponder.
DELTA_VACUUM_COPY_INTO_STATE_FAILED
O VACUUM em arquivos de dados foi bem-sucedido, mas a coleta de lixo de estado COPY INTO falhou.
DELTA_VERSIONS_NOT_CONTIGUOUS
As versões (<versionList>
) não são contíguas.
Para obter mais detalhes, confira DELTA_VERSIONS_NOT_CONTIGUOUS
DELTA_VIOLATE_CONSTRAINT_WITH_VALUES
A restrição CHECK <constraintName>
<expression>
foi violada por uma linha com os valores:
<values>
DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
A validação das propriedades da tabela <table>
foi violada:
Para obter mais detalhes, consulte DELTA_VIOLATE_TABLE_PROPERTY_VALIDATION_FAILED
DELTA_WRITE_INTO_VIEW_NOT_SUPPORTED
<viewIdentifier>
é uma exibição. Você não pode gravar dados em uma exibição.
DELTA_ZORDERING_COLUMN_DOES_NOT_EXIST
A coluna de ordenação Z <columnName>
não existe no esquema de dados.
DELTA_ZORDERING_ON_COLUMN_WITHOUT_STATS
A ordenação Z em <cols>
será
ineficaz, porque atualmente não coletamos estatísticas para essas colunas. Consulte
<link>
para mais informações sobre ignorar dados e ordenação Z. É possível desabilitar
esta verificação definindo
‘%%sql set <zorderColStatKey>
= false’
DELTA_ZORDERING_ON_PARTITION_COLUMN
<colName>
é uma coluna de partição. A ordenação Z só pode ser executada em colunas de dados
Carregador Automático
CF_ADD_NEW_NOT_SUPPORTED
O modo de evolução do esquema <addNewColumnsMode>
não é compatível com a especificação de esquemas. Para usar esse modo, em vez disso, você pode fornecer o esquema por meio de cloudFiles.schemaHints
.
CF_AMBIGUOUS_AUTH_OPTIONS_ERROR
Opções de autenticação de configuração de notificação encontradas para o modo de listagem do
diretório (padrão):
<options>
Se você quiser usar o modo de notificação de arquivo, defina explicitamente:
.option(“cloudFiles.<useNotificationsKey>
”, “true”)
Como alternativa, se você quiser ignorar a validação de suas opções e ignorar estas
opções de autenticação, você poderá definir:
.option("cloudFiles.ValidateOptionsKey>", "false")
CF_AMBIGUOUS_INCREMENTAL_LISTING_MODE_ERROR
O modo de listagem incremental (cloudFiles.<useIncrementalListingKey>
)
e a notificação de arquivo (cloudFiles.<useNotificationsKey>
)
foram habilitados ao mesmo tempo.
Certifique-se de selecionar apenas um deles.
CF_AZURE_STORAGE_SUFFIXES_REQUIRED
Exigir adlsBlobSuffix e adlsDfsSuffix para o Azure
CF_BUCKET_MISMATCH
O <storeType>
no arquivo de evento <fileEvent>
é diferente do esperado pela origem: <source>
.
CF_CANNOT_EVOLVE_SCHEMA_LOG_EMPTY
Não é possível evoluir o esquema quando o log de esquema está vazio. Local do log do esquema: <logPath>
CF_CANNOT_PARSE_QUEUE_MESSAGE
Não é possível analisar a seguinte mensagem de fila: <message>
CF_CANNOT_RESOLVE_CONTAINER_NAME
Não é possível resolver o nome do contêiner do caminho: <path>
, URI resolvido: <uri>
CF_CANNOT_RUN_DIRECTORY_LISTING
Não é possível executar a listagem de diretórios quando há um thread de provisionamento assíncrono em execução
CF_CLEAN_SOURCE_ALLOW_OVERWRITES_BOTH_ON
Não é possível ativar cloudFiles.cleanSource e cloudFiles.allowOverwrites ao mesmo tempo.
CF_CLEAN_SOURCE_UNAUTHORIZED_WRITE_PERMISSION
O Carregador Automático não pode excluir os arquivos processados porque não tem permissões de gravação no diretório de origem.
<reason>
Para corrigir, você pode:
- Conceder permissões de gravação ao diretório de origem OU
- Definir o cleanSource para ‘OFF’
Você também pode desbloquear sua transmissão definindo o SQLConf spark.databricks.cloudFiles.cleanSource.disabledDueToAuthorizationErrors como ‘true’.
CF_DUPLICATE_COLUMN_IN_DATA
Houve um erro ao tentar inferir o esquema de partição da tabela. Você tem a mesma coluna duplicada em seus dados e caminhos de partição. Para ignorar o valor da partição, forneça explicitamente suas colunas de partição usando: .option(“cloudFiles.<partitionColumnsKey>
”, “{lista-separada-por-vírgula}”)
CF_EMPTY_DIR_FOR_SCHEMA_INFERENCE
Não é possível inferir o esquema quando o caminho de entrada <path>
está vazio. Tente iniciar o fluxo quando houver arquivos no caminho de entrada ou especifique o esquema.
CF_EVENT_GRID_AUTH_ERROR
Falha ao criar uma assinatura da Grade de Eventos. Certifique-se de que a sua entidade
de serviço tenha <permissionType>
Assinaturas da Grade de Eventos. Confira mais detalhes em:
<docLink>
CF_EVENT_GRID_CREATION_FAILED
Falha ao criar uma assinatura da Grade de Eventos. Verifique se Microsoft.EventGrid está
registrado como provedor de recursos em sua assinatura. Confira mais detalhes em:
<docLink>
CF_EVENT_GRID_NOT_FOUND_ERROR
Falha ao criar uma assinatura da Grade de Eventos. Verifique se a sua conta
de armazenamento (<storageAccount>
) está em seu grupo de recursos (<resourceGroup>
) e que
a conta de armazenamento é uma conta "StorageV2 (uso geral v2)". Confira mais detalhes em:
<docLink>
CF_EVENT_NOTIFICATION_NOT_SUPPORTED
Não há suporte para o modo de notificação de evento do carregador automático para <cloudStore>
.
CF_FAILED_TO_CHECK_STREAM_NEW
Falha ao verificar se o fluxo é novo
CF_FAILED_TO_CREATED_PUBSUB_SUBSCRIPTION
Falha ao criar a assinatura: <subscriptionName>
. Uma assinatura com o mesmo nome já existe e está associada a outro tópico: <otherTopicName>
. O tópico desejado é <proposedTopicName>
. Exclua a assinatura existente ou crie uma assinatura com um novo sufixo de recurso.
CF_FAILED_TO_CREATED_PUBSUB_TOPIC
Falha ao criar o tópico: <topicName>
. Já existe um tópico com o mesmo nome.<reason>
Remover o tópico existente ou tentar novamente com outro sufixo de recurso
CF_FAILED_TO_DELETE_GCP_NOTIFICATION
Falha ao excluir a notificação com a ID <notificationId>
no bucket <bucketName>
para o tópico <topicName>
. Tente novamente ou remova manualmente a notificação por meio do console GCP.
CF_FAILED_TO_DESERIALIZE_PERSISTED_SCHEMA
Falha ao desserializar o esquema persistente da cadeia de caracteres: ‘<jsonSchema>
’
CF_FAILED_TO_EVOLVE_SCHEMA
Não é possível evoluir o esquema sem um log de esquema.
CF_FAILED_TO_FIND_PROVIDER
Falha ao localizar o provedor para <fileFormatInput>
CF_FAILED_TO_INFER_SCHEMA
Falha ao inferir o esquema para o formato <fileFormatInput>
de arquivos existentes no caminho de entrada <path>
.
Para obter mais detalhes, consulte CF_FAILED_TO_INFER_SCHEMA
CF_FAILED_TO_WRITE_TO_SCHEMA_LOG
Falha ao gravar no log de esquema no local <path>
.
CF_FILE_FORMAT_REQUIRED
Não foi possível encontrar a opção exigida: cloudFiles.format.
CF_FOUND_MULTIPLE_AUTOLOADER_PUBSUB_SUBSCRIPTIONS
Foram encontradas várias assinaturas (<num>
) com o prefixo do Carregador Automático para o tópico <topicName>
:
<subscriptionList>
Deve haver apenas uma assinatura por tópico. Verifique manualmente se o tópico não tem várias assinaturas.
CF_GCP_AUTHENTICATION
Forneça todos os seguintes: <clientEmail>
, <client>
,
<privateKey>
, e <privateKeyId>
ou então não forneça nenhum deles para usar a cadeia
de provedores de credenciais GCP padrão para autenticação com recursos GCP.
CF_GCP_LABELS_COUNT_EXCEEDED
Número excessivo de rótulos (<num>
) recebidos para o recurso GCP. A contagem máxima de rótulos por recurso é de <maxNum>
.
CF_GCP_RESOURCE_TAGS_COUNT_EXCEEDED
Número excessivo de marcas de recurso (<num>
) recebidas para o recurso GCP. A contagem máxima de marcas de recurso por recurso é <maxNum>
, pois as marcas de recurso são armazenadas como rótulos GCP em recursos, e marcas específicas do Databricks consomem parte dessa cota de rótulos.
CF_INCOMPLETE_LOG_FILE_IN_SCHEMA_LOG
Arquivo de log incompleto no log de esquema no caminho <path>
CF_INCOMPLETE_METADATA_FILE_IN_CHECKPOINT
Arquivo de metadados incompleto no ponto de verificação do Carregador Automático
CF_INCORRECT_SQL_PARAMS
O método cloud_files aceita dois parâmetros de cadeia de caracteres obrigatórios: o caminho a ser carregado e o formato de arquivo. As opções de leitor de arquivos devem ser fornecidas em um mapa de valor chave da cadeia de caracteres. por exemplo, cloud_files(“path”, “json”, map(“option1”, “value1”)). Recebido: <params>
CF_INTERNAL_ERROR
Erro interno.
Para obter mais detalhes, consulte CF_INTERNAL_ERROR
CF_INVALID_ARN
ARN inválido: <arn>
CF_INVALID_AZURE_CERTIFICATE
A chave privada fornecida com a opção cloudFiles.certificate não pode ser analisada. Forneça uma chave pública válida no formato PEM.
CF_INVALID_AZURE_CERT_PRIVATE_KEY
A chave privada fornecida com a opção cloudFiles.certificatePrivateKey não pode ser analisada. Forneça uma chave privada válida no formato PEM.
CF_INVALID_CHECKPOINT
Esse ponto de verificação não é uma fonte válida do CloudFiles
CF_INVALID_CLEAN_SOURCE_MODE
Modo inválido para a opção de origem limpa <value>
.
CF_INVALID_GCP_RESOURCE_TAG_KEY
Chave de marca de recurso inválida para o recurso GCP: <key>
. As chaves precisam começar com uma letra minúscula, ter entre 1 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
CF_INVALID_GCP_RESOURCE_TAG_VALUE
Valor da marca de recurso inválido para o recurso GCP: <value>
. Os valores precisam ter entre 0 e 63 caracteres e conter apenas letras minúsculas, números, sublinhados (_) e hifens (-).
CF_INVALID_MANAGED_FILE_EVENTS_OPTION_KEYS
O Carregador Automático não dá suporte às seguintes opções quando usado com eventos de arquivo gerenciado:
<optionList>
Recomendamos que você remova essas opções e reinicie o fluxo.
CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
Resposta inválida do serviço de eventos de arquivo gerenciado. Entre em contato com o suporte do Databricks para obter assistência.
Para obter mais detalhes, consulte CF_INVALID_MANAGED_FILE_EVENTS_RESPONSE
CF_INVALID_SCHEMA_EVOLUTION_MODE
cloudFiles.<schemaEvolutionModeKey>
deve ser um dos {
"<addNewColumns>
"
"<failOnNewColumns>
"
"<rescue>
"
"<noEvolution>
"}
CF_INVALID_SCHEMA_HINTS_OPTION
As dicas de esquema só podem especificar uma coluna específica uma vez.
Nesse caso, redefina a coluna: <columnName>
várias vezes em schemaHints:
<schemaHints>
CF_INVALID_SCHEMA_HINT_COLUMN
Dicas de esquema não podem ser usadas para substituir os tipos aninhados de mapas e matrizes.
Coluna conflitante: <columnName>
CF_LATEST_OFFSET_READ_LIMIT_REQUIRED
latestOffset deve ser chamado com um ReadLimit nesta fonte.
CF_LOG_FILE_MALFORMED
O arquivo de log foi malformado: falha ao ler a versão de log correta de <fileName>
.
CF_MANAGED_FILE_EVENTS_BACKFILL_IN_PROGRESS
Você solicitou que o Carregador Automático ignorasse os arquivos existentes em seu local externo definindo includeExistingFiles como falsa. No entanto, o serviço de eventos de arquivo gerenciado ainda está descobrindo arquivos existentes em sua localização externa. Tente novamente depois que os eventos de arquivo gerenciado tiverem concluído a descoberta de todos os arquivos em sua localização externa.
CF_MANAGED_FILE_EVENTS_ENDPOINT_NOT_FOUND
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas parece que o local externo do caminho de entrada ‘<path>
’ não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite ao Administrador do Databricks que habilite eventos de arquivo no local externo para o caminho de entrada.
CF_MANAGED_FILE_EVENTS_ENDPOINT_PERMISSION_DENIED
Você está usando o Carregador Automático com eventos de arquivo gerenciado, mas parece que o local externo do caminho de entrada ‘<path>
’ não tem eventos de arquivo habilitados ou o caminho de entrada é inválido. Solicite que o Administrador do Databricks conceda permissões de leitura para o local ou volume externo ou forneça um caminho de entrada válido em um volume ou local externo existente.
CF_MANAGED_FILE_EVENTS_ONLY_ON_SERVERLESS
O Carregador Automático com eventos de arquivo gerenciado só está disponível no Databricks sem servidor. Para continuar, mova essa carga de trabalho para o Databricks sem servidor ou desative a opção cloudFiles.useManagedFileEvents.
CF_MAX_MUST_BE_POSITIVE
max precisa ser positivo
CF_METADATA_FILE_CONCURRENTLY_USED
Várias consultas de transmitir estão usando simultaneamente <metadataFile>
CF_MISSING_METADATA_FILE_ERROR
O arquivo de metadados no diretório de ponto de verificação da fonte de streaming está ausente. Este arquivo de
metadados contém opções padrão importantes para o fluxo, portanto, o fluxo não pode ser reiniciado
no momento. Entre em contato com o suporte do Databricks para obter assistência.
CF_MISSING_PARTITION_COLUMN_ERROR
A coluna de partição <columnName>
não existe no esquema fornecido:
<schema>
CF_MISSING_SCHEMA_IN_PATHLESS_MODE
Especifique um esquema usando .schema() se um caminho não for fornecido à fonte CloudFiles ao usar o modo de notificação de arquivo. Como alternativa, para fazer o Carregador Automático inferir o esquema, forneça um caminho base em .load().
CF_MULTIPLE_PUBSUB_NOTIFICATIONS_FOR_TOPIC
Notificações existentes encontradas para o tópico <topicName>
no bucket <bucketName>
:
notificação,ID
<notificationList>
Para evitar poluir o assinante com eventos não intencionais, exclua as notificações acima e tente novamente.
CF_NEW_PARTITION_ERROR
Novas colunas de partição foram inferidas de seus arquivos: [<filesList>
]. Forneça todas as colunas de partição em seu esquema ou forneça uma lista de colunas de partição para as quais você gostaria de extrair valores usando: .option("cloudFiles.partitionColumns", "{lista-separada-por-vírgula|cadeia-de-caracteres-vazia}")
CF_PARTITON_INFERENCE_ERROR
Houve um erro ao tentar inferir o esquema de partição do lote atual de arquivos. Forneça explicitamente suas colunas de partição usando: .option(“cloudFiles.<partitionColumnOption>
”, “{comma-separated-list}”)
CF_PATH_DOES_NOT_EXIST_FOR_READ_FILES
Não é possível ler arquivos quando o caminho de entrada <path>
não existe. Verifique se o caminho de entrada existe e tente novamente.
CF_PERIODIC_BACKFILL_NOT_SUPPORTED
Não há suporte para o provisionamento periódico se o provisionamento assíncrono está desabilitado. Você pode habilitar a listagem de diretórios/provisionamento assíncrono definindo spark.databricks.cloudFiles.asyncDirListing
como true
CF_PREFIX_MISMATCH
Evento sem correspondência encontrado: a chave <key>
não tem o prefixo: <prefix>
CF_PROTOCOL_MISMATCH
<message>
Se você não precisar fazer outras alterações no código, defina a configuração
do SQL: ‘<sourceProtocolVersionKey>
= <value>
’
para retomar o fluxo. Consulte:
<docLink>
para obter mais detalhes.
CF_REGION_NOT_FOUND_ERROR
Não foi possível obter a região padrão do AWS. Especifique uma região usando a opção cloudFiles.region.
CF_RESOURCE_SUFFIX_EMPTY
Falha ao criar serviços de notificação: o sufixo do recurso não pode estar vazio.
CF_RESOURCE_SUFFIX_INVALID_CHAR_AWS
Falha ao criar serviços de notificação: o sufixo do recurso só pode ter caracteres alfanuméricos, hifens (-) e sublinhados (_).
CF_RESOURCE_SUFFIX_INVALID_CHAR_AZURE
Falha ao criar serviços de notificação: o sufixo do recurso só pode ter letra minúscula, número e traço (-).
CF_RESOURCE_SUFFIX_INVALID_CHAR_GCP
Falha ao criar serviços de notificação: o sufixo de recurso só pode ter caracteres alfanuméricos, hifens (-), sublinhados (_), pontos (.), til (~) sinais de adição (+) e sinais percentuais (<percentSign>
).
CF_RESOURCE_SUFFIX_LIMIT
Falha ao criar serviços de notificação: o sufixo do recurso não pode ter mais do que <limit>
caracteres.
CF_RESOURCE_SUFFIX_LIMIT_GCP
Falha ao criar serviços de notificação: o sufixo do recurso precisa estar entre <lowerLimit>
e <upperLimit>
caracteres.
CF_RESTRICTED_GCP_RESOURCE_TAG_KEY
Chave de marca de recurso GCP restrita encontrada (<key>
). As seguintes chaves de marca de recurso GCP são restritas para o Carregador Automático: [<restrictedKeys>
]
CF_RETENTION_GREATER_THAN_MAX_FILE_AGE
cloudFiles.cleanSource.retentionDuration não pode ser maior que cloudFiles.maxFileAge.
CF_SAME_PUB_SUB_TOPIC_NEW_KEY_PREFIX
Falha ao criar notificação para tópico: <topic>
com o prefixo: <prefix>
. Já existe um tópico com o mesmo nome com outro prefixo: <oldPrefix>
. Tente usar um sufixo de recurso diferente para configurar ou excluir a configuração existente.
CF_SOURCE_DIRECTORY_PATH_REQUIRED
Forneça o caminho do diretório de origem com a opção path
CF_SOURCE_UNSUPPORTED
A fonte de arquivos de nuvem só é compatível com caminhos S3, Armazenamento de Blobs do Azure (wasb/wasbs) e Azure Data Lake Gen1 (adl) e Gen2 (abfs/abfss) atualmente. Caminho: ‘<path>
’, URI resolvido: ‘<uri>
’.
CF_STATE_INCORRECT_SQL_PARAMS
A função cloud_files_state aceita um parâmetro de cadeia de caracteres que representa o diretório do ponto de verificação de um fluxo do cloudFiles ou um tableName de várias partes que identifica uma tabela de fluxo e um segundo parâmetro inteiro opcional que representa a versão do ponto de verificação para a qual carregar o estado. O segundo parâmetro também pode ser "mais recente" para ler o ponto de verificação mais recente. Recebido: <params>
CF_STATE_INVALID_CHECKPOINT_PATH
O caminho <path>
do ponto de verificação de entrada é inválido. Ou o caminho não existe ou não foram encontradas fontes de cloud_files.
CF_STATE_INVALID_VERSION
A versão especificada <version>
não existe ou foi removida durante a análise.
CF_THREAD_IS_DEAD
O thread <threadName>
está inativo.
CF_UNABLE_TO_DERIVE_STREAM_CHECKPOINT_LOCATION
Não é possível derivar o local do ponto de verificação de fluxo do local de ponto de verificação de origem: <checkPointLocation>
CF_UNABLE_TO_DETECT_FILE_FORMAT
O formato do arquivo de origem de <fileSize>
arquivos de amostra não pôde ser detectado, <formats>
foram encontrados. Especifique o formato.
CF_UNABLE_TO_EXTRACT_BUCKET_INFO
Não é possível extrair informações do bucket. Caminho: ‘<path>
’, URI resolvido: ‘<uri>
’.
CF_UNABLE_TO_EXTRACT_KEY_INFO
Não é possível extrair informações de chave. Caminho: ‘<path>
’, URI resolvido: ‘<uri>
’.
CF_UNABLE_TO_EXTRACT_STORAGE_ACCOUNT_INFO
Não é possível extrair informações da conta de armazenamento; caminho: ‘<path>
’, URI resolvido: <uri>
CF_UNABLE_TO_LIST_EFFICIENTLY
Um evento de renomeação de diretório foi recebido para o caminho <path>
, mas não foi possível listar esse diretório com eficiência. Para que o fluxo continue, defina a opção 'cloudFiles.ignoreDirRenames' como true e considere habilitar os provisionamentos comuns com cloudFiles.backfillInterval para que esses dados sejam processados.
CF_UNEXPECTED_READ_LIMIT
ReadLimit inesperado: <readLimit>
CF_UNKNOWN_OPTION_KEYS_ERROR
Chaves de opção desconhecidas encontradas:
<optionList>
Verifique se todas as chaves de opção fornecidas estão corretas. Se você quiser ignorar a
validação de suas opções e ignorar essas opções desconhecidas, poderá definir:
.option(“cloudFiles.<validateOptions>
”, “false”)
CF_UNKNOWN_READ_LIMIT
ReadLimit desconhecido: <readLimit>
CF_UNSUPPORTED_CLOUD_FILES_SQL_FUNCTION
A função ‘cloud_files’ SQL para criar uma fonte de streaming do Carregador Automático tem suporte apenas em um pipeline do Delta Live Tables. Confira mais detalhes em:
<docLink>
CF_UNSUPPORTED_FORMAT_FOR_SCHEMA_INFERENCE
A inferência de esquema não é compatível com o formato: <format>
. Especifique o esquema.
CF_UNSUPPORTED_LOG_VERSION
UnsupportedLogVersion: a versão máxima de log compatível é v<maxVersion>``, but encountered v``<version>
. O arquivo de log foi produzido por uma versão mais recente do DBR e não pode ser lido por esta versão. Faça a atualização.
CF_UNSUPPORTED_SCHEMA_EVOLUTION_MODE
O modo de evolução de esquema <mode>
não é compatível com o formato: <format>
. Defina o modo de evolução do esquema como ‘none’.
CF_USE_DELTA_FORMAT
Não há suporte para a leitura de uma tabela Delta com essa sintaxe. Se desejar consumir dados do Delta, consulte os documentos: ler uma tabela Delta (<deltaDocLink>
) ou ler uma tabela Delta como uma fonte de transmissão (<streamDeltaDocLink>
). A fonte de streaming do Delta já está otimizada para consumo incremental de dados.
Geoespacial
EWKB_PARSE_ERROR
Erro ao analisar EWKB: <parseError>
na posição <pos>
GEOJSON_PARSE_ERROR
Erro ao analisar GeoJSON: <parseError>
na posição <pos>
Para obter mais detalhes, consulte GEOJSON_PARSE_ERROR
H3_INVALID_CELL_ID
<h3Cell>
não é uma ID de célula H3 válida
Para obter mais detalhes, consulte H3_INVALID_CELL_ID
H3_INVALID_GRID_DISTANCE_VALUE
A distância da grade H3 <k>
deve não ser negativa
Para obter mais detalhes, consulte H3_INVALID_GRID_DISTANCE_VALUE
H3_INVALID_RESOLUTION_VALUE
A resolução H3 <r>
deve estar entre <minR>
e <maxR>
, inclusive
Para obter mais detalhes, consulte H3_INVALID_RESOLUTION_VALUE
H3_NOT_ENABLED
<h3Expression>
está desabilitado ou sem suporte. Considere habilitar o Photon ou alternar para uma camada que dê suporte a expressões H3
Para obter mais detalhes, consulte H3_NOT_ENABLED
H3_PENTAGON_ENCOUNTERED_ERROR
Um pentágono foi encontrado durante a computação do anel hexagonal de <h3Cell>
com distância de grade <k>
H3_UNDEFINED_GRID_DISTANCE
H3 A distância da grade entre <h3Cell1>
e <h3Cell2>
é indefinida
ST_DIFFERENT_SRID_VALUES
Os argumentos para “<sqlFunction>
” devem ter o mesmo valor SRID. Valor SRID encontrado: <srid1>
, <srid2>
ST_INVALID_ARGUMENT
"<sqlFunction>
": <reason>
ST_INVALID_ARGUMENT_TYPE
O argumento de “<sqlFunction>
” deve ser do tipo <validTypes>
ST_INVALID_CRS_TRANSFORMATION_ERROR
<sqlFunction>
: transformação de CRS inválida ou sem suporte do SRID <srcSrid>
para o SRID <trgSrid>
ST_INVALID_ENDIANNESS_VALUE
A ordenação <e>
deve ser 'NDR' (little-endian) ou 'XDR' (big-endian)
ST_INVALID_GEOHASH_VALUE
<sqlFunction>
: valor de geohash inválido: ‘<geohash>
’. Os valores de geohash devem ser cadeias de caracteres base32 minúsculas válidas, conforme descrito em https://en.wikipedia.org/wiki/Geohash#Textual_representation
ST_INVALID_PRECISION_VALUE
A precisão <p>
deve estar entre <minP>
e <maxP>
, inclusive
ST_INVALID_SRID_VALUE
Inválido ou SRID sem suporte <srid>
ST_NOT_ENABLED
<stExpression>
está desabilitado ou sem suporte. Considere habilitar o Photon ou alternar para uma camada que dê suporte a expressões ST
ST_UNSUPPORTED_RETURN_TYPE
Os tipos de dados GEOGRAPHY e GEOMETRY não podem ser retornados em consultas. Use uma das seguintes expressões SQL para convertê-las em formatos de intercâmbio padrão: <projectionExprs>
.
WKB_PARSE_ERROR
Erro ao analisar WKB: <parseError>
na posição <pos>
Para obter mais detalhes, consulte WKB_PARSE_ERROR
WKT_PARSE_ERROR
Erro ao analisar WKT: <parseError>
na posição <pos>
Para obter mais detalhes, consulte WKT_PARSE_ERROR