Biblioteca do executor em massa Java: Fazer o download das informações
APLICA-SE A: NoSQL
- SDK v3 do .NET
- SDK do .NET v2
- SDK v2 do .NET Core
- SDK do Feed de Alterações do .NET v2
- Node.js
- SDK do Java v4
- SDK do Java Síncrono v2
- SDK do Java Assíncrono v2
- Spring Data v2
- Spring Data v3
- Spring Data v5
- Python
- Go
- REST
- Provedor de recursos REST
- SQL
- Executor em massa – .NET v2
- Executor em massa – Java
Importante
Esse não é o executor em massa do Java mais recente para o Azure Cosmos DB! Considere usar o SDK do Java v4 do Azure Cosmos DB para executar operações em massa. Para atualizar, siga as instruções no guia Migrar para SDK do Java v4 do Azure Cosmos DB e o guia Reator vs RxJava.
Importante
Em 29 de fevereiro de 2024, o SDK do Java de Sincronização do Azure Cosmos DB v2.x será desativado; o SDK e todos os aplicativos que usam o SDK, incluindo o executor em massa, continuarão a funcionar; o Azure Cosmos DB simplesmente deixará de fornecer manutenção e suporte adicionais para esse SDK. É recomendável seguir as instruções acima para migrar para o SDK do Java do Azure Cosmos DB v4.
Link/observações | |
---|---|
Descrição | A biblioteca bulk executor permite que aplicativos cliente executem operações em massa em contas do Azure Cosmos DB. a biblioteca bulk executor fornece os namespaces BulkImport e BulkUpdate. O módulo BulkImport pode importar em massa documentos de forma otimizada, de modo que a taxa de transferência provisionada para uma coleção seja consumida até seu limite máximo. O módulo BulkUpdate pode atualizar em massa dados existentes nos contêineres do Azure Cosmos DB como patches. |
Baixe o SDK | Maven |
Biblioteca do executor em massa no GitHub | GitHub |
Documentação da API | Documentação de referência de API Java |
Introdução | Introdução ao SDK Java da biblioteca bulk executor |
runtime mínimo com suporte | Java Development Kit (JDK) 7 + |
Notas de versão
2.12.3
- Corrigir a política de repetição quando
GoneException
estiver encapsuladaIllegalStateException
- essa alteração é necessária afim de garantir que o cache do Gateway seja atualizado em 410, assim o conector do Spark (para Spark 2.4) poderá usar uma política de repetição personalizada para permitir que as consultas tenham sucesso durante as divisões de partição
2.12.2
- Corrigir um problema decorrente de documentos que nem sempre são importados de erros transitórios.
2.12.1
- Atualize para usar a versão mais recente do Core SDK do Azure Cosmos DB.
2.12.0
- Melhore o tratamento do orçamento de RU fornecido por meio do conector do Spark para operação em massa. Uma importação inicial única em massa é executada no conector do Spark com um baseBatchSize e o consumo de RU para a importação do lote acima é coletado. Um miniBatchSizeAdjustmentFactor é calculado com base no consumo de RU acima e o tamanho do mini-lote é ajustado com base nisso. Com base no tempo decorrido e na RU consumida para cada importação de lote, uma duração de suspensão é calculada para limitar o consumo de RU por segundo e é usada para pausar o thread antes da próxima importação em lotes.
2.11.0
- Corrigir um bug que impede atualizações em massa após usar uma chave de partição aninhada
2.10.0
- Corrigir DocumentAnalyzer.java para extrair corretamente valores de chave de partição aninhados do JSON.
2.9.4
- Adicionar funcionalidade em operações BulkDelete para tentar novamente em caso de falhas específicas e também retornar uma lista de falhas que podem ser recuperadas para o usuário.
2.9.3
- Atualização para o SDK do Azure Cosmos DB versão 2.4.7.
2.9.2
- Corrigir 'mergeAll' para continuar em 'id' e valor de chave de partição para que qualquer propriedade de documento com patch que seja colocada após 'id' e o valor de chave de partição seja adicionada à lista de itens atualizados.
2.9.1
- Atualizar o grau inicial de simultaneidade para 1 e adicionar logs de depuração para minilote.