Java-BulkExecutor-Bibliothek: Informationen zum Download
GILT FÜR: NoSQL
Wichtig
Dies ist nicht die neueste Java Bulk Executor-Version für Azure Cosmos DB! Erwägen Sie die Verwendung des Azure Cosmos DB Java SDK v4 zum Ausführen von Massenvorgängen. Befolgen Sie für ein Upgrade die Anweisungen in den Anleitungen Migrieren zum Azure Cosmos DB Java SDK v4 und Gegenüberstellung von Reactor und RxJava.
Wichtig
Am 29. Februar 2024 wird das Sync Java SDK v2.x von Azure Cosmos DB eingestellt. Das SDK und alle Anwendungen, die es verwenden, (einschließlich Bulk Executor) sind weiterhin funktionsfähig. Azure Cosmos DB stellt jedoch keine weitere Wartung und Unterstützung für dieses SDK bereit. Es wird empfohlen, die obigen Anweisungen zur Migration zum Azure Cosmos DB Java SDK v4 zu befolgen.
Links/Hinweise | |
---|---|
Beschreibung | Die BulkExecutor-Bibliothek ermöglicht Clientanwendungen die Ausführung von Massenvorgängen in Azure Cosmos DB-Konten. Die BulkExecutor-Bibliothek stellt die Namespaces „BulkImport“ und „BulkUpdate“ bereit. Das BulkImport-Modul kann Dokumente auf optimierte Weise per Massenimport erfassen, sodass der für eine Sammlung bereitgestellte Durchsatz maximal genutzt wird. Das BulkUpdate-Modul kann vorhandene Daten in Azure Cosmos DB-Containern per Massenvorgang in Form von Patches aktualisieren. |
SDK-Download | Maven |
Bulk Executor-Bibliothek auf GitHub | GitHub |
API-Dokumentation | Java-API-Referenzdokumentation |
Erste Schritte | Erste Schritte mit dem Java SDK für die BulkExecutor-Bibliothek |
Unterstützte Mindestlaufzeit | Java Development Kit (JDK) 7+ |
Versionshinweise
2.12.3
- Korrektur der Wiederholungsrichtlinie, wenn
GoneException
vonIllegalStateException
umschlossen ist: Diese Änderung ist erforderlich, um sicherzustellen, dass der Gatewaycache auf 410 aktualisiert wird, damit der Spark-Connector (für Spark 2.4) eine benutzerdefinierte Wiederholungsrichtlinie verwenden kann, damit Abfragen während der Partitionsteilung erfolgreich sind.
2.12.2
- Es wurde ein Problem behoben, das dazu führt, dass Dokumente bei vorübergehenden Fehlern nicht immer importiert werden.
2.12.1
- Upgrade zur Verwendung der neuesten Version des Azure Cosmos DB Core SDK.
2.12.0
- Verbesserte Verarbeitung des RU-Budgets, das über den Spark-Connector für den Massenvorgang bereitgestellt wird. Ein erster einmaliger Massenimport wird vom Spark-Connector mit baseBatchSize durchgeführt, und der RU-Verbrauch für den obigen Batchimport wird erfasst. Ein miniBatchSizeAdjustmentFactor wird basierend auf dem obigen RU-Verbrauch berechnet, und die Minibatchgröße wird entsprechend angepasst. Basierend auf der verstrichenen Zeit und der verbrauchten RU für jeden Batchimport wird eine Ruhezeit berechnet, um den RU-Verbrauch pro Sekunde zu begrenzen, und wird verwendet, um den Thread vor dem nächsten Batchimport anzuhalten.
2.11.0
- Korrektur eines Fehlers, der Massenaktualisierungen verhindert, wenn ein geschachtelter Partitionsschlüssel verwendet wird
2.10.0
- Korrektur für „DocumentAnalyzer.java“, damit Schlüsselwerte geschachtelter Partitionen ordnungsgemäß aus JSON-Code extrahiert werden.
2.9.4
- Funktionen in Massenlöschungsvorgängen hinzugefügt, mit denen Wiederholungsversuche für bestimmte Fehler ausgeführt werden und die auch eine Liste der Fehler, die wiederholt werden könnten, an den Benutzer zurückgeben.
2.9.3
- Update für Azure Cosmos DB SDK-Version 2.4.7.
2.9.2
- Korrektur für mergeAll zum Fortsetzen nach „ID“ und Partitionsschlüsselwert, sodass alle gepatchten Dokumenteigenschaften, die nach „ID“ und dem Partitionsschlüsselwert stehen, der aktualisierten Elementliste hinzugefügt werden.
2.9.1
- Startgrad der Parallelität auf 1 aktualisiert und Debugprotokolle für minibatch hinzugefügt.