Knihovna Bulk Executor v Javě: Stažení informací
PLATÍ PRO: NoSQL
Důležité
Nejedná se o nejnovější bulk executor Java pro službu Azure Cosmos DB! Zvažte použití sady Java SDK služby Azure Cosmos DB v4 k provádění hromadných operací. Pokud chcete provést upgrade, postupujte podle pokynů v průvodci migrací do sady Java SDK služby Azure Cosmos DB v4 a příručky Reactor vs. RxJava .
Důležité
29. února 2024 bude sada Java SDK služby Azure Cosmos DB Sync v2.x vyřazena; sada SDK a všechny aplikace používající sadu SDK, včetně bulk Executoru , budou nadále fungovat; Azure Cosmos DB jednoduše přestane poskytovat další údržbu a podporu pro tuto sadu SDK. Pokud chcete migrovat na sadu Java SDK služby Azure Cosmos DB verze 4, doporučujeme postupovat podle výše uvedených pokynů.
Odkaz/poznámky | |
---|---|
Popis | Knihovna Bulk Executor umožňuje klientským aplikacím provádět hromadné operace v účtech služby Azure Cosmos DB. Knihovna bulk Executor poskytuje obory názvů BulkImport a BulkUpdate. Modul BulkImport může hromadně ingestovat dokumenty optimalizovaným způsobem tak, aby se propustnost zřízená pro kolekci spotřebovala do maximálního rozsahu. Modul BulkUpdate může hromadně aktualizovat existující data v kontejnerech Azure Cosmos DB jako opravy. |
Stažení sady SDK | Maven |
Knihovna bulk executoru na GitHubu | GitHub |
Dokumentace k rozhraní API | Referenční dokumentace k rozhraní Java API |
Začínáme | Začínáme s knihovnou Bulk Executor Java SDK |
Minimální podporovaný modul runtime | Java Development Kit (JDK) 7 a novější |
Poznámky k verzi
2.12.3
- Oprava zásad opakování při
GoneException
zabaleníIllegalStateException
– tato změna je nezbytná, aby se zajistilo, že se mezipaměť brány aktualizuje na 410, aby konektor Sparku (pro Spark 2.4) mohl použít vlastní zásadu opakování, která umožní úspěšné dotazování během dělení oddílů.
2.12.2
- Opravte problém, který vede k tomu, že se dokumenty neimportují vždy při přechodných chybách.
2.12.1
- Upgradujte tak, aby používal nejnovější verzi sady Azure Cosmos DB Core SDK.
2.12.0
- Vylepšete zpracování rozpočtu RU poskytovaného prostřednictvím konektoru Spark pro hromadnou operaci. Počáteční jednorázový hromadný import se provádí z konektoru Spark s baseBatchSize a shromažďuje se spotřeba RU pro výše uvedený dávkový import. MiniBatchSizeAdjustmentFactor se vypočítá na základě výše uvedené spotřeby RU a na základě toho se upraví velikost mini dávky. Na základě uplynulého času a spotřebované RU pro každý dávkový import se vypočítá doba spánku, která omezí spotřebu RU za sekundu a použije se k pozastavení vlákna před dalším dávkovým importem.
2.11.0
- Oprava chyby bránící hromadným aktualizacím při použití vnořeného klíče oddílu
2.10.0
- Oprava DocumentAnalyzer.java pro správné extrahování vnořených hodnot klíče oddílu z json.
2.9.4
- Přidejte funkce v operacích BulkDelete, které se budou opakovat při konkrétních selháních, a také vrátí seznam selhání uživateli, který by se mohl opakovat.
2.9.3
- Aktualizace sady SDK služby Azure Cosmos DB verze 2.4.7
2.9.2
- Oprava pro "mergeAll" pokračovat na 'ID' a klíč oddílu hodnota tak, aby všechny opravené vlastnosti dokumentu, které jsou umístěny za 'ID' a hodnota klíče oddílu se přidají do aktualizovaného seznamu položek.
2.9.1
- Aktualizace stupně souběžnosti na 1 a přidání protokolů ladění pro minibatch