Databricks Runtime 12.2 LTS
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 12.2 LTS, který využívá Apache Spark 3.3.2.
Databricks vydala tuto verzi v březnu 2023.
Poznámka:
LTS znamená, že tato verze je dlouhodobě podporována. Viz životní cyklus verze LTS modulu Databricks Runtime.
Tip
Poznámky k verzi pro verze Databricks Runtime, které dosáhly konce podpory (EoS), najdete v poznámkách k verzi Databricks Runtime pro ukončení podpory. Verze EoS Databricks Runtime byly vyřazeny a nemusí se aktualizovat.
Změny chování
[Zásadní změna] Nová verze Pythonu vyžaduje aktualizaci klientů Databricks Connect V1 Python.
Pokud chcete použít požadované opravy zabezpečení, upgraduje se verze Pythonu v Databricks Runtime 12.2 LTS z verze 3.9.5 na verzi 3.9.19. Vzhledem k tomu, že tyto změny můžou způsobit chyby v klientech, kteří používají konkrétní funkce PySpark, musí být všechny klienty používající Databricks Connect V1 pro Python s Modulem Databricks Runtime 12.2 LTS aktualizovány na Python 3.9.7 nebo novější.
Nové funkce a vylepšení
- Vývoj schématu Delta Lake podporuje zadávání zdrojových sloupců v příkazech sloučení.
- Úlohy strukturovaného streamování se podporují v clusterech s režimem sdíleného přístupu.
- Nové funkce prediktivních vstupně-výstupních operací
- Podpora implicitního laterálního aliasingu sloupců
- Nová funkce forEachBatch
- Standardizované možnosti připojení pro federaci dotazů
- Rozšířená knihovna funkcí SQL pro správu polí
- Nová funkce masky pro anonymizaci řetězců
- Běžné chybové stavy teď vrací funkce SQLSTATEs.
- Vyvolání funkcí generátoru v klauzuli FROM
- Podpora vyrovnávacích pamětí protokolu je obecně dostupná
- Přechod k definici proměnných a funkcí poznámkového bloku
- Rychlá oprava poznámkového bloku pro knihovny automatického importu
- Opravy chyb
Vývoj schématu Delta Lake podporuje zadávání zdrojových sloupců v příkazech sloučení.
Nyní můžete zadat sloupce, které jsou přítomné pouze ve zdrojové tabulce, a to v akcích vložení nebo aktualizace pro příkazy sloučení, pokud je povolen vývoj schématu. V Databricks Runtime 12.1 a níže je možné použít pouze INSERT *
akce nebo UPDATE SET *
akce pro vývoj schématu při sloučení. Viz Automatický vývoj schématu pro sloučení Delta Lake.
Úlohy strukturovaného streamování se podporují v clusterech s režimem sdíleného přístupu.
Strukturované streamování teď můžete použít k interakci s katalogem Unity ve sdílených clusterech. Platí některá omezení. Podívejte se , jaké funkce strukturovaného streamování podporuje Unity Catalog?.
Nové funkce prediktivních vstupně-výstupních operací
Podpora Photon pro jímku Foreachbatch
je nyní k dispozici. Úlohy, které streamují ze zdroje a sloučí do tabulek Delta nebo zapisují do několika jímek, teď můžou těžit z fotonizované Foreachbatch
jímky.
Podpora implicitního laterálního aliasingu sloupců
Azure Databricks teď ve výchozím nastavení podporuje implicitní laterální aliasy sloupců. Teď můžete znovu použít výraz zadaný dříve ve stejném SELECT
seznamu. Například , SELECT 1 AS a
a + 1 AS b
a
in a + 1
lze přeložit jako dříve definované .1 AS a
Další podrobnosti v pořadí překladu najdete v překladu .
Chcete-li tuto funkci vypnout, můžete ji nastavit spark.sql.lateralColumnAlias.enableImplicitResolution
na false
hodnotu .
Nová funkce forEachBatch
Photon se teď podporuje při zápisu foreachBatch
do datové jímky.
Standardizované možnosti připojení pro federaci dotazů
Teď můžete použít jednotnou sadu možností (hostitel, port, databáze, uživatel, heslo) pro připojení ke zdrojům dat podporovaným ve federaci dotazů. Port
je volitelné a používá výchozí číslo portu pro každý zdroj dat, pokud není zadáno.
Rozšířená knihovna funkcí SQL pro správu polí
Teď můžete z pole odebrat všechny prvky NULL pomocí array_compact. Pokud chcete k poli připojit prvky, použijte array_append.
Nová funkce masky pro anonymizaci řetězců
Vyvolání funkce masky k anonymizaci citlivých řetězcových hodnot.
Běžné chybové stavy teď vrací funkce SQLSTATEs.
Většina chybových podmínek, které databricks Runtime nyní obsahují zdokumentované hodnoty SQLSTATE , které je možné použít k testování chyb standardním způsobem kompatibilním se standardem SQL.
Vyvolání funkcí generátoru v klauzuli FROM
Nyní můžete vyvolat funkce generátoru s hodnotami tabulky, jako je explodování v regulární FROM
klauzuli dotazu. Tím se zarovná vyvolání funkce generátoru s jinými integrovanými a uživatelem definovanými funkcemi tabulky.
Podpora vyrovnávacích pamětí protokolu je obecně dostupná
Pomocí funkcí from_protobuf
a to_protobuf
funkcí můžete vyměňovat data mezi binárními a strukturami. Viz Vyrovnávací paměti protokolu pro čtení a zápis.
Přechod k definici proměnných a funkcí poznámkového bloku
Rychlá oprava poznámkového bloku pro knihovny automatického importu
Poznámkové bloky Databricks teď nabízejí funkci Rychlá oprava pro knihovny automatického importu. Pokud zapomenete importovat knihovnu, jako je pandas, najeďte myší na upozornění na podtrženou syntaxi a potom klikněte na Rychlá oprava, tyto funkce vyžadují, aby byl v pracovním prostoru povolený Pomocník pro Databricks.
Opravy chyb
- Vylepšená konzistence chování rozdílového potvrzení pro prázdné transakce související s
update
,delete
amerge
příkazy. NaWriteSerializable
úrovni izolace teď příkazy, které nemají žádné změny, teď vytvoří prázdné potvrzení.Serializable
Na úrovni izolace teď takové prázdné transakce nevytvoří potvrzení.
Změny chování
Změny chování pomocí nové funkce aliasu laterálního sloupce
Nová funkce aliasu laterálního sloupce zavádí změny chování v následujících případech během překladu názvů:
- Alias laterálního sloupce teď má přednost před korelovanými odkazy se stejným názvem. Například pro tento dotaz , vnitřní byl vyřešen na korelovaný odkaz
t.c1
, ale nyní se změní na laterální sloupec alias1 AS c1
.c1 AS c2
c1
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
Dotaz nyní vrátíNULL
. - Alias laterálního sloupce teď má přednost před parametry funkce se stejným názvem. Například pro funkci , v
x
těle funkceCREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
byla přeložena na parametr funkce x, ale změní se na laterální aliasx + 1
sloupce v těle funkce. DotazSELECT * FROM func(1)
nyní vrátí2, 2
. - Pokud chcete funkci aliasu laterálního sloupce vypnout, nastavte
spark.sql.lateralColumnAlias.enableImplicitResolution
nafalse
hodnotu . Další informace najdete v tématu Překlad názvů.
Upgrady knihoven
- Upgradované knihovny Pythonu:
- filelock od 3.8.2 do 3.9.0
- joblib od 1.1.0 do 1.1.1
- platformdirs from 2.6.0 to 2.6.2
- whatthepatch from 1.0.3 to 1.0.4
- Upgradované knihovny jazyka R:
- třída od 7.3-20 do 7.3-21
- codetools od 0.2-18 do 0.2-19
- HMOTNOST od 7.3-58 do 7.3-58.2
- nlme od 3.1-160 do 3.1-162
- Rserve od 1.8-11 do 1.8-12
- SparkR od 3.3.1 do 3.3.2
Změny chování
- Uživatelé teď musí mít
SELECT
při vytváření schématu s definovaným umístěním oprávnění k libovolnému souboru aMODIFY
oprávnění.
Apache Spark
Databricks Runtime 12.2 zahrnuje Apache Spark 3.3.2. Tato verze zahrnuje všechny opravy a vylepšení Sparku, která jsou součástí Databricks Runtime 12.1 (EoS), a také následující další opravy chyb a vylepšení Sparku:
- [SPARK-42416] [SC-123205][SC-122851][SQL] Operace datové sady by neměly znovu vyřešit analyzovaný logický plán.
- [SPARK-41848] Vrátit "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Oprava úkolu nadplánovaný pomocí taskResourceProfile
- [SPARK-42162] [SC-122711][ES-556261] Zavedení výrazu MultiCommutativeOp jako optimalizace paměti pro kanonizaci velkých stromů commutativních výrazů
- [SPARK-42406] [SC-122998][PROTOBUF][Cherry-pick] Oprava rekurzivního nastavení hloubky pro funkce Protobuf
- [SPARK-42002] [SC-122476][CONNECT][PYTHON] Implementace třídy DataFrameWriterV2
- [SPARK-41716] [SC-122545][CONNECT] Přejmenování _catalog_to_pandas na _execute_and_fetch v katalogu
- [SPARK-41490] [SC-121774][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][SPARK-41623][SPARK-41612][CONNECT] Implementace Catalog.cacheTable, isCached a uncache
- [SPARK-42191] [SC-121990][SQL] Podpora udf "luhn_check"
- [SPARK-42253] [SC-121976][PYTHON] Přidání testu pro detekci duplicitní třídy chyb
- [SPARK-42268] [SC-122251][CONNECT][PYTHON] Přidání userDefinedType v protos
- [SPARK-42231] [SC-121841][SQL] Převést
MISSING_STATIC_PARTITION_COLUMN
nainternalError
- [SPARK-42136] [SC-122554] Refaktoring výpočtu dělení výstupu BroadcastHashJoinExec
- [SPARK-42158] [SC-121610][SQL] Integrace
_LEGACY_ERROR_TEMP_1003
doFIELD_NOT_FOUND
- [SPARK-42192] [12.x][SC-121820][PYTHON] Migrace TypeError z pyspark/sql/dataframe.py do PySparkTypeError
- [SPARK-35240] Vrátit "[SC-118242][SS] Použít CheckpointFileManager ...
- [SPARK-41488] [SC-121858][SQL] Přiřadit název _LEGACY_ERROR_TEMP_1176 (a 1177)
- [SPARK-42232] [SC-122267][SQL] Přejmenovat třídu chyby:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][SQL] Přepsání jedinečných agregací po sloučení poddotazů
- [SPARK-42306] [SC-122539][SQL] Integrace
_LEGACY_ERROR_TEMP_1317
doUNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-42234] [SC-122354][SQL] Přejmenovat třídu chyby:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
- [SPARK-42343] [SC-122437][JÁDRO] Ignorovat
IOException
,handleBlockRemovalFailure
pokud je SparkContext zastavený - [SPARK-41295] [SC-122442][SPARK-41296][SQL] Přejmenování tříd chyb
- [SPARK-42320] [SC-122478][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][SQL] Přiřazení názvu k _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][CONNECT] SparkConnectClient teď podporuje retryPolicies
- [SPARK-38728] [SC-116723][SQL] Otestování třídy chyb: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Samostatné příklady v PySparku
- [SPARK-39347] [SC-122457][SS] Oprava chyby výpočtu časového intervalu, kdy čas < události 0
- [SPARK-42336] [SC-122458][JÁDRO] Místo
getOrElse()
v ResourceAllocatorucontains()
- [SPARK-42125] [SC-121827][CONNECT][PYTHON] UDF Pandas v Nástroji Spark Connect
- [SPARK-42217] [SC-122263][SQL] Podpora implicitního laterálního aliasu sloupce v dotazech pomocí okna
- [SPARK-35240] [SC-118242][SS] Použití checkpointFileManager pro manipulaci se soubory kontrolního bodu
- [SPARK-42294] [SC-122337][SQL] Zahrnutí výchozích hodnot sloupců ve výstupu DESCRIBE pro tabulky V2
- [SPARK-41979] Vrátit zpět "[12.x][SC-121190][SQL] Přidání chybějících tečk pro chybové zprávy ve třídách chyb"
- [SPARK-42286] [SC-122336][SQL] Návrat k předchozí cestě kódu codegen pro komplexní výraz s CAST
- [SPARK-42275] [SC-122249][CONNECT][PYTHON] Vyhněte se použití integrovaného seznamu, diktování ve statickém psaní
- [SPARK-41985] [SC-122172][SQL] Centralizace dalších pravidel překladu sloupců
- [SPARK-42126] [SC-122330][PYTHON][CONNECT] Přijmout návratový typ v řetězcích DDL pro skalární uživatelem Pythonu v Nástroji Spark Connect
- [SPARK-42197] [SC-122328][SC-121514][CONNECT] Znovu použije inicializaci prostředí JVM a samostatné skupiny konfigurace pro nastavení ve vzdáleném místním režimu.
- [SPARK-41575] [SC-120118][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Vrácení položky [SC-122172][SQL] Centralizace dalších pravidel překladu sloupců
- [SPARK-42123] [SC-122234][SC-121453][SQL] Zahrnutí výchozích hodnot sloupců do výstupu DESCRIBE a SHOW CREATE TABLE
- [SPARK-41985] [SC-122172][SQL] Centralizace dalších pravidel překladu sloupců
- [SPARK-42284] [SC-122233][CONNECT] Před spuštěním klientských testů se ujistěte, že sestavení serveru pro připojení je sestavené – SBT.
- [SPARK-42239] [SC-121790][SQL] Integrovat
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42278] [SC-122170][SQL] Pushdown DS V2 podporuje samotné kompilace
SortOrder
dialektů JDBC. - [SPARK-42259] [SC-122168][SQL] ResolveGroupingAnalytics by se měl postarat o Python UDAF
- [SPARK-41979] Vraťte se "[12.x][SC-121190][SQL] Přidání chybějících tečk pro chybové zprávy ve třídách chyb."
- [SPARK-42224] [12.x][SC-121708][CONNECT] Migrace TypeError do architektury chyb pro funkce Spark Connect
- [SPARK-41712] [12.x][SC-121189][PYTHON][CONNECT] Migrujte chyby Spark Connect do architektury chyb PySpark.
- [SPARK-42119] [SC-121913][SC-121342][SQL] Přidání integrovaných funkcí s hodnotami tabulky a inline_outer
- [SPARK-41489] [SC-121713][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][SC-121163][SPARK-41598][PYTHON][CONNECT] Představení chyby PySparkValueError a PySparkTypeError
- [SPARK-42081] [SC-121723][SQL] Vylepšení ověřování změn plánu
- [SPARK-42225] [12.x][SC-121714][CONNECT] Přidejte SparkConnectIllegalArgumentException pro zpracování chyby Spark Connect přesně.
- [SPARK-42044] [12.x][SC-121280][SQL] Oprava nesprávné chybové zprávy pro
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][SC-121712][PS] Při vytváření datového rámce s řadou povolte parametr sloupců.
- [SPARK-42078] [12.x][SC-120761][PYTHON] Migrace chyb vyvolaných prostředím JVM do PySparkException
- [SPARK-42133] [12.x][SC-121250] Přidání základních metod rozhraní API datové sady do klienta Scala SparkConnect
- [SPARK-41979] [12.x][SC-121190][SQL] Přidejte chybějící tečky pro chybové zprávy ve třídách chyb.
- [SPARK-42124] [12.x][SC-121420][PYTHON][CONNECT] Skalární vložená funkce definovaná uživatelem Pythonu ve Spark Connect
- [SPARK-42051] [SC-121994][SQL] Podpora Codegenu pro HiveGenericUDF
- [SPARK-42257] [SC-121948][JÁDRO] Odebrání externího řazení nepoužívaných proměnných
- [SPARK-41735] [SC-121771][SQL] Použití funkce MINIMAL místo standardu pro SparkListenerSQLExecutionEnd
- [SPARK-42236] [SC-121882][SQL] Pročistit
NULLABLE_ARRAY_OR_MAP_ELEMENT
- [SPARK-42233] [SC-121775][SQL] Zlepšení chybové zprávy pro
PIVOT_AFTER_GROUP_BY
- [SPARK-42229] [SC-121856][JÁDRO] Migrace
SparkCoreErrors
do tříd chyb - [SPARK-42163] [SC-121839][SQL] Oprava vyřazování schématu pro neskládaný index pole nebo mapový klíč
- [SPARK-40711] [SC-119990][SQL] Přidání metrik velikosti přelití pro okno
- [SPARK-42023] [SC-121847][SPARK-42024][CONNECT][PYTHON] Převod
createDataFrame
podporyAtomicType -> StringType
- [SPARK-42202] [SC-121837][Připojit][Test] Vylepšení logiky zastavení testovacího serveru E2E
- [SPARK-41167] [SC-117425][SQL] Zvýšení výkonu s více úrovněmi vytvořením predikátu stromu výrazů s vyrovnáváním
- [SPARK-41931] [SC-121618][SQL] Lepší chybová zpráva pro neúplnou definici komplexního typu
- [SPARK-36124] [SC-121339][SC-110446][SQL] Podpora poddotazů s korelací prostřednictvím UNION
- [SPARK-42090] [SC-121290][3.3] Zavedení počtu opakování sasl v RetryingBlockTransferoru
- [SPARK-42157] [SC-121264][JÁDRO]
spark.scheduler.mode=FAIR
by měl poskytnout plánovač FAIR - [SPARK-41572] [SC-120772][SQL] Přiřazení názvu k _LEGACY_ERROR_TEMP_2149
- [SPARK-41983] [SC-121224][SQL] Přejmenovávat a vylepšovat chybovou zprávu pro
NULL_COMPARISON_RESULT
- [SPARK-41976] [SC-121024][SQL] Zlepšení chybové zprávy pro
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][SC-120573] Přiřazení stavu SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Opakování požadavků SASL
- [SPARK-38591] [SC-121018][SQL] Přidání flatMapSortedGroups a cogroupSorted
- [SPARK-41975] [SC-120767][SQL] Zlepšení chybové zprávy pro
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][SQL][PROTOBUF] Přidání chybějících možností pro funkce Protobuf
- [SPARK-41984] [SC-120769][SQL] Přejmenovávat a vylepšovat chybovou zprávu pro
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][SQL] Oprava NPE pro třídy chyb: CANNOT_PARSE_JSON_FIELD
- [SPARK-41772] [SC-121176][CONNECT][PYTHON] Oprava nesprávného názvu sloupce v
withField
dokumentu doctest - [SPARK-41283] [SC-121175][CONNECT][PYTHON] Přidat
array_append
do připojení - [SPARK-41960] [SC-120773][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][SQL] Oprava getPartitionFiltersAndDataFilters() pro zpracování filtrů bez odkazovaných atributů
- [SPARK-42096] [SC-121012][CONNECT] Vyčištění kódu pro
connect
modul - [SPARK-42099] [SC-121114][SPARK-41845][CONNECT][PYTHON] Oprava
count(*)
acount(col(*))
- [SPARK-42045] [SC-120958][SC-120450][SQL] Režim ANSI SQL: Round/Bround by měl vracet chybu při přetečení celého čísla.
- [SPARK-42043] [SC-120968][CONNECT] Výsledek klienta Scala s testy E2E
- [SPARK-41884] [SC-121022][CONNECT] Podpora naïve řazené řazené kolekce členů jako vnořeného řádku
- [SPARK-42112] [SC-121011][SQL][SS] Přidání kontroly null před
ContinuousWriteRDD#compute
zavření funkcedataWriter
- [SPARK-42077] [SC-120553][CONNECT][PYTHON] Literál by měl vyvolat chybu TypeError pro nepodporovaný datový typ.
- [SPARK-42108] [SC-120898][SQL] Transformace Analyzátoru
Count(*)
naCount(1)
- [SPARK-41666] [SC-120928][SC-119009][PYTHON] Podpora parametrizovaného SQL podle
sql()
- [SPARK-40599] [SC-120930][SQL] Relax multiTransform rule type to allow alternativy be any type of Seq
- [SPARK-41574] [SC-120771][SQL] Aktualizovat
_LEGACY_ERROR_TEMP_2009
jakoINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_1249
- [SPARK-41974] [SC-120766][SQL] Převést
INCORRECT_END_OFFSET
naINTERNAL_ERROR
- [SPARK-41530] [SC-120916][SC-118513][JÁDRO] Přejmenování MedianHeap na PercentileMap a podpora percentilu
- [SPARK-41757] [SC-120608][SPARK-41901][CONNECT] Oprava řetězcové reprezentace pro třídu Column
- [SPARK-42084] [SC-120775][SQL] Vyhněte se úniku omezení pouze kvalifikovaného přístupu
- [SPARK-41973] [SC-120765][SQL] Přiřadit název _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][SQL] SPJ: Odebrání možnosti v KeyGroupedPartitioning#partitionValuesOpt
- [SPARK-42079] [SC-120712][CONNECT][PYTHON] Přejmenování zpráv proto pro
toDF
awithColumnsRenamed
- [SPARK-42089] [SC-120605][CONNECT][PYTHON] Oprava problémů s názvy proměnných ve vnořených funkcích lambda
- [SPARK-41982] [SC-120604][SQL] Oddíly typu řetězce by neměly být považovány za číselné typy.
- [SPARK-40599] [SC-120620][SQL] Přidání metod multiTransform do TreeNode pro generování alternativ
- [SPARK-42085] [SC-120556][CONNECT][PYTHON] Podpora
from_arrow_schema
vnořených typů - [SPARK-42057] [SC-120507][SQL][PROTOBUF] Opravte způsob zpracování výjimky ve generování zpráv o chybách.
- [SPARK-41586] [12.x][VŠECHNY TESTY][SC-120544][PYTHON] Zavedení
pyspark.errors
tříd chyb pro PySpark - [SPARK-41903] [SC-120543][CONNECT][PYTHON]
Literal
by měla podporovat 1-dim ndarray - [SPARK-42021] [SC-120584][CONNECT][PYTHON] Podpora
createDataFrame
array.array
- [SPARK-41896] [SC-120506][SQL] Filtrování podle indexu řádků vrátí prázdné výsledky.
- [SPARK-41162] [SC-119742][SQL] Oprava anti-a polo-join pro samoobslužné spojení s agregacemi
- [SPARK-41961] [SC-120501][SQL] Podpora tabulkových funkcí pomocí funkce LATERAL
- [SPARK-41752] [SC-120550][SQL][UŽIVATELSKÉ ROZHRANÍ] Seskupit vnořené spuštění pod kořenovým spuštěním
- [SPARK-42047] [SC-120586][SPARK-41900][CONNECT][PYTHON][12.X] Literál by měl podporovat datové typy Numpy
- [SPARK-42028] [SC-120344][CONNECT][PYTHON] Zkrácení časových razítek nanosekund
- [SPARK-42011] [SC-120534][CONNECT][PYTHON] Implementace DataFrameReader.csv
- [SPARK-41990] [SC-120532][SQL] Místo
FieldReference.column
převoduapply
filtru V1 na V2 - [SPARK-39217] [SC-120446][SQL] Podpora DPP na straně vyřazování má Sjednocení
- [SPARK-42076] [SC-120551][CONNECT][PYTHON] Převod dat
arrow -> rows
faktoru naconversion.py
- [SPARK-42074] [SC-120540][SQL]
TPCDSQueryBenchmark
PovoleníKryoSerializer
vynucování registrace třídy SQL - [SPARK-42012] [SC-120517][CONNECT][PYTHON] Implementace třídy DataFrameReader.orc
- [SPARK-41832] [SC-120513][CONNECT][PYTHON] Oprava
DataFrame.unionByName
, přidání allow_missing_columns - [SPARK-38651] [SC-120514] [SQL] Přidat
spark.sql.legacy.allowEmptySchemaWrite
- [SPARK-41991] [SC-120406][SQL]
CheckOverflowInTableInsert
VýrazProxy by měl přijmout jako podřízenou hodnotu. - [SPARK-41232] [SC-120073][SQL][PYTHON] Přidání funkce array_append
- [SPARK-42041] [SC-120512][SPARK-42013][CONNECT][PYTHON] DataFrameReader by měl podporovat seznam cest
- [SPARK-42071] [SC-120533][JÁDRO] Registrace
scala.math.Ordering$Reverse
k KyroSerializer - [SPARK-41986] [SC-120429][SQL] Představení náhodného prohazování u singlepartition
- [SPARK-42016] [SC-120428][CONNECT][PYTHON] Povolení testů souvisejících s vnořeným sloupcem
- [SPARK-42042] [SC-120427][CONNECT][PYTHON]
DataFrameReader
by měla podporovat schéma StructType - [SPARK-42031] [SC-120389][JÁDRO][SQL] Vyčištění
remove
metod, které nepotřebují přepsání - [SPARK-41746] [SC-120463][SPARK-41838][SPARK-41837][SPARK-41835][SPARK-41836][SPARK-41847][CONNECT][PYTHON] Podpora
createDataFrame(rows/lists/tuples/dicts)
vnořených typů - [SPARK-41437] [SC-117601][SQL][VŠECHNY TESTY] Neoptimalizovat vstupní dotaz dvakrát pro záložní zápis v1
- [SPARK-41840] [SC-119719][CONNECT][PYTHON] Přidání chybějícího aliasu
groupby
- [SPARK-41846] [SC-119717][CONNECT][PYTHON] Povolení testování dokumentů pro funkce oken
- [SPARK-41914] [SC-120094][SQL] FileFormatWriter materializuje plán AQE před přístupem k outputOrdering
- [SPARK-41805] [SC-119992][SQL] Opakované použití výrazů v WindowSpecDefinition
- [SPARK-41977] [SC-120269][SPARK-41978][CONNECT] SparkSession.range, aby jako argumenty přebíjely float
- [SPARK-42029] [SC-120336][CONNECT] Přidání pravidel shadingu Guava, aby
connect-common
se zabránilo selhání při spuštění - [SPARK-41989] [SC-120334][PYTHON] Vyhněte se konfiguraci protokolování způsobující chybu z pyspark.pandas
- [SPARK-42003] [SC-120331][SQL] Omezení duplicitního kódu v ResolveGroupByAll
- [SPARK-41635] [SC-120313][SQL] Oprava seskupení podle všech zpráv o chybách
- [SPARK-41047] [SC-120291][SQL] Vylepšení dokumentace pro kolo
- [SPARK-41822] [SC-120122][CONNECT] Nastavení připojení gRPC pro klienta Scala/JVM
- [SPARK-41879] [SC-120264][CONNECT][PYTHON] Podpora
DataFrame.collect
vnořených typů - [SPARK-41887] [SC-120268][CONNECT][PYTHON] Nastavení
DataFrame.hint
parametru typovaného seznamu pro přijetí - [SPARK-41964] [SC-120210][CONNECT][PYTHON] Přidání seznamu nepodporovaných vstupně-výstupních funkcí
- [SPARK-41595] [SC-120097][SQL] Funkce generátoru podpory exploduje/explode_outer v klauzuli FROM
- [SPARK-41957] [SC-120121][CONNECT][PYTHON] Povolení doctestu pro
DataFrame.hint
- [SPARK-41886] [SC-120141][CONNECT][PYTHON]
DataFrame.intersect
Výstup doctestu má jiné pořadí - [SPARK-41442] [SC-117795][SQL][VŠECHNY TESTY] Aktualizovat hodnotu SQLMetric pouze při slučování s platnou metrikou
- [SPARK-41944] [SC-120046][CONNECT] Předání konfigurací, když je místní vzdálený režim zapnutý
- [SPARK-41708] [SC-119838][SQL] Načtení informací v1write do
WriteFiles
- [SPARK-41780] [SC-120000][SQL] Měla by vyvolat INVALID_PARAMETER_VALUE. PATTERN, pokud jsou parametry
regexp
neplatné - [SPARK-41889] [SC-119975][SQL] Připojení původní příčiny k neplatným třídám chybPatternError a refaktoringu INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][SQL] Vytvoření tříd případů AvroScanBuilder a JsonScanBuilder
- [SPARK-41945] [SC-120010][CONNECT][PYTHON] Python: Připojení klientů ztratila data sloupců pomocí pyarrow. Table.to_pylist
- [SPARK-41690] [SC-119102][SC-119087][SQL][CONNECT] Nezávislé kodéry
- [SPARK-41354] [SC-119995][CONNECT][PYTHON] Implementace repartitionByExpression
- [SPARK-41581] [SC-119997][SQL] Aktualizovat
_LEGACY_ERROR_TEMP_1230
jakoINTERNAL_ERROR
- [SPARK-41928] [SC-119972][CONNECT][PYTHON] Přidání nepodporovaného seznamu pro
functions
- [SPARK-41933] [SC-119980][CONNECT] Zadejte místní režim, který automaticky spustí server.
- [SPARK-41899] [SC-119971][CONNECT][PYTHON] createDataFrame by měl respektovat schéma DDL poskytnuté uživatelem.
- [SPARK-41936] [SC-119978][CONNECT][PYTHON] Opětovné
withMetadata
použití protowithColumns
- [SPARK-41898] [SC-119931][CONNECT][PYTHON] Window.rowsBetween, Window.rangeBetween – typ parity s pyspark
- [SPARK-41939] [SC-119977][CONNECT][PYTHON] Přidání nepodporovaného seznamu pro
catalog
funkce - [SPARK-41924] [SC-119946][CONNECT][PYTHON] Podpora metadat a implementace třídy StructType
DataFrame.withMetadata
- [SPARK-41934] [SC-119967][CONNECT][PYTHON] Přidání nepodporovaného seznamu funkcí pro
session
- [SPARK-41875] [SC-119969][CONNECT][PYTHON] Přidání testovacích případů pro
Dataset.to()
- [SPARK-41824] [SC-119970][CONNECT][PYTHON] Ingore the doctest for explain of connect
- [SPARK-41880] [SC-119959][CONNECT][PYTHON] Make function
from_json
accept non-literal schema - [SPARK-41927] [SC-119952][CONNECT][PYTHON] Přidání nepodporovaného seznamu pro
GroupedData
- [SPARK-41929] [SC-119949][CONNECT][PYTHON] Přidání funkce
array_compact
- [SPARK-41827] [SC-119841][CONNECT][PYTHON] Nastavit
GroupBy
seznam sloupců pro přijetí - [SPARK-41925] [SC-119905][SQL] Povolit
spark.sql.orc.enableNestedColumnVectorizedReader
ve výchozím nastavení - [SPARK-41831] [SC-119853][CONNECT][PYTHON] Nastavit
DataFrame.select
seznam sloupců pro přijetí - [SPARK-41455] [SC-119858][CONNECT][PYTHON] Zrušení
DataFrame.collect
informací o časovém pásmu - [SPARK-41923] [SC-119861][CONNECT][PYTHON] Přidání
DataFrame.writeTo
do nepodporovaného seznamu - [SPARK-41912] [SC-119837][SQL] Poddotaz by neměl ověřovat CTE
- [SPARK-41828] [SC-119832][CONNECT][PYTHON][12.X] Podpora
createDataFrame
prázdného datového rámce - [SPARK-41905] [SC-119848][CONNECT] Podpora názvu jako řetězců v řezu
- [SPARK-41869] [SC-119845][CONNECT] Odmítnout jeden řetězec v dropDuplicates
- [SPARK-41830] [SC-119840][CONNECT][PYTHON] Přijměte
DataFrame.sample
stejné parametry jako PySpark. - [SPARK-41849] [SC-119835][CONNECT] Implementace třídy DataFrameReader.text
- [SPARK-41861] [SC-119834][SQL] Provedení kontroly typu sestavení () scan v2 ScanBuilders
- [SPARK-41825] [SC-119710][CONNECT][PYTHON] Povolení doctestů souvisejících s
DataFrame.show
- [SPARK-41855] [SC-119804][SC-119410][SPARK-41814][SPARK-41851][SPARK-41852][CONNECT][PYTHON][12.X] Správné
createDataFrame
nastavení úchytu none/NaN - [SPARK-41833] [SC-119685][SPARK-41881][SPARK-41815][CONNECT][PYTHON] Nastavení
DataFrame.collect
úchytu None/NaN/Array/Binary porperly - [SPARK-39318] [SC-119713][SQL] Odebrání zlatých souborů tpch-plan-stability pomocí statistik
- [SPARK-41791] [SC-119745] Přidání nových typů sloupců metadat zdroje souborů
- [SPARK-41790] [SC-119729][SQL] Nastavení správného formátu čtečky TRANSFORM a zapisovače
- [SPARK-41829] [SC-119725][CONNECT][PYTHON] Přidání chybějícího parametru řazení do
Sort
asortWithinPartitions
- [SPARK-41576] [SC-119718][SQL] Přiřadit název _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][CONNECT][PYTHON] Oprava testu dokumentace pro objekt DataFrame.describe
- [SPARK-41871] [SC-119714][CONNECT] Parametr nápovědy datového rámce může být str, float nebo int.
- [SPARK-41720] [SC-119076][SQL] Přejmenování unresolvedFunc na UnresolvedFunctionName
- [SPARK-41573] [SC-119567][SQL] Přiřazení názvu _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][SQL] Oprava chyby správnosti související s výchozími hodnotami ve čtečce Orc
- [SPARK-41582] [SC-119482][SC-118701][JÁDRO][SQL] Opakované použití
INVALID_TYPED_LITERAL
místo_LEGACY_ERROR_TEMP_0022
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 12.2.
Prostředí systému
- Operační systém: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.19
- R: 4.2.2
- Delta Lake: 2.2.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
krásnásoup4 | 4.11.1 | černý | 22.3.0 | bělit | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
kliknutí | 8.0.4 | kryptografie | 3.4.8 | cyklista | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | ladění | 1.5.1 |
dekoratér | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | vstupní body | 0,4 | vykonávající | 0.8.3 |
přehled omezujících vlastností | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
Jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgety | 1.0.0 |
verizonsolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | špatně zamyšlení | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
poznámkový blok | 6.4.8 | numpy | 1.21.5 | balení | 21.3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | bábovka | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Polštář | 9.0.1 | jádro | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
čistý-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
žádosti | 2.27.1 | requests-unixsocket | 0.2.0 | lano | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
Šest | 1.16.0 | polévky | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | houževnatost | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornádo | 6.1 |
vlastnosti | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
bezobslužné upgrady | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
kolo | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Nainstalované knihovny jazyka R
Knihovny R se instalují ze snímku Microsoft CRAN 11.11.2022.
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
šipka | 10.0.0 | askpass | 1,1 | assertthat | 0.2.1 |
backporty | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bitové | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
startování | 1.3-28 | vařit | 1.0-8 | verva | 1.1.3 |
koště | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
volající | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-21 | Rozhraní příkazového řádku | 3.4.1 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | barevný prostor | 2.0-3 | commonmark | 1.8.1 |
– kompilátor | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
pastelka | 1.5.2 | přihlašovací údaje | 1.3.2 | kudrna | 4.3.3 |
data.table | 1.14.4 | Power BI | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | trávit | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
tři tečky | 0.3.2 | evaluate | 0,18 | fanynky | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | zahraniční | 0.8-82 |
kovat | 0.2.0 | Fs | 1.5.2 | budoucnost | 1.29.0 |
future.apply | 1.10.0 | kloktadlo | 1.2.1 | Generik | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globálních objektů | 0.16.1 |
lepidlo | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | Grafika | 4.2.2 | grDevices | 4.2.2 |
mřížka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | bezpečnostní přilba | 1.2.0 | útočiště | 2.5.1 |
highr | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iterátory | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | pletení | 1,40 |
značení | 0.4.2 | později | 1.3.0 | mříž | 0.20-45 |
láva | 1.7.0 | lifecycle | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | sleva | 1.3 |
MŠE | 7.3-58.2 | Matice | 1.5-1 | memoise | 2.0.1 |
metody | 4.2.2 | mgcv | 1.8-41 | mim | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
paralelně | 1.32.1 | pilíř | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | chválit | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Průběh | 1.2.2 |
progressr | 0.11.0 | sliby | 1.2.0.1 | proto | 1.0.0 |
plná moc | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | Analýza rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recepty | 1.0.3 |
odvetný zápas | 1.0.1 | rematch2 | 2.1.2 | vzdálená zařízení | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversions | 2.1.2 |
rvest | 1.0.3 | drzá napodobenina | 0.4.2 | váhy | 1.2.1 |
selektor | 0.4-2 | sessioninfo | 1.2.2 | tvar | 1.4.6 |
lesklý | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | prostorový | 7.3-11 | spline křivky | 4.2.2 |
sqldf | 0.4-11 | ČTVEREC | 2021.1 | statistické údaje | 4.2.2 |
Statistiky 4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
přežití | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | časový interval | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | Uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | Waldo | 0.4.0 |
vous | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.12)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | automatické škálování aws-java-sdk | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | podpora aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | datový proud | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | Kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.kofein | kofein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | nativní native_ref javy | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | nativní native_system javy | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metriky – jádro | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metriky – kontroly stavu | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metriky – servlety | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty- common | 4.1.74.Final |
io.netty | obslužná rutina netty | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | sběratel | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivace | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | marináda | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.kurátor | kurátor-client | 2.13.0 |
org.apache.kurátor | kurátor-framework | 2.13.0 |
org.apache.kurátor | kurátor-recepty | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | břečťan | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | kódování parquet | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | cílové skupiny a poznámky | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | pokračování jetty | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket – společné | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | žerzejové společné | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | Hibernate-validator | 6.1.0.Final |
org.javassist | Javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotace | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Podložky | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | nepoužitý | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | kočky-kernel_2.12 | 2.1.1 |
org.typelevel | makro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |