Databricks Runtime 12.2 LTS
Följande viktig information innehåller information om Databricks Runtime 12.2 LTS, som drivs av Apache Spark 3.3.2.
Databricks släppte den här versionen i mars 2023.
Kommentar
LTS innebär att den här versionen stöds på lång sikt. Se Livscykeln för Databricks Runtime LTS-versionen.
Dricks
Information om hur du ser viktig information för Databricks Runtime-versioner som har nått supportens slut (EoS) finns i Viktig information om Databricks Runtime-slut. EoS Databricks Runtime-versionerna har dragits tillbaka och kanske inte uppdateras.
Förändringar i beteende
[Icke-bakåtkompatibel ändring] Ny Python-version kräver uppdatering av Databricks Connect V1 Python-klienter
För att tillämpa nödvändiga säkerhetskorrigeringar uppgraderas Python-versionen i Databricks Runtime 12.2 LTS från 3.9.5 till 3.9.19. Eftersom dessa ändringar kan orsaka fel i klienter som använder specifika PySpark-funktioner måste alla klienter som använder Databricks Connect V1 för Python med Databricks Runtime 12.2 LTS uppdateras till Python 3.9.7 eller senare.
Nya funktioner och förbättringar
- Delta Lake-schemautveckling har stöd för att ange källkolumner i sammanslagningsinstruktioner
- Strukturerade strömningsarbetsbelastningar stöds i kluster med läget för delad åtkomst
- Nya funktioner för förutsägande I/O
- Stöd för implicit lateral kolumnalias
- Ny forEachBatch-funktion
- Standardiserade anslutningsalternativ för frågefederation
- Utökat SQL-funktionsbibliotek för matrishantering
- Ny maskfunktion för att anonymisera strängar
- Vanliga felvillkor returnerar nu SQLSTATEs
- Anropa generatorfunktioner i FROM-satsen
- Stöd för protokollbuffertar är allmänt tillgängligt
- Gå till definition för notebook-variabler och funktioner
- Snabbkorrigering för notebook-filer för automatisk import av bibliotek
- Felkorrigeringar
Delta Lake-schemautveckling har stöd för att ange källkolumner i sammanslagningsinstruktioner
Nu kan du ange kolumner som bara finns i källtabellen i infoga eller uppdatera åtgärder för kopplingsinstruktioner när schemautveckling är aktiverat. I Databricks Runtime 12.1 och nedan kan endast INSERT *
åtgärder eller UPDATE SET *
åtgärder användas för schemautveckling med sammanslagning. Se Automatisk schemautveckling för Delta Lake-sammanslagning.
Strukturerade strömningsarbetsbelastningar stöds i kluster med läget för delad åtkomst
Nu kan du använda Structured Streaming för att interagera med Unity Catalog i delade kluster. Vissa begränsningar gäller. Se Vilka funktioner för strukturerad direktuppspelning stöder Unity Catalog?.
Nya funktioner för förutsägande I/O
Photon-stöd för Foreachbatch
mottagaren är nu tillgängligt. Arbetsbelastningar som strömmas från en källa och sammanfogas till deltatabeller eller skriver till flera mottagare kan nu dra nytta av fotonas mottagare Foreachbatch
.
Stöd för implicit lateral kolumnalias
Azure Databricks stöder nu implicit lateral kolumnalias som standard. Nu kan du återanvända ett uttryck som angavs tidigare i samma SELECT
lista. Till exempel, givet SELECT 1 AS a
, a
a + 1 AS b
kan in a + 1
matchas som den tidigare definierade 1 AS a
. Kontrollera Namnmatchning för mer information i matchningsordning.
Om du vill inaktivera den här funktionen kan du ange spark.sql.lateralColumnAlias.enableImplicitResolution
till false
.
Ny forEachBatch-funktion
Foton stöds nu när du använder foreachBatch
för att skriva till en datamottagare.
Standardiserade anslutningsalternativ för frågefederation
Nu kan du använda en enhetlig uppsättning alternativ (värd, port, databas, användare, lösenord)för att ansluta till datakällor som stöds i Frågefederation. Port
är valfritt och använder standardportnumret för varje datakälla, om det inte anges.
Utökat SQL-funktionsbibliotek för matrishantering
Nu kan du ta bort alla NULL-element från en matris med hjälp av array_compact. Om du vill lägga till element i en matris använder du array_append.
Ny maskfunktion för att anonymisera strängar
Anropa maskfunktionen för att anonymisera känsliga strängvärden.
Vanliga felvillkor returnerar nu SQLSTATEs
De flesta feltillstånd som Databricks Runtime nu innehåller dokumenterade SQLSTATE-värden som kan användas för att testa fel på ett sql-standardkompatibelt sätt.
Anropa generatorfunktioner i FROM-satsen
Nu kan du anropa generatorfunktioner med tabellvärde, till exempel explodera i den vanliga FROM
satsen i en fråga. Detta justerar generatorfunktionens anrop med andra inbyggda och användardefinierade tabellfunktioner.
Stöd för protokollbuffertar är allmänt tillgängligt
Du kan använda from_protobuf
funktionerna och to_protobuf
för att utbyta data mellan binära och struct-typer. Se Läsa och skriva protokollbuffertar.
Gå till definition för notebook-variabler och funktioner
I notebook-filer kan du snabbt gå till definitionen av en variabel, funktion eller koden bakom en %run
instruktion genom att högerklicka på variabeln eller funktionsnamnet.
Snabbkorrigering för notebook-filer för automatisk import av bibliotek
Databricks Notebooks erbjuder nu en snabbkorrigeringsfunktion för automatisk import av bibliotek. Om du glömmer att importera ett bibliotek som Pandas hovrar du över den understrukna syntaxvarningen och klickar sedan på Snabbkorrigering. Den här funktionen kräver att Databricks Assistant är aktiverat på din arbetsyta.
Felkorrigeringar
- Förbättrad konsekvens för Delta-incheckningsbeteende för tomma transaktioner relaterade till
update
kommandona ,delete
ochmerge
. PåWriteSerializable
isoleringsnivå skapar kommandon som inte resulterar i några ändringar nu en tom incheckning. På isoleringsnivåSerializable
skapar sådana tomma transaktioner nu ingen incheckning.
Funktionalitetsförändringar
Beteendeändringar med den nya laterala kolumnaliasfunktionen
Den nya laterala kolumnaliasfunktionen introducerar beteendeändringar för följande fall under namnmatchning:
- Alias för lateral kolumn har nu företräde framför korrelerade referenser med samma namn. För den här frågan
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
c1
löstes till exempel i det inrec1 AS c2
till den korrelerade referensent.c1
, men ändras nu till lateral kolumnalias1 AS c1
. Frågan returnerarNULL
nu . - Alias för lateral kolumn har nu företräde framför funktionsparametrar med samma namn. För funktionen
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
x
löstes till exempel i funktionstexten till funktionsparametern x, men ändras till lateralt kolumnaliasx + 1
i funktionstexten. FråganSELECT * FROM func(1)
returnerar2, 2
nu . - Om du vill inaktivera aliasfunktionen för laterala kolumner anger du
spark.sql.lateralColumnAlias.enableImplicitResolution
tillfalse
. Mer information finns i Namnmatchning.
Biblioteksuppgraderingar
- Uppgraderade Python-bibliotek:
- filelock från 3.8.2 till 3.9.0
- joblib från 1.1.0 till 1.1.1
- platformdirs från 2.6.0 till 2.6.2
- whatthepatch från 1.0.3 till 1.0.4
- Uppgraderade R-bibliotek:
- klass från 7.3-20 till 7.3-21
- codetools från 0.2-18 till 0.2-19
- MASS från 7,3-58 till 7,3-58,2
- nlme från 3.1-160 till 3.1-162
- Rserve från 1.8-11 till 1.8-12
- SparkR från 3.3.1 till 3.3.2
Beteendeändringar
- Användare måste nu ha
SELECT
ochMODIFY
behörigheter för alla filer när de skapar ett schema med en definierad plats.
Apache Spark
Databricks Runtime 12.2 innehåller Apache Spark 3.3.2. Den här versionen innehåller alla Spark-korrigeringar och förbättringar som ingår i Databricks Runtime 12.1 (EoS) samt följande ytterligare felkorrigeringar och förbättringar som gjorts i Spark:
- [SPARK-42416] [SC-123205][SC-122851][SQL] Dateset-åtgärder bör inte matcha den analyserade logiska planen igen
- [SPARK-41848] Återställ "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Åtgärda aktivitet överplanerad med TaskResourceProfile"
- [SPARK-42162] [SC-122711][ES-556261] Introducera MultiCommutativeOp-uttryck som en minnesoptimering för kanonisering av stora träd med kommutativa uttryck
- [SPARK-42406] [SC-122998][PROTOBUF][Cherry-pick] Åtgärda rekursiv djupinställning för Protobuf-funktioner
- [SPARK-42002] [SC-122476][ANSLUT][PYTHON] Implementera DataFrameWriterV2
- [SPARK-41716] [SC-122545][ANSLUT] Byt namn på _catalog_to_pandas till _execute_and_fetch i katalogen
- [SPARK-41490] [SC-121774][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][SPARK-41623][SPARK-41612][ANSLUT] Implementera Catalog.cacheTable, isCached och uncache
- [SPARK-42191] [SC-121990][SQL] Stöd för udf "luhn_check"
- [SPARK-42253] [SC-121976][PYTHON] Lägg till test för att identifiera duplicerad felklass
- [SPARK-42268] [SC-122251][ANSLUT][PYTHON] Lägg till UserDefinedType i protos
- [SPARK-42231] [SC-121841][SQL] Förvandlas
MISSING_STATIC_PARTITION_COLUMN
tillinternalError
- [SPARK-42136] [SC-122554] Refaktorutdatapartitioneringsberäkning för BroadcastHashJoinExec
- [SPARK-42158] [SC-121610][SQL] Integrera
_LEGACY_ERROR_TEMP_1003
iFIELD_NOT_FOUND
- [SPARK-42192] [12.x][SC-121820][PYTHON] Migrera TypeError från pyspark/sql/dataframe.py till PySparkTypeError
- [SPARK-35240] Återställ "[SC-118242][SS] Använd CheckpointFileManager ...
- [SPARK-41488] [SC-121858][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_1176 (och 1177)
- [SPARK-42232] [SC-122267][SQL] Byt namn på felklass:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][SQL] Skriv om distinkta aggregeringar efter sammanslagning av underfrågor
- [SPARK-42306] [SC-122539][SQL] Integrera
_LEGACY_ERROR_TEMP_1317
iUNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-42234] [SC-122354][SQL] Byt namn på felklass:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
- [SPARK-42343] [SC-122437][CORE] Ignorera
IOException
ihandleBlockRemovalFailure
om SparkContext stoppas - [SPARK-41295] [SC-122442][SPARK-41296][SQL] Byt namn på felklasserna
- [SPARK-42320] [SC-122478][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][ANSLUT] SparkConnectClient har stöd för retryPolicies nu
- [SPARK-38728] [SC-116723][SQL] Testa felklassen: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Fristående exempel i PySpark
- [SPARK-39347] [SC-122457][SS] Felkorrigering för tidsfönsterberäkning när händelsetid < 0
- [SPARK-42336] [SC-122458][CORE] Använd
getOrElse()
i ställetcontains()
för i ResourceAllocator - [SPARK-42125] [SC-121827][ANSLUT][PYTHON] Pandas UDF i Spark Connect
- [SPARK-42217] [SC-122263][SQL] Stöd för implicita laterala kolumnalias i frågor med Window
- [SPARK-35240] [SC-118242][SS] Använda CheckpointFileManager för kontrollpunktsfilmanipulering
- [SPARK-42294] [SC-122337][SQL] Inkludera kolumnstandardvärden i DESCRIBE-utdata för V2-tabeller
- [SPARK-41979] Återställ "Återställ "[12.x][SC-121190][SQL] Lägg till saknade punkter för felmeddelanden i felklasser.""
- [SPARK-42286] [SC-122336][SQL] Återställning till tidigare kodsökväg för codegen för komplexa uttr med CAST
- [SPARK-42275] [SC-122249][ANSLUT][PYTHON] Undvik att använda inbyggd lista, diktera i statisk typning
- [SPARK-41985] [SC-122172][SQL] Centralisera fler regler för kolumnmatchning
- [SPARK-42126] [SC-122330][PYTHON][ANSLUT] Acceptera returtyp i DDL-strängar för Python Scalar-UDF:er i Spark Connect
- [SPARK-42197] [SC-122328][SC-121514][ANSLUT] Återanvänder JVM-initiering och separata konfigurationsgrupper som ska anges i fjärrlokalt läge
- [SPARK-41575] [SC-120118][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Återställ "[SC-122172][SQL] Centralisera fler kolumnmatchningsregler"
- [SPARK-42123] [SC-122234][SC-121453][SQL] Inkludera kolumnstandardvärden i DESCRIBE och SHOW CREATE TABLE output
- [SPARK-41985] [SC-122172][SQL] Centralisera fler regler för kolumnmatchning
- [SPARK-42284] [SC-122233][ANSLUT] Kontrollera att anslutningsserversammansättningen har skapats innan du kör klienttester – SBT
- [SPARK-42239] [SC-121790][SQL] Integrera
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42278] [SC-122170][SQL] DS V2-pushdown stöder JDBC-dialekter som kompileras
SortOrder
själva - [SPARK-42259] [SC-122168][SQL] ResolveGroupingAnalytics bör ta hand om Python UDAF
- [SPARK-41979] Återställ "[12.x][SC-121190][SQL] Lägg till saknade punkter för felmeddelanden i felklasser."
- [SPARK-42224] [12.x][SC-121708][ANSLUT] Migrera TypeError till felramverket för Spark Connect-funktioner
- [SPARK-41712] [12.x][SC-121189][PYTHON][ANSLUT] Migrera Spark Connect-felen till PySpark-felramverket.
- [SPARK-42119] [SC-121913][SC-121342][SQL] Lägg till inbyggda tabellvärdesfunktioner infogade och inline_outer
- [SPARK-41489] [SC-121713][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][SC-121163][SPARK-41598][PYTHON][ANSLUT] Presentera PySparkValueError och PySparkTypeError
- [SPARK-42081] [SC-121723][SQL] Förbättra planändringsverifieringen
- [SPARK-42225] [12.x][SC-121714][ANSLUT] Lägg till SparkConnectIllegalArgumentException för att hantera Spark Connect-fel exakt.
- [SPARK-42044] [12.x][SC-121280][SQL] Åtgärda fel felmeddelande för
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][SC-121712][PS] Tillåt kolumnparameter när du skapar DataFrame med serie.
- [SPARK-42078] [12.x][SC-120761][PYTHON] Migrera fel som utlöses av JVM till PySparkException.
- [SPARK-42133] [12.x][SC-121250] Lägga till grundläggande API-metoder för datauppsättning i SparkConnect Scala-klienten
- [SPARK-41979] [12.x][SC-121190][SQL] Lägg till saknade punkter för felmeddelanden i felklasser.
- [SPARK-42124] [12.x][SC-121420][PYTHON][ANSLUT] Scalar Inline Python UDF i Spark Connect
- [SPARK-42051] [SC-121994][SQL] Codegen-stöd för HiveGenericUDF
- [SPARK-42257] [SC-121948][CORE] Ta bort oanvänd extern sortering av variabel
- [SPARK-41735] [SC-121771][SQL] Använd MINIMAL i stället för STANDARD för SparkListenerSQLExecutionEnd
- [SPARK-42236] [SC-121882][SQL] Förfina
NULLABLE_ARRAY_OR_MAP_ELEMENT
- [SPARK-42233] [SC-121775][SQL] Förbättra felmeddelandet för
PIVOT_AFTER_GROUP_BY
- [SPARK-42229] [SC-121856][CORE] Migrera
SparkCoreErrors
till felklasser - [SPARK-42163] [SC-121839][SQL] Åtgärda schemarensning för icke-vikbar matrisindex eller kartnyckel
- [SPARK-40711] [SC-119990][SQL] Lägga till mått för spillstorlek för fönstret
- [SPARK-42023] [SC-121847][SPARK-42024][ANSLUT][PYTHON] Gör
createDataFrame
supporttvångAtomicType -> StringType
- [SPARK-42202] [SC-121837][Anslut][Test] Förbättra stopplogik för E2E-testservern
- [SPARK-41167] [SC-117425][SQL] Förbättra prestanda för flera uttryck genom att skapa ett trädpredikat för balanserade uttryck
- [SPARK-41931] [SC-121618][SQL] Bättre felmeddelande för ofullständig komplex typdefinition
- [SPARK-36124] [SC-121339][SC-110446][SQL] Stöd för underfrågor med korrelation via UNION
- [SPARK-42090] [SC-121290][3.3] Introducera antal sasl-återförsök i RetryingBlockTransferor
- [SPARK-42157] [SC-121264][CORE]
spark.scheduler.mode=FAIR
bör tillhandahålla FAIR-schemaläggaren - [SPARK-41572] [SC-120772][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2149
- [SPARK-41983] [SC-121224][SQL] Byt namn på och förbättra felmeddelandet för
NULL_COMPARISON_RESULT
- [SPARK-41976] [SC-121024][SQL] Förbättra felmeddelandet för
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][SC-120573] Tilldela SQLSTATE(1/2)
- [SPARK-41415] [SC-121117][3.3] SASL-begärandeförsök
- [SPARK-38591] [SC-121018][SQL] Lägg till flatMapSortedGroups och cogroupSorted
- [SPARK-41975] [SC-120767][SQL] Förbättra felmeddelandet för
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][SQL][PROTOBUF] Lägga till alternativ som saknas för Protobuf-funktioner
- [SPARK-41984] [SC-120769][SQL] Byt namn på och förbättra felmeddelandet för
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][SQL] Åtgärda NPE för felklasser: CANNOT_PARSE_JSON_FIELD
- [SPARK-41772] [SC-121176][ANSLUT][PYTHON] Åtgärda fel kolumnnamn i
withField
dokumentet - [SPARK-41283] [SC-121175][ANSLUT][PYTHON] Lägg till
array_append
i Anslut - [SPARK-41960] [SC-120773][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][SQL] Åtgärda getPartitionFiltersAndDataFilters() för att hantera filter utan refererade attribut
- [SPARK-42096] [SC-121012][ANSLUT] Viss kodrensning för
connect
modul - [SPARK-42099] [SC-121114][SPARK-41845][ANSLUT][PYTHON] Åtgärda
count(*)
ochcount(col(*))
- [SPARK-42045] [SC-120958][SC-120450][SQL] ANSI SQL-läge: Round/Bround ska returnera ett fel vid heltalsspill
- [SPARK-42043] [SC-120968][ANSLUT] Scala-klientresultat med E2E-tester
- [SPARK-41884] [SC-121022][ANSLUT] Stöd för naiv tuppeln som en kapslad rad
- [SPARK-42112] [SC-121011][SQL][SS] Lägg till null-kontroll innan
ContinuousWriteRDD#compute
funktionen stängsdataWriter
- [SPARK-42077] [SC-120553][ANSLUT][PYTHON] Literal ska utlösa TypeError för DataType som inte stöds
- [SPARK-42108] [SC-120898][SQL] Gör Analyzer-transformering
Count(*)
tillCount(1)
- [SPARK-41666] [SC-120928][SC-119009][PYTHON] Stöd för parameteriserad SQL efter
sql()
- [SPARK-40599] [SC-120930][SQL] Koppla av regeltypen multiTransform så att alternativ kan vara alla typer av Seq
- [SPARK-41574] [SC-120771][SQL] Uppdatera
_LEGACY_ERROR_TEMP_2009
somINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_1249
- [SPARK-41974] [SC-120766][SQL] Förvandlas
INCORRECT_END_OFFSET
tillINTERNAL_ERROR
- [SPARK-41530] [SC-120916][SC-118513][CORE] Byt namn på MedianHeap till PercentileMap och stöd percentil
- [SPARK-41757] [SC-120608][SPARK-41901][ANSLUT] Åtgärda strängrepresentation för kolumnklass
- [SPARK-42084] [SC-120775][SQL] Undvik att läcka begränsningen endast för kvalificerad åtkomst
- [SPARK-41973] [SC-120765][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][SQL] SPJ: Ta bort alternativ i KeyGroupedPartitioning#partitionValuesOpt
- [SPARK-42079] [SC-120712][ANSLUT][PYTHON] Byt namn på proto-meddelanden för
toDF
ochwithColumnsRenamed
- [SPARK-42089] [SC-120605][ANSLUT][PYTHON] Åtgärda problem med variabelnamn i kapslade lambda-funktioner
- [SPARK-41982] [SC-120604][SQL] Partitioner av typsträng ska inte behandlas som numeriska typer
- [SPARK-40599] [SC-120620][SQL] Lägga till multiTransform-metoder i TreeNode för att generera alternativ
- [SPARK-42085] [SC-120556][ANSLUT][PYTHON] Skapa
from_arrow_schema
stöd för kapslade typer - [SPARK-42057] [SC-120507][SQL][PROTOBUF] Åtgärda hur undantaget hanteras vid felrapportering.
- [SPARK-41586] [12.x][ALLA TESTER][SC-120544][PYTHON] Introduktion och
pyspark.errors
felklasser för PySpark. - [SPARK-41903] [SC-120543][ANSLUT][PYTHON]
Literal
bör stödja 1-dim ndarray - [SPARK-42021] [SC-120584][ANSLUT][PYTHON] Skapa
createDataFrame
supportarray.array
- [SPARK-41896] [SC-120506][SQL] Filtrering efter radindex returnerar tomma resultat
- [SPARK-41162] [SC-119742][SQL] Åtgärda anti- och halvkoppling för självkoppling med aggregeringar
- [SPARK-41961] [SC-120501][SQL] Stöd för tabellvärdesfunktioner med LATERAL
- [SPARK-41752] [SC-120550][SQL][Användargränssnitt] Gruppera kapslade körningar under rotkörningen
- [SPARK-42047] [SC-120586][SPARK-41900][ANSLUT][PYTHON][12.X] Literal bör ha stöd för Numpy-datatyper
- [SPARK-42028] [SC-120344][ANSLUT][PYTHON] Trunkera tidsstämplar för nanosekunder
- [SPARK-42011] [SC-120534][ANSLUT][PYTHON] Implementera DataFrameReader.csv
- [SPARK-41990] [SC-120532][SQL] Använd
FieldReference.column
i stället förapply
i V1 till V2-filterkonvertering - [SPARK-39217] [SC-120446][SQL] Gör att DPP-stöd för beskärningssidan har Union
- [SPARK-42076] [SC-120551][ANSLUT][PYTHON] Konvertering av faktordata
arrow -> rows
tillconversion.py
- [SPARK-42074] [SC-120540][SQL] Aktivera
KryoSerializer
iTPCDSQueryBenchmark
för att framtvinga SQL-klassregistrering - [SPARK-42012] [SC-120517][ANSLUT][PYTHON] Implementera DataFrameReader.orc
- [SPARK-41832] [SC-120513][ANSLUT][PYTHON] Åtgärda
DataFrame.unionByName
, lägg till allow_missing_columns - [SPARK-38651] [SC-120514] [SQL] Addera
spark.sql.legacy.allowEmptySchemaWrite
- [SPARK-41991] [SC-120406][SQL]
CheckOverflowInTableInsert
bör acceptera ExpressionProxy som underordnad - [SPARK-41232] [SC-120073][SQL][PYTHON] Lägga till funktionen array_append
- [SPARK-42041] [SC-120512][SPARK-42013][ANSLUT][PYTHON] DataFrameReader bör ha stöd för en lista över sökvägar
- [SPARK-42071] [SC-120533][CORE] Registrera dig
scala.math.Ordering$Reverse
för KyroSerializer - [SPARK-41986] [SC-120429][SQL] Introducera shuffle på SinglePartition
- [SPARK-42016] [SC-120428][ANSLUT][PYTHON] Aktivera tester relaterade till den kapslade kolumnen
- [SPARK-42042] [SC-120427][ANSLUT][PYTHON]
DataFrameReader
bör ha stöd för StructType-schema - [SPARK-42031] [SC-120389][CORE][SQL]
remove
Rensa metoder som inte behöver åsidosättas - [SPARK-41746] [SC-120463][SPARK-41838][SPARK-41837][SPARK-41835][SPARK-41836][SPARK-41847][ANSLUT][PYTHON] Skapa
createDataFrame(rows/lists/tuples/dicts)
stöd för kapslade typer - [SPARK-41437] [SC-117601][SQL][ALLA TESTER] Optimera inte indatafrågan två gånger för tillbakaskrivning av v1
- [SPARK-41840] [SC-119719][ANSLUT][PYTHON] Lägg till det saknade aliaset
groupby
- [SPARK-41846] [SC-119717][ANSLUT][PYTHON] Aktivera dokumenttest för fönsterfunktioner
- [SPARK-41914] [SC-120094][SQL] FileFormatWriter materialiserar AQE-plan innan du kommer åt outputOrdering
- [SPARK-41805] [SC-119992][SQL] Återanvända uttryck i WindowSpecDefinition
- [SPARK-41977] [SC-120269][SPARK-41978][ANSLUT] SparkSession.range för att ta flyttal som argument
- [SPARK-42029] [SC-120336][ANSLUT] Lägg till Guava Shading-regler för att
connect-common
undvika startfel - [SPARK-41989] [SC-120334][PYTHON] Undvik att bryta loggningskonfigurationen från pyspark.pandas
- [SPARK-42003] [SC-120331][SQL] Minska duplicerad kod i ResolveGroupByAll
- [SPARK-41635] [SC-120313][SQL] Åtgärda grupp efter all felrapportering
- [SPARK-41047] [SC-120291][SQL] Förbättra dokument för runda
- [SPARK-41822] [SC-120122][ANSLUT] Konfigurera gRPC-anslutning för Scala/JVM-klienten
- [SPARK-41879] [SC-120264][ANSLUT][PYTHON] Skapa
DataFrame.collect
stöd för kapslade typer - [SPARK-41887] [SC-120268][ANSLUT][PYTHON] Gör
DataFrame.hint
accept list typed parameter - [SPARK-41964] [SC-120210][ANSLUT][PYTHON] Lägg till listan över I/O-funktioner som inte stöds
- [SPARK-41595] [SC-120097][SQL] Stödgeneratorfunktionen exploderar/explode_outer i FROM-satsen
- [SPARK-41957] [SC-120121][ANSLUT][PYTHON] Aktivera dokumentettestet för
DataFrame.hint
- [SPARK-41886] [SC-120141][ANSLUT][PYTHON]
DataFrame.intersect
doctest-utdata har olika ordning - [SPARK-41442] [SC-117795][SQL][ALLA TESTER] Uppdatera endast SQLMetric-värdet om sammanslagning med giltigt mått
- [SPARK-41944] [SC-120046][ANSLUT] Skicka konfigurationer när lokalt fjärrläge är aktiverat
- [SPARK-41708] [SC-119838][SQL] Hämta v1write-information till
WriteFiles
- [SPARK-41780] [SC-120000][SQL] Ska kasta INVALID_PARAMETER_VALUE. MÖNSTER när parametrarna
regexp
är ogiltiga - [SPARK-41889] [SC-119975][SQL] Koppla rotorsaken till invalidPatternError & refaktorfelklasser INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][SQL] Skapa Fallklasser för AvroScanBuilder och JsonScanBuilder
- [SPARK-41945] [SC-120010][ANSLUT][PYTHON] Python: anslut förlorade kolumndata för klienten med pyarrow. Table.to_pylist
- [SPARK-41690] [SC-119102][SC-119087][SQL][ANSLUT] Agnostiska kodare
- [SPARK-41354] [SC-119995][ANSLUT][PYTHON] Implementera RepartitionByExpression
- [SPARK-41581] [SC-119997][SQL] Uppdatera
_LEGACY_ERROR_TEMP_1230
somINTERNAL_ERROR
- [SPARK-41928] [SC-119972][ANSLUT][PYTHON] Lägg till listan som inte stöds för
functions
- [SPARK-41933] [SC-119980][ANSLUT] Ange lokalt läge som startar servern automatiskt
- [SPARK-41899] [SC-119971][ANSLUT][PYTHON] createDataFrame ska respektera användarens DDL-schema
- [SPARK-41936] [SC-119978][ANSLUT][PYTHON] Gör
withMetadata
så att proto återanvändswithColumns
- [SPARK-41898] [SC-119931][ANSLUT][PYTHON] Window.rowsBetween, Window.rangeBetween parameters typechecking parity with pyspark
- [SPARK-41939] [SC-119977][ANSLUT][PYTHON] Lägg till listan över
catalog
funktioner som inte stöds - [SPARK-41924] [SC-119946][ANSLUT][PYTHON] Gör StructType till stöd för metadata och implementera
DataFrame.withMetadata
- [SPARK-41934] [SC-119967][ANSLUT][PYTHON] Lägg till funktionslistan som inte stöds för
session
- [SPARK-41875] [SC-119969][ANSLUT][PYTHON] Lägga till testfall för
Dataset.to()
- [SPARK-41824] [SC-119970][ANSLUT][PYTHON] Ingore dokumentet för att förklara anslutning
- [SPARK-41880] [SC-119959][ANSLUT][PYTHON] Gör så att funktionen
from_json
accepterar icke-literalschema - [SPARK-41927] [SC-119952][ANSLUT][PYTHON] Lägg till listan som inte stöds för
GroupedData
- [SPARK-41929] [SC-119949][ANSLUT][PYTHON] Lägg till funktion
array_compact
- [SPARK-41827] [SC-119841][ANSLUT][PYTHON] Ta
GroupBy
emot kolumnlista - [SPARK-41925] [SC-119905][SQL] Aktivera
spark.sql.orc.enableNestedColumnVectorizedReader
som standard - [SPARK-41831] [SC-119853][ANSLUT][PYTHON] Ta
DataFrame.select
emot kolumnlista - [SPARK-41455] [SC-119858][ANSLUT][PYTHON] Ta
DataFrame.collect
bort tidszonsinformationen - [SPARK-41923] [SC-119861][ANSLUT][PYTHON] Lägg till
DataFrame.writeTo
i listan som inte stöds - [SPARK-41912] [SC-119837][SQL] Underfrågor bör inte verifiera CTE
- [SPARK-41828] [SC-119832][ANSLUT][PYTHON][12.X] Gör
createDataFrame
stöd för tom dataram - [SPARK-41905] [SC-119848][ANSLUT] Stödnamn som strängar i sektorn
- [SPARK-41869] [SC-119845][ANSLUT] Avvisa enkel sträng i dropDuplicates
- [SPARK-41830] [SC-119840][ANSLUT][PYTHON] Acceptera
DataFrame.sample
samma parametrar som PySpark - [SPARK-41849] [SC-119835][ANSLUT] Implementera DataFrameReader.text
- [SPARK-41861] [SC-119834][SQL] Gör v2 ScanBuilders build() returnerad genomsökning
- [SPARK-41825] [SC-119710][ANSLUT][PYTHON] Aktivera dokumenttest som är relaterade till
DataFrame.show
- [SPARK-41855] [SC-119804][SC-119410][SPARK-41814][SPARK-41851][SPARK-41852][ANSLUT][PYTHON][12.X] Gör
createDataFrame
hantera None/NaN korrekt - [SPARK-41833] [SC-119685][SPARK-41881][SPARK-41815][ANSLUT][PYTHON] Hantera
DataFrame.collect
None/NaN/Array/Binary porperly - [SPARK-39318] [SC-119713][SQL] Ta bort tpch-plan-stabilitet WithStats gyllene filer
- [SPARK-41791] [SC-119745] Lägga till nya kolumntyper för filkällans metadata
- [SPARK-41790] [SC-119729][SQL] Ange transformeringsläsarens och skrivarens format korrekt
- [SPARK-41829] [SC-119725][ANSLUT][PYTHON] Lägg till den saknade ordningsparametern i
Sort
ochsortWithinPartitions
- [SPARK-41576] [SC-119718][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][ANSLUT][PYTHON] Åtgärda dokumenttest för DataFrame.describe
- [SPARK-41871] [SC-119714][ANSLUT] DataFrame-tipsparametern kan vara str, float eller int
- [SPARK-41720] [SC-119076][SQL] Byt namn på UnresolvedFunc till UnresolvedFunctionName
- [SPARK-41573] [SC-119567][SQL] Tilldela namn till _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][SQL] Åtgärda korrigeringsfel relaterade till STANDARDvärden i Orc-läsare
- [SPARK-41582] [SC-119482][SC-118701][CORE][SQL] Återanvänd i
INVALID_TYPED_LITERAL
stället för_LEGACY_ERROR_TEMP_0022
Underhållsuppdateringar
Se Underhållsuppdateringar för Databricks Runtime 12.2.
Systemmiljö
- Operativsystem: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.19
- R: 4.2.2
- Delta lake: 2.2.0
Installerade Python-bibliotek
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindningar | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | svart | 22.3.0 | blekmedel | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klicka | 8.0.4 | kryptografi | 3.4.8 | cyklist | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | felsökning | 1.5.1 |
dekoratör | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | entrypoints | 0,4 | Verkställande | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | Mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook-fil | 6.4.8 | numpy | 1.21.5 | emballage | 21,3 |
Pandas | 1.4.2 | pandocfilter | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | Patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Kudde | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
begäranden | 2.27.1 | requests-unixsocket | 0.2.0 | rep | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
sex | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5,10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | orubblighet | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tromb | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
obevakade uppgraderingar | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
hjul | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Installerade R-bibliotek
R-bibliotek installeras från Microsoft CRAN-ögonblicksbilden 2022-11-11.
Bibliotek | Version | Bibliotek | Version | Bibliotek | Version |
---|---|---|---|---|---|
arrow | 10.0.0 | askpass | 1,1 | assertthat | 0.2.1 |
backportar | 1.4.1 | bas | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
start | 1.3-28 | brygga | 1.0-8 | Brio | 1.1.3 |
kvast | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
anropare | 3.7.3 | textmarkör | 6.0-93 | cellranger | 1.1.0 |
Chron | 2.3-58 | klass | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | klocka | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | färgområde | 2.0-3 | commonmark | 1.8.1 |
kompilator | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
krita | 1.5.2 | autentiseringsuppgifter | 1.3.2 | hårlock | 4.3.3 |
data.table | 1.14.4 | datauppsättningar | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | Desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | smälta | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellips | 0.3.2 | evaluate (utvärdera) | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | främmande | 0.8-82 |
smida | 0.2.0 | Fs | 1.5.2 | framtid | 1.29.0 |
future.apply | 1.10.0 | gurgla | 1.2.1 | Generika | 0.1.3 |
Gert | 1.9.1 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
lim | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafik | 4.2.2 | grDevices | 4.2.2 |
gitter | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | hamn | 2.5.1 |
highr | 0,9 | Hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
Id | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iteratorer | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | stickning | 1,40 |
Märkning | 0.4.2 | senare | 1.3.0 | Galler | 0.20-45 |
lava | 1.7.0 | livscykel | 1.0.3 | lyssna | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | Markdown | 1.3 |
MASSA | 7.3-58.2 | Matris | 1.5-1 | pmise | 2.0.1 |
metoder | 4.2.2 | mgcv | 1.8-41 | MIME | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallellt | 1.32.1 | pelare | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | berömma | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Förlopp | 1.2.2 |
progressr | 0.11.0 | Löften | 1.2.0.1 | Proto | 1.0.0 |
proxyserver | 0.4-27 | PS | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recept | 1.0.3 |
Returmatch | 1.0.1 | rematch2 | 2.1.2 | Fjärrkontroller | 2.4.2 |
reprex | 2.0.2 | omforma2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0,14 | rversioner | 2.1.2 |
rvest | 1.0.3 | Sass | 0.4.2 | våg | 1.2.1 |
väljare | 0.4-2 | sessioninfo | 1.2.2 | form | 1.4.6 |
skinande | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | rumslig | 7.3-11 | Splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | statistik | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
överlevnad | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | avmarkera | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0.42 | verktyg | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
verktyg | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | Vroom | 1.6.0 | Waldo | 0.4.0 |
morrhår | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | Zip | 2.2.2 |
Installerade Java- och Scala-bibliotek (Scala 2.12-klusterversion)
Grupp-ID | Artefakt-ID | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | ström | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-skuggad | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasskamrat | 1.3.4 |
com.fasterxml.jackson.core | jackson-anteckningar | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.koffein | koffein | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | kärna | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tingeling | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profilerare | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1,1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2,6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffert | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | samlare | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | aktivering | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | ättikslag | 1.2 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | Ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | pilformat | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | pilvektor | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recept | 2.13.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | murgröna | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-kodning | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | åhörarkommentarer | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-fortsättning | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | brygga plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-server | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | brygga-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | vilolägesverifierare | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Anteckningar | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | oanvänd | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |