Databricks Runtime 14.3 LTS
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 14.3 LTS, con tecnologia Apache Spark 3.5.0.
Databricks ha rilasciato questa versione a febbraio 2024.
Nota
LTS indica che questa versione è supportata a lungo termine. Vedere Ciclo di vita della versione LTS di Databricks Runtime.
Suggerimento
Per visualizzare le note sulla versione per le versioni di Databricks Runtime che hanno raggiunto la fine del supporto (EoS), vedere Note sulla versione della fine del supporto di Databricks Runtime. Le versioni EoS di Databricks Runtime sono state ritirate e potrebbero non essere aggiornate.
Miglioramenti e nuove funzionalità
- Supporto del file system dell'area di lavoro in Funzioni definite dall'utente pySpark nei cluster condivisi
- Supporto per le ottimizzazioni dei vettori
MERGE
di eliminazione senza Photon - Api del catalogo Spark ora completamente supportate in modalità di accesso condiviso
- Delta UniForm è ora disponibile a livello generale
- Nuova funzione SQL EXECUTE IMMEDIATE
- Ricompilare le statistiche di ignorare i dati per le tabelle Delta
- Informazioni sullo stato delle query sullo stato per le query di streaming con stato
- Usare l'ID Microsoft Entra per l'autenticazione Kafka nei cluster condivisi
- Aggiunta del supporto per l'eliminazione di file e partizioni per migliorare le prestazioni delle query
- Dichiarare variabili temporanee in una sessione SQL
- Aggiornamenti thriftserver per rimuovere le funzionalità inutilizzate
- Usare i file truststore e keystore nei volumi del catalogo Unity
- Supporto del formato di file XML nativo (anteprima pubblica)
- Supporto per l'archiviazione Cloudflare R2 (anteprima pubblica)
- L'accesso a Spark e dbutils ai file dell'area di lavoro supporta i cluster del catalogo Unity con accesso condiviso
- Script Init e supporto della libreria di cluster nei cluster del catalogo Unity con accesso condiviso
Supporto del file system dell'area di lavoro in Funzioni definite dall'utente pySpark nei cluster condivisi
Le funzioni definite dall'utente pySpark nei cluster condivisi possono ora importare moduli Python da cartelle Git, file dell'area di lavoro o volumi UC.
Per altre informazioni sull'uso dei moduli nelle cartelle Git o nei file dell'area di lavoro, vedere Usare i moduli Python e R.
Supporto per le ottimizzazioni dei vettori MERGE
di eliminazione senza Photon
Photon non è più necessario per le operazioni per MERGE
sfruttare le ottimizzazioni dei vettori di eliminazione. Si veda Che cosa sono i vettori di eliminazione?.
Api del catalogo Spark ora completamente supportate in modalità di accesso condiviso
È ora possibile usare tutte le funzioni nell'API spark.catalog
sia in Python che in Scala nel calcolo configurato con la modalità di accesso condiviso.
Delta UniForm è ora disponibile a livello generale
UniForm è ora disponibile a livello generale e usa la IcebergCompatV2
funzionalità tabella. È ora possibile abilitare o aggiornare UniForm nelle tabelle esistenti. Vedere Usare UniForm per leggere le tabelle Delta con i client Iceberg.
Nuova funzione SQL EXECUTE IMMEDIATE
È ora possibile usare la sintassi EXECUTE IMMEDIATE per supportare query con parametri in SQL. Vedere EXECUTE IMMEDIATE.
Ricompilare le statistiche di ignorare i dati per le tabelle Delta
È ora possibile ricompilare le statistiche archiviate nel log Delta dopo aver modificato le colonne usate per ignorare i dati. Vedere Specificare le colonne delle statistiche Delta.
Informazioni sullo stato delle query sullo stato per le query di streaming con stato
È ora possibile eseguire query sui dati e sui metadati dello stato structured streaming. Vedere Leggere le informazioni sullo stato di Structured Streaming.
Usare l'ID Microsoft Entra per l'autenticazione Kafka nei cluster condivisi
È ora possibile autenticare i servizi di Hub eventi tramite OAuth con Microsoft Entra ID nel calcolo configurato con la modalità di accesso condiviso. Vedere Autenticazione entità servizio con Microsoft Entra ID e Azure Event Hub.
Aggiunta del supporto per l'eliminazione di file e partizioni per migliorare le prestazioni delle query
Per velocizzare alcune query che si basano sull'uguaglianza a tolleranza Null nelle condizioni JOIN, è ora supportato DynamicFilePruning
e DynamicPartitionPruning
per l'operatore EqualNullSafe
in JOINs.
Dichiarare variabili temporanee in una sessione SQL
Questa versione introduce la possibilità di dichiarare variabili temporanee in una sessione che è possibile impostare e a cui si può quindi fare riferimento nelle query. Vedere Variabili.
Aggiornamenti thriftserver per rimuovere le funzionalità inutilizzate
Il codice Thriftserver è stato aggiornato per rimuovere il codice per le funzionalità obsolete. A causa di queste modifiche, le configurazioni seguenti non sono più supportate:
- I file JAR ausiliari Hive, configurati usando la
hive.aux.jars.path
proprietà , non sono più supportati perhive-thriftserver
le connessioni. - Il file init globale Hive (
.hiverc
), il cui percorso è configurato usando la proprietà o lahive.server2.global.init.file.location
HIVE_CONF_DIR
variabile di ambiente, non è più supportato perhive-thriftserver
le connessioni.
Usare i file truststore e archivio chiavi nei volumi di Unity Catalog
È ora possibile usare i file truststore e keystore nei volumi del catalogo Unity per eseguire l'autenticazione in un Registro schemi Confluent per i dati del buffer di protocollo o avro. Vedere la documentazione per buffer avro o protocol.
Supporto del formato di file XML nativo (anteprima pubblica)
Supporto del formato di file XML nativo adesso disponibile in anteprima pubblica. Il supporto del formato di file XML consente l'inserimento, l'esecuzione di query e l'analisi dei dati XML per l'elaborazione batch o lo streaming. Può dedurre ed evolvere automaticamente schemi e tipi di dati, supporta espressioni SQL come from_xml
e può generare documenti XML. Non richiede file JAR esterni e funziona perfettamente con il caricatore automatico, read_files
, COPY INTO
e le tabelle live Delta. Vedere Leggere e scrivere file XML.
Supporto per l'archiviazione Cloudflare R2 (anteprima pubblica)
È ora possibile usare Cloudflare R2 come memorizzazione cloud per i dati registrati nel catalogo Unity. Cloudflare R2 è destinato principalmente ai casi d'uso di Delta Sharing in cui si vogliono evitare le tariffe di uscita dei dati addebitate dai provider di servizi cloud quando i dati attraversano le aree. L’archiviazione R2 supporta tutti gli asset di dati e intelligenza artificiale di Databricks supportati in AWS S3, Azure Data Lake Storage Gen2 e Google Cloud Storage. Consultare Usare repliche Cloudflare R2 o eseguire la migrazione dell’archiviazione a R2 e Creare credenziali di archiviazione per la connessione a Cloudflare R2.
L'accesso a Spark e dbutils ai file dell'area di lavoro supporta i cluster del catalogo Unity con accesso condiviso
Spark, dbutils
l'accesso in lettura e scrittura ai file dell'area di lavoro è ora supportato nei cluster del catalogo Unity in modalità di accesso condiviso. Vedere Usare i file dell'area di lavoro.
Script Init e supporto della libreria di cluster nei cluster del catalogo Unity con accesso condiviso
L'installazione di script init con ambito cluster e librerie Python e JAR nei cluster del catalogo Unity in modalità di accesso condiviso, inclusa l'installazione con i criteri del cluster, è ora disponibile a livello generale. Databricks consiglia di installare script e librerie init dai volumi di Unity Catalog.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- fastjsonschema da 2.19.0 a 2.19.1
- filelock da 3.12.4 a 3.13.1
- googleapis-common-protos da 1.61.0 a 1.62.0
- imballaggio da 22.0 a 23.2
- Librerie R aggiornate:
- estero da 0,8-82 a 0,8-85
- nlme da 3.1-162 a 3.1-163
- rpart dalla versione 4.1.19 alla versione 4.1.21
- Librerie Java aggiornate:
- com.databricks.databricks-sdk-java da 0.7.0 a 0.13.0
- org.apache.orc.orc-core da 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
- org.apache.orc.orc-mapreduce da 1.9.1-shaded-protobuf a 1.9.2-shaded-protobuf
- org.apache.orc.orc-shims da 1.9.1 a 1.9.2
- org.scala-lang.modules.scala-collection-compat_2.12 da 2.9.0 a 2.11.0
Apache Spark
Databricks Runtime 14.3 include Apache Spark 3.5.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 14.2 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-46541] [SC-153546][SQL][CONNECT] Correggere il riferimento di colonna ambiguo in self join
- [SPARK-45433] Ripristinare "[SC-145163][SQL] Correzione dell'inferenza dello schema CSV/JSON...
- [SPARK-46723] [14.3][SASP-2792][SC-153425][CONNECT][SCALA] Rendere addArtifact riprovabile
- [SPARK-46660] [SC-153391][CONNECT] ReattachExecute richiede aggiornamenti dell'integrità del sessionholder
- [SPARK-46670] [SC-153273][PYTHON][SQL] Rendere DataSourceManager auto clone-able separando origini dati Python statiche e di runtime
- [SPARK-46720] [SC-153410][SQL][PYTHON] Effettuare il refactoring dell'origine dati Python per allinearsi ad altre origini dati predefinite DSv2
- [SPARK-46684] [SC-153275][PYTHON][CONNECT] Correzione di CoGroup.applyInPandas/Arrow per passare correttamente gli argomenti
- [SPARK-46667] [SC-153271][SC-153263][SQL] XML: genera un errore in più origini dati XML
- [SPARK-46382] [SC-151881][SQL]XML: valore predefinito ignoreSurroundingSpaces su true
- [SPARK-46382] [SC-153178][SQL] XML: documentazione di aggiornamento per
ignoreSurroundingSpaces
- [SPARK-45292] Ripristinare "[SC-151609][SQL][HIVE] Rimuovere Guava dalle classi condivise da IsolatedClientLoader"
- [SPARK-45292] [SC-151609][SQL][HIVE] Rimuovere Guava dalle classi condivise da IsolatedClientLoader
- [SPARK-46311] [SC-150137][CORE] Registrare lo stato finale dei driver durante
Master.removeDriver
- [SPARK-46413] [SC-151052][PYTHON] Convalidare returnType della funzione definita dall'utente python arrow
- [SPARK-46633] [WARMFIX][SC-153092][SQL] Correzione del lettore Avro per gestire blocchi di lunghezza zero
- [SPARK-46537] [SC-151286][SQL] Convertire NPE e asserzioni da comandi a errori interni
- [SPARK-46179] [SC-151678][SQL] Aggiungere CrossDbmsQueryTestSuites, che esegue altri DBMS su file golden con altri DBMS, a partire da Postgres
- [SPARK-44001] [SC-151413][PROTOBUF] Aggiungere l'opzione per consentire il wrapping di tipi wrapper noti protobuf
- [SPARK-40876] [SC-151786][SQL] Innalzamento di livello dei tipi per i decimali con scalabilità maggiore nei lettori Parquet
- [SPARK-46605] [SC-151769][CONNECT] Supporto della
lit/typedLit
funzione in connect modules.c.immutable.ArraySeq
- [SPARK-46634] [SC-153005][SQL] La convalida dei valori letterali non deve eseguire il drill-down in campi Null
- [SPARK-37039] [SC-153094][PS] Correzione
Series.astype
per il corretto funzionamento con il valore mancante - [SPARK-46312] [SC-150163][CORE] Usare
lower_camel_case
instore_types.proto
- [SPARK-46630] [SC-153084][SQL] XML: Convalidare il nome dell'elemento XML in scrittura
- [SPARK-46627] [SC-152981][SS][interfaccia utente] Correzione del contenuto della descrizione comando della sequenza temporale nell'interfaccia utente di streaming
- [SPARK-46248] [SC-151774][SQL] XML: supporto per le opzioni ignoreCorruptFiles e ignoreMissingFiles
- [SPARK-46386] [SC-150766][PYTHON] Migliorare le asserzioni di osservazione (pyspark.sql.osservazione)
- [SPARK-46581] [SC-151789][CORE] Aggiornare il commento su isZero in AnalyzerV2
- [SPARK-46601] [SC-151785] [CORE] Correzione dell'errore di log in handleStatusMessage
- [SPARK-46568] [SC-151685][PYTHON] Rendere le opzioni dell'origine dati Python un dizionario senza distinzione tra maiuscole e minuscole
- [SPARK-46611] [SC-151783][CORE] Rimuovere ThreadLocal sostituendo SimpleDateFormat con DateTimeFormatter
- [SPARK-46604] [SC-151768][SQL] Supporto
Literal.apply
s.c.immuable.ArraySeq
- [SPARK-46324] [SC-150223][SQL][PYTHON] Correggere il nome di output di pyspark.sql.functions.user e session_user
- [SPARK-46621] [SC-151794][PYTHON] Indirizzo Null da Exception.getMessage nell'eccezione acquisita py4J
- [SPARK-46598] [SC-151767][SQL] OrcColumnarBatchReader deve rispettare la modalità di memoria durante la creazione di vettori di colonna per la colonna mancante
- [SPARK-46613] [SC-151778][SQL][PYTHON] Eccezione completa del log quando non è stato possibile cercare origini dati Python
- [SPARK-46559] [SC-151364][MLLIB] Eseguire il wrapping di
export
nel nome del pacchetto con i backtick - [SPARK-46522] [SC-151784][PYTHON] Bloccare la registrazione dell'origine dati Python con conflitti di nomi
- [SPARK-45580] [SC-149956][SQL] Gestire il caso in cui una sottoquery nidificata diventa un join di esistenza
- [SPARK-46609] [SC-151714][SQL] Evitare l'esplosione esponenziale in PartitioningPreservingUnaryExecNode
- [SPARK-46535] [SC-151288][SQL] Correzione del server dei criteri di rete quando viene descritta una colonna estesa senza statistiche delle regole di confronto
- [SPARK-46599] [SC-147661][SC-151770][SQL] XML: usare TypeCoercion.findTightestCommonType per il controllo della compatibilità
- [SPARK-40876] [SC-151129][SQL] Promozioni di tipi più ampliate nei lettori Parquet
- [SPARK-46179] [SC-151069][SQL] Estrarre il codice in funzioni riutilizzabili in SQLQueryTestSuite
- [SPARK-46586] [SC-151679][SQL] Supporto
s.c.immutable.ArraySeq
comecustomCollectionCls
inMapObjects
- [SPARK-46585] [SC-151622][CORE] Costruito
metricPeaks
direttamente come inveceimmutable.ArraySeq
di usaremutable.ArraySeq.toSeq
inExecutor
- [SPARK-46488] [SC-151173][SQL] Ignorare trimAll call durante l'analisi del timestamp
- [SPARK-46231] [SC-149724][PYTHON] Eseguire la migrazione di tutti gli altri
NotImplementedError
eTypeError
nel framework di errore pySpark - [SPARK-46348] [SC-150281][CORE] Appoggiare
spark.deploy.recoveryTimeout
- [SPARK-46313] [SC-150164][CORE] Durata del ripristino del log
Spark HA
- [SPARK-46358] [SC-150307][CONNECT] Semplificare il controllo della condizione in
ResponseValidator#verifyResponse
- [SPARK-46380] [SC-151078][SQL]Sostituire l'ora/data corrente prima della valutazione delle espressioni di tabella inline.
- [SPARK-46563] [SC-151441][SQL] Visualizzare simpleString non seguire conf spark.sql.debug.maxToStringFields
- [SPARK-46101] [SC-149211][CORE][SQL][MLLIB][SS][R][CONNCT][GRAPHX] Ridurre la profondità dello stack sostituendo (string|array).size con (string|array).length
- [SPARK-46539] [SC-151469][SQL] SELECT * EXCEPT(tutti i campi di uno struct) genera un errore di asserzione
- [SPARK-46565] [SC-151414][PYTHON] Perfezionare le classi di errore e i messaggi di errore per le origini dati Python
- [SPARK-46576] [SC-151614][SQL] Migliorare i messaggi di errore per la modalità di salvataggio dell'origine dati non supportata
- [SPARK-46540] [SC-151355][PYTHON] Rispettare i nomi delle colonne quando l'origine dati Python legge gli output delle funzioni denominate Oggetti Row
- [SPARK-46577] [SC-151448][SQL] HiveMetastoreLazyInitializationSuite perde SessionState di Hive
- [SPARK-44556] [SC-151562][SQL] Riutilizzare
OrcTail
quando si abilita vectorizedReader - [SPARK-46587] [SC-151618][SQL] XML: Correzione della conversione di numeri interi grandi XSD
- [SPARK-46382] [SC-151297][SQL] XML: acquisisci valori intersperti tra gli elementi
- [SPARK-46567] [SC-151447][CORE] Rimuovere ThreadLocal per ReadAheadInputStream
- [SPARK-45917] [SC-151269][PYTHON][SQL] Registrazione automatica dell'origine dati Python all'avvio
- [SPARK-28386] [SC-151014][SQL] Impossibile risolvere le colonne ORDER BY con GROUP BY e HAVING
- [SPARK-46524] [SC-151446][SQL] Migliorare i messaggi di errore per la modalità di salvataggio non valida
- [SPARK-46294] [SC-150672][SQL] Pulire la semantica di init rispetto al valore zero
- [SPARK-46301] [SC-150100][CORE] Appoggiare
spark.worker.(initial|max)RegistrationRetries
- [SPARK-46542] [SC-151324][SQL] Rimuovere il controllo
c>=0
da perchéExternalCatalogUtils#needsEscaping
è sempre true - [SPARK-46553] [SC-151360][PS]
FutureWarning
perinterpolate
con dtype oggetto - [SPARK-45914] [SC-151312][PYTHON] Supporto del commit e dell'API di interruzione per la scrittura dell'origine dati Python
- [SPARK-46543] [SC-151350][PYTHON][CONNECT] Creare
json_tuple
un'eccezione PySparkValueError per i campi vuoti - [SPARK-46520] [SC-151227][PYTHON] Supporto della modalità di sovrascrittura per la scrittura dell'origine dati Python
- [SPARK-46502] [SC-151235][SQL] Supportare i tipi di timestamp in UnwrapCastInBinaryComparison
- [SPARK-46532] [SC-151279][CONNECT] Passare i parametri del messaggio nei metadati di
ErrorInfo
- [SPARK-46397] Ripristinare "[SC-151311][PYTHON][CONNECT] La funzione
sha2
deve generarePySparkValueError
per " non validonumBits
- [SPARK-46170] [SC-149472][SQL] Supporto dell'inserimento delle regole di strategia post planner query adattive in SparkSessionExtensions
- [SPARK-46444] [SC-151195][SQL] V2SessionCatalog#createTable non deve caricare la tabella
- [SPARK-46397] [SC-151311][PYTHON][CONNECT] La funzione
sha2
deve generarePySparkValueError
per un errore non validonumBits
- [SPARK-46145] [SC-149471][SQL] spark.catalog.listTables non genera eccezioni quando la tabella o la vista non viene trovata
- [SPARK-46272] [SC-151012][SQL] Supportare CTAS usando origini DSv2
- [SPARK-46480] [SC-151127][CORE][SQL] Correzione del server dei criteri di rete durante il tentativo di attività della cache delle tabelle
- [SPARK-46100] [SC-149051][CORE][PYTHON] Ridurre la profondità dello stack sostituendo (string|array).size con (string|array).length
- [SPARK-45795] [SC-150764][SQL] DS V2 supporta la modalità push down
- [SPARK-46485] [SC-151133][SQL] V1Write non deve aggiungere l'ordinamento quando non è necessario
- [SPARK-46468] [SC-151121] [SQL] Gestire il bug COUNT per le sottoquery EXISTS con Aggregazione senza raggruppare le chiavi
- [SPARK-46246] [SC-150927][SQL] Supporto DI EXECUTE IMMEDIATE SQL
- [SPARK-46498] [SC-151199][CORE] Rimuovi
shuffleServiceEnabled
dao.a.spark.util.Utils#getConfiguredLocalDirs
- [SPARK-46440] [SC-150807][SQL] Impostare le configurazioni di rebase sulla
CORRECTED
modalità per impostazione predefinita - [SPARK-45525] [SC-151120][SQL][PYTHON] Supporto per la scrittura dell'origine dati Python con DSv2
- [SPARK-46505] [SC-151187][CONNECT] Rendere configurabile la soglia byte in
ProtoUtils.abbreviate
- [SPARK-46447] [SC-151025][SQL] Rimuovere le configurazioni SQL di ribasaggio datetime legacy
- [SPARK-46443] [SC-151123][SQL] La precisione decimale e la scala devono essere decise dal dialetto H2.
- [SPARK-46384] [SC-150694][SPARK-46404][SS][interfaccia utente] Correzione del grafico dello stack di durata dell'operazione nella pagina Structured Streaming
- [SPARK-46207] [SC-151068][SQL] Supporto di MergeInto in DataFrameWriterV2
- [SPARK-46452] [SC-151018][SQL] Aggiungere una nuova API in DataWriter per scrivere un iteratore di record
- [SPARK-46273] [SC-150313][SQL] Supporto di INSERT INTO/OVERWRITE con origini DSv2
- [SPARK-46344] [SC-150267][CORE] Avvisa correttamente quando un driver esiste correttamente, ma il master è disconnesso
- [SPARK-46284] [SC-149944][PYTHON][CONNECT] Aggiungere
session_user
una funzione a Python - [SPARK-46043] [SC-149786][SQL] Supporto per la creazione di una tabella con origini DSv2
- [SPARK-46323] [SC-150191][PYTHON] Correggere il nome di output di pyspark.sql.functions.now
- [SPARK-46465] [SC-151059][PYTHON][CONNECT] Aggiungere
Column.isNaN
in PySpark - [SPARK-46456] [SC-151050][CORE] Aggiungere
spark.ui.jettyStopTimeout
per impostare il timeout di arresto del server Jetty per sbloccare l'arresto di SparkContext - [SPARK-43427] [SC-150356][PROTOBUF] spark protobuf: allow upcasting unsigned integer types
- [SPARK-46399] [SC-151013][14.x][Core] Aggiungere lo stato di uscita all'evento Application End per l'uso del listener Spark
- [SPARK-46423] [SC-150752][PYTHON][SQL] Impostare l'istanza dell'origine dati Python in DataSource.lookupDataSourceV2
- [SPARK-46424] [SC-150765][PYTHON][SQL] Supportare le metriche Python nell'origine dati Python
- [SPARK-46330] [SC-151015] Caricamento dei blocchi dell'interfaccia utente spark per molto tempo quando è abilitato HybridStore
- [SPARK-46378] [SC-150397][SQL] Rimuovere comunque l'ordinamento dopo la conversione dell'aggregazione in progetto
- [SPARK-45506] [SC-146959][CONNECT] Aggiungere il supporto dell'URI ivy a SparkConnect addArtifact
- [SPARK-45814] [SC-147871][CONNECT][SQL]Impostare ArrowConverters.createEmptyArrowBatch call close() per evitare perdite di memoria
- [SPARK-46427] [SC-150759][PYTHON][SQL] Modificare la descrizione dell'origine dati Python in modo che sia abbastanza in spiegare
- [SPARK-45597] [SC-150730][PYTHON][SQL] Supporto per la creazione di una tabella usando un'origine dati Python in SQL (DSv2 exec)
- [SPARK-46402] [SC-150700][PYTHON] Aggiungere getMessageParameters e il supporto getQueryContext
- [SPARK-46453] [SC-150897][CONNECT] Generare un'eccezione da
internalError()
inSessionHolder
- [SPARK-45758] [SC-147454][SQL] Introdurre un mapper per i codec di compressione hadoop
- [SPARK-46213] [PYTHON] Introduzione
PySparkImportError
al framework degli errori - [SPARK-46230] [SC-149960][PYTHON] Eseguire la migrazione
RetriesExceeded
in PySpark - errore - [SPARK-45035] [SC-145887][SQL] Correzione ignoreCorruptFiles/ignoreMissingFiles con CSV/JSON su più righe segnala un errore
- [SPARK-46289] [SC-150846][SQL] Supporto dell'ordinamento dei tipi definiti dall'utente in modalità interpretata
- [SPARK-46229] [SC-150798][PYTHON][CONNECT] Aggiungere applyInArrow a groupBy e cogroup in Spark Connect
- [SPARK-46420] [SC-150847][SQL] Rimuovere il trasporto inutilizzato in SparkSQLCLIDriver
- [SPARK-46226] [PYTHON] Eseguire la migrazione di tutti i file rimanenti
RuntimeError
nel framework degli errori pySpark - [SPARK-45796] [SC-150613][SQL] SUPPORT MODE() WITHIN GROUP (ORDER BY col)
- [SPARK-40559] [SC-149686][PYTHON][14.X] Aggiungere applyInArrow a groupBy e cogroup
- [SPARK-46069] [SC-149672][SQL] Supporto del tipo di timestamp di annullamento del wrapping nel tipo date
- [SPARK-46406] [SC-150770][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1023
- [SPARK-46431] [SC-150782][SS] Converti
IllegalStateException
ininternalError
negli iteratori di sessione - [SPARK-45807] [SC-150751][SQL] Migliorare l'API ViewCatalog
- [SPARK-46009] [SC-149771][SQL][CONNECT] Unire la regola di analisi di PercentileCont e PercentileDisc in functionCall
- [SPARK-46403] [SC-150756][SQL] Decodificare il file binario parquet con il metodo getBytesUnsafe
- [SPARK-46389] [SC-150779][CORE] Chiudere manualmente l'istanza quando
checkVersion
si genera un'eccezioneRocksDB/LevelDB
- [SPARK-46360] [SC-150376][PYTHON] Migliorare il debug dei messaggi di errore con la nuova
getMessage
API - [SPARK-46233] [SC-149766][PYTHON] Eseguire la migrazione di tutti i file rimanenti
AttributeError
nel framework degli errori pySpark - [SPARK-46394] [SC-150599][SQL] Correggere i problemi di spark.catalog.listDatabases() sugli schemi con caratteri speciali se
spark.sql.legacy.keepCommandOutputSchema
impostato su true - [SPARK-45964] [SC-148484][SQL] Rimuovere la funzione di accesso SQL privata nel pacchetto XML e JSON nel pacchetto catalyst
- [SPARK-45856] [SC-148691] Spostare ArtifactManager da Spark Connect in SparkSession (sql/core)
- [SPARK-46409] [SC-150714][CONNECT] Correggere lo script di avvio spark-connect-scala-client
- [SPARK-46416] [SC-150699][CORE] Aggiungi
@tailrec
aHadoopFSUtils#shouldFilterOutPath
- [SPARK-46115] [SC-149154][SQL] Limitare i set di caratteri in
encode()
- [SPARK-46253] [SC-150416][PYTHON] Pianificare la lettura dell'origine dati Python con MapInArrow
- [SPARK-46339] [SC-150266][SS] La directory con nome numero batch non deve essere considerata come log dei metadati
- [SPARK-46353] [SC-150396][CORE] Effettuare il refactoring per migliorare la
RegisterWorker
copertura degli unit test - [SPARK-45826] [SC-149061][SQL] Aggiungere una configurazione SQL per le tracce dello stack nel contesto di query del dataframe
- [SPARK-45649] [SC-150300][SQL] Unificare il framework di preparazione per OffsetWindowFunctionFrame
- [SPARK-46346] [SC-150282][CORE] Correzione master per aggiornare un ruolo di lavoro da
UNKNOWN
aALIVE
inRegisterWorker
msg - [SPARK-46388] [SC-150496][SQL] HiveAnalysis manca la protezione del modello di
query.resolved
- [SPARK-46401] [SC-150609][CORE] Usare
!isEmpty()
inveceRoaringBitmap
digetCardinality() > 0
inRemoteBlockPushResolver
- [SPARK-46393] [SC-150603][SQL] Classificare le eccezioni nel catalogo tabelle JDBC
- [SPARK-45798] [SC-150513][CONNECT] Completamento: aggiungere serverSessionId a SessionHolderInfo
- [SPARK-46153] [SC-146564][SC-150508][SQL] XML: Aggiunta del supporto timestampNTZType
- [SPARK-46075] [SC-150393][CONNECT] Miglioramenti a SparkConnectSessionManager
- [SPARK-46357] [SC-150596] Sostituire l'uso errato della documentazione di setConf con conf.set
- [SPARK-46202] [SC-150420][CONNECT] Esporre nuove API ArtifactManager per supportare directory di destinazione personalizzate
- [SPARK-45824] [SC-147648][SQL] Applicare la classe di errore in
ParseException
- [SPARK-45845] [SC-148163][SS][interfaccia utente] Aggiungere il numero di righe di stato rimosse all'interfaccia utente di streaming
- [SPARK-46316] [SC-150181][CORE] Abilitare
buf-lint-action
ilcore
modulo - [SPARK-45816] [SC-147656][SQL] Restituisce
NULL
durante l'overflow durante il cast dal timestamp ai numeri interi - [SPARK-46333] [SC-150263][SQL] Sostituire
IllegalStateException
conSparkException.internalError
in catalizzatore - [SPARK-45762] [SC-148486][CORE] Supportare i gestori casuali definiti nei file JAR utente modificando l'ordine di avvio
- [SPARK-46239] [SC-149752][CORE] Nascondi
Jetty
informazioni - [SPARK-45886] [SC-148089][SQL] Traccia dello stack completo di output nel
callSite
contesto del dataframe - [SPARK-46290] [SC-150059][PYTHON] Modificare saveMode in un flag booleano per DataSourceWriter
- [SPARK-45899] [SC-148097][CONNECT] Impostare errorClass in errorInfoToThrowable
- [SPARK-45841] [SC-147657][SQL] Esporre l'analisi dello stack tramite
DataFrameQueryContext
- [SPARK-45843] [SC-147721][CORE] Supporto
killall
nell'API di invio REST - [SPARK-46234] [SC-149711][PYTHON] Introduzione
PySparkKeyError
al framework degli errori PySpark - [SPARK-45606] [SC-147655][SQL] Restrizioni di rilascio per il filtro di runtime multi-layer
- [SPARK-45725] [SC-147006][SQL] Rimuovere il filtro di runtime IN non predefinito nella sottoquery
- [SPARK-45694] [SC-147314][SPARK-45695][SQL] Pulire l'utilizzo dell'API
View.force
deprecato eScalaNumberProxy.signum
- [SPARK-45805] [SC-147488][SQL] Rendere
withOrigin
più generico - [SPARK-46292] [SC-150086][CORE][interfaccia utente] Visualizzare un riepilogo dei ruoli di lavoro in MasterPage
- [SPARK-45685] [SC-146881][CORE][SQL] Usare
LazyList
invece diStream
- [SPARK-45888] [SC-149945][SS] Applicare il framework della classe di errore all'origine dati State (Metadata)
- [SPARK-46261] [SC-150111][CONNECT]
DataFrame.withColumnsRenamed
deve mantenere l'ordine dict/map - [SPARK-46263] [SC-149933][SQL][SS][ML][MLLIB][interfaccia utente] Eseguire la pulizia
SeqOps.view
eArrayOps.view
le conversioni - [SPARK-46029] [SC-149255][SQL] Escape della virgoletta
_
singola e%
per il pushdown di DS V2 - [SPARK-46275] [SC-150189] Protobuf: restituisce Null in modalità permissiva quando la deserializzazione non riesce.
- [SPARK-46320] [SC-150187][CORE] Appoggiare
spark.master.rest.host
- [SPARK-46092] [SC-149658][SQL] Non eseguire il push dei filtri dei gruppi di righe Parquet che superano l'overflow
- [SPARK-46300] [SC-150097][PYTHON][CONNECT] Corrispondenza dei comportamenti secondari nella colonna con copertura completa dei test
- [SPARK-46298] [SC-150092][PYTHON][CONNECT] Trova la corrispondenza dell'avviso di deprecazione, del test case e dell'errore di Catalog.createExternalTable
- [SPARK-45689] [SC-146898][SPARK-45690][SPARK-45691][CORE][SQL] Pulire l'utilizzo deprecato dell'API correlato all'uso e del
StringContext/StringOps/RightProjection/LeftProjection/Either
tipo diBufferedIterator/CanBuildFrom/Traversable
- [SPARK-33393] [SC-148407][SQL] Supporto di SHOW TABLE EXTENDED nella versione 2
- [SPARK-45737] [SC-147011][SQL] Rimuovere elementi non necessari
.toArray[InternalRow]
inSparkPlan#executeTake
- [SPARK-46249] [SC-149797][SS] Richiedere il blocco dell'istanza per l'acquisizione delle metriche rocksDB per impedire la corsa con le operazioni in background
- [SPARK-46260] [SC-149940][PYTHON][SQL]
DataFrame.withColumnsRenamed
deve rispettare l'ordine dict - [SPARK-46274] [SC-150043] [SQL] Correzione dell'operatore Range computeStats() per verificare la validità prolungata prima della conversione
- [SPARK-46040] [SC-149767][SQL][Python] Aggiornare l'API UDTF per il partizionamento o l'ordinamento delle colonne per supportare le espressioni generali
- [SPARK-46287] [SC-149949][PYTHON][CONNECT]
DataFrame.isEmpty
deve funzionare con tutti i tipi di dati - [SPARK-45678] [SC-146825][CORE] Cover BufferReleasingInputStream.available/reset in tryOrFetchFailedException
- [SPARK-45667] [SC-146716][CORE][SQL][CONNECT] Pulire l'utilizzo deprecato dell'API correlato a
IterableOnceExtensionMethods
. - [SPARK-43980] [SC-148992][SQL] Introduzione della
select * except
sintassi - [SPARK-46269] [SC-149816][PS] Abilitare altri test delle funzioni di compatibilità NumPy
- [SPARK-45807] [SC-149851][SQL] Aggiungere createOrReplaceView(..) / replaceView(..) a ViewCatalog
- [SPARK-45742] [SC-147212][CORE][CONNECT][MLLIB][PYTHON] Introdurre una funzione implicita per Scala Array per eseguire il wrapping in
immutable.ArraySeq
. - [SPARK-46205] [SC-149655][CORE] Migliorare le
PersistenceEngine
prestazioni conKryoSerializer
- [SPARK-45746] [SC-149359][Python] Restituisce messaggi di errore specifici se il metodo UDTF 'analyze' o 'eval' accetta o restituisce valori errati
- [SPARK-46186] [SC-149707][CONNECT] Correzione della transizione di stato non valida quando ExecuteThreadRunner è stato interrotto prima dell'avvio
- [SPARK-46262] [SC-149803][PS] Abilitare il test per l'oggetto
np.left_shift
Pandas-on-Spark. - [SPARK-45093] [SC-149679][CONNECT][PYTHON] Supporta correttamente la gestione e la conversione degli errori per AddArtifactHandler
- [SPARK-46188] [SC-149571][Doc][3.5] Correggere il css delle tabelle generate dal documento Spark
- [SPARK-45940] [SC-149549][PYTHON] Aggiungere InputPartition all'interfaccia DataSourceReader
- [SPARK-43393] [SC-148301][SQL] Bug di overflow dell'espressione della sequenza di indirizzi.
- [SPARK-46144] [SC-149466][SQL] Errore INSERT INTO ... Istruzione REPLACE se la condizione contiene sottoquery
- [SPARK-46118] [SC-149096][SQL][SS][CONNECT] Usare
SparkSession.sessionState.conf
anzichéSQLContext.conf
e contrassegnareSQLContext.conf
come deprecato - [SPARK-45760] [SC-147550][SQL] Aggiungi con espressione per evitare la duplicazione di espressioni
- [SPARK-43228] [SC-149670][SQL] Le chiavi di join corrispondono anche a PartitioningCollection in CoalesceBucketsInJoin
- [SPARK-46223] [SC-149691][PS] Testare SparkPandasNotImplementedError con la pulizia del codice inutilizzato
- [SPARK-46119] [SC-149205][SQL] Eseguire l'override
toString
del metodo perUnresolvedAlias
- [SPARK-46206] [SC-149674][PS] Usare un'eccezione di ambito più ristretto per il processore SQL
- [SPARK-46191] [SC-149565][CORE] Migliorare il
FileSystemPersistenceEngine.persist
messaggio di errore nel caso del file esistente - [SPARK-46036] [SC-149356][SQL] Rimozione della classe di errore dalla funzione raise_error
- [SPARK-46055] [SC-149254][SQL] Riscrivere l'implementazione delle API di database del catalogo
- [SPARK-46152] [SC-149454][SQL] XML: Aggiunta del supporto DecimalType nell'inferenza di XML Schema
- [SPARK-45943] [SC-149452][SQL] Spostare DetermineTableStats in regole di risoluzione
- [SPARK-45887] [SC-148994][SQL] Allineare l'implementazione codegen e non codegen di
Encode
- [SPARK-45022] [SC-147158][SQL] Fornire il contesto per gli errori dell'API del set di dati
- [SPARK-45469] [SC-145135][CORE][SQL][CONNECT][PYTHON] Sostituire
toIterator
coniterator
perIterableOnce
- [SPARK-46141] [SC-149357][SQL] Modificare il valore predefinito per spark.sql.legacy.ctePrecedencePolicy su CORRETTO
- [SPARK-45663] [SC-146617][CORE][MLLIB] Sostituire
IterableOnceOps#aggregate
conIterableOnceOps#foldLeft
- [SPARK-45660] [SC-146493][SQL] Riutilizzare gli oggetti Literal nella regola ComputeCurrentTime
- [SPARK-45803] [SC-147489][CORE] Rimuovere l'oggetto non più usato
RpcAbortException
- [SPARK-46148] [SC-149350][PS] Correzione pyspark.pandas.mlflow.load_model test (Python 3.12)
- [SPARK-46110] [SC-149090][PYTHON] Usare classi di errore in catalog, conf, connect, osservazione, moduli pandas
- [SPARK-45827] [SC-149203][SQL] Correzioni varianti con codicegeno e lettore vettorializzato disabilitato
- [SPARK-46080] Ripristinare "[SC-149012][PYTHON] Aggiornare Cloudpickle a 3.0.0"
- [SPARK-45460] [SC-144852][SQL] Sostituisci
scala.collection.convert.ImplicitConversions
inscala.jdk.CollectionConverters
- [SPARK-46073] [SC-149019][SQL] Rimuovere la risoluzione speciale di UnresolvedNamespace per determinati comandi
- [SPARK-45600] [SC-148976][PYTHON] Rendere il livello di sessione di registrazione dell'origine dati Python
- [SPARK-46074] [SC-149063][CONNECT][SCALA] Dettagli insufficienti nel messaggio di errore in caso di errore della funzione definita dall'utente
- [SPARK-46114] [SC-149076][PYTHON] Aggiungere PySparkIndexError per il framework degli errori
- [SPARK-46120] [SC-149083][CONNECT][PYTHON] Rimuovere la funzione helper
DataFrame.withPlan
- [SPARK-45927] [SC-148660][PYTHON] Gestione del percorso di aggiornamento per l'origine dati Python
- [SPARK-46062] [14.x][SC-148991][SQL] Sincronizzare il flag isStreaming tra la definizione CTE e il riferimento
- [SPARK-45698] [SC-146736][CORE][SQL][SS] Pulire l'utilizzo deprecato dell'API correlato a
Buffer
- [SPARK-46064] [SC-148984][SQL][SS] Spostare EliminaEventTimeWatermark nell'analizzatore e modificare in modo da rendere effettivo solo l'elemento figlio risolto
- [SPARK-45922] [SC-149038][CONNECT][CLIENT] Tentativi secondari di refactoring (completamento di più criteri)
- [SPARK-45851] [SC-148419][CONNECT][SCALA] Supportare più criteri nel client scala
- [SPARK-45974] [SC-149062][SQL] Aggiungere un giudizio non vuoto scan.filterAttributes per RowLevelOperationRuntimeGroupFiltering
- [SPARK-46085] [SC-149049][CONNECT] Dataset.groupingSets nel client Scala Spark Connect
- [SPARK-45136] [SC-146607][CONNECT] Migliorare ClosingCleaner con il supporto di Ammonite
- [SPARK-46084] [SC-149020][PS] Eseguire il refactoring dell'operazione di cast dei tipi di dati per il tipo categorico.
- [SPARK-46083] [SC-149018][PYTHON] Impostare SparkNoSuchElementException come API di errore canonica
- [SPARK-46048] [SC-148982][PYTHON][CONNECT] Supporto di DataFrame.groupingSets in Python Spark Connect
- [SPARK-46080] [SC-149012][PYTHON] Aggiornare Cloudpickle alla versione 3.0.0
- [SPARK-46082] [SC-149015][PYTHON][CONNECT] Correzione della rappresentazione di stringa protobuf per l'API funzioni Pandas con Spark Connect
- [SPARK-46065] [SC-148985][PS] Effettuare il refactoring
(DataFrame|Series).factorize()
per usarecreate_map
. - [SPARK-46070] [SC-148993][SQL] Compilare il modello regex in SparkDateTimeUtils.getZoneId all'esterno del ciclo critico
- [SPARK-46063] [SC-148981][PYTHON][CONNECT] Migliorare i messaggi di errore correlati ai tipi di argomenti in cute, rollup, groupby e pivot
- [SPARK-44442] [SC-144120][MESOS] Rimuovere il supporto mesos
- [SPARK-45555] [SC-147620][PYTHON] Include un oggetto di cui è possibile eseguire il debug per un'asserzione non riuscita
- [SPARK-46048] [SC-148871][PYTHON][SQL] Supporto di DataFrame.groupingSets in PySpark
- [SPARK-45768] [SC-147304][SQL][PYTHON] Rendere faulthandler una configurazione di runtime per l'esecuzione di Python in SQL
- [SPARK-45996] [SC-148586][PYTHON][CONNECT] Visualizzare i messaggi appropriati dei requisiti di dipendenza per Spark Connect
- [SPARK-45681] [SC-146893][interfaccia utente] Clonare una versione js di UIUtils.errorMessageCell per il rendering coerente degli errori nell'interfaccia utente
- [SPARK-45767] [SC-147225][CORE] Eliminare
TimeStampedHashMap
e il relativo UT - [SPARK-45696] [SC-148864][CORE] Correzione del metodo tryCompleteWith nel tratto Promise è deprecato
- [SPARK-45503] [SC-146338][SS] Aggiungere Conf per impostare la compressione rocksDB
- [SPARK-45338] [SC-143934][CORE][SQL] Sostituisci
scala.collection.JavaConverters
inscala.jdk.CollectionConverters
- [SPARK-44973] [SC-148804][SQL] Correzione
ArrayIndexOutOfBoundsException
inconv()
- [SPARK-45912] [SC-144982][SC-148467][SQL] Miglioramento dell'API XSDToSchema: passare all'API HDFS per l'accessibilità dell'archiviazione cloud
- [SPARK-45819] [SC-147570][CORE] Supporto
clear
nell'API di invio REST - [SPARK-45552] [14.x][SC-146874][PS] Introdurre parametri flessibili a
assertDataFrameEqual
- [SPARK-45815] [SC-147877][SQL][Streaming][14.x][CHERRY-PICK] Fornire un'interfaccia per altre origini di streaming per aggiungere
_metadata
colonne - [SPARK-45929] [SC-148692][SQL] Supporto dell'operazione groupingSets nell'API del dataframe
- [SPARK-46012] [SC-148693][CORE] EventLogFileReader non deve leggere i log in sequenza se manca il file di stato dell'app
- [SPARK-45965] [SC-148575][SQL] Spostare espressioni di partizionamento DSv2 in functions.partitioning
- [SPARK-45971] [SC-148541][CORE][SQL] Correggere il nome del pacchetto da
SparkCollectionUtils
aorg.apache.spark.util
- [SPARK-45688] [SC-147356][SPARK-45693][CORE] Pulire l'utilizzo deprecato dell'API correlato a
MapOps
& Correzionemethod += in trait Growable is deprecated
- [SPARK-45962] [SC-144645][SC-148497][SQL] Rimuovere
treatEmptyValuesAsNulls
e usarenullValue
l'opzione invece in XML - [SPARK-45988] [SC-148580][SPARK-45989][PYTHON] Correzione dei typehints per gestire
list
GenericAlias in Python 3.11+ - [SPARK-45999] [SC-148595][PS] Usare dedicato
PandasProduct
incumprod
- [SPARK-45986] [SC-148583][ML][PYTHON] Correzione
pyspark.ml.torch.tests.test_distributor
in Python 3.11 - [SPARK-45994] [SC-148581][PYTHON] Cambia
description-file
indescription_file
- [SPARK-45575] [SC-146713][SQL] Opzioni di spostamento del tempo di supporto per l'API di lettura di df
- [SPARK-45747] [SC-148404][SS] Usare le informazioni sulla chiave di prefisso nei metadati dello stato per gestire lo stato di lettura per l'aggregazione della finestra di sessione
- [SPARK-45898] [SC-148213][SQL] Riscrivere le API della tabella del catalogo per usare un piano logico non risolto
- [SPARK-45828] [SC-147663][SQL] Rimuovere il metodo deprecato in dsl
- [SPARK-45990] [SC-148576][SPARK-45987][PYTHON][CONNECT] Eseguire l'aggiornamento
protobuf
alla versione 4.25.1 per supportarePython 3.11
- [SPARK-45911] [SC-148226][CORE] Impostare TLS1.3 come predefinito per RPC SSL
- [SPARK-45955] [SC-148429][interfaccia utente] Comprimere il supporto per i dettagli di flamegraph e thread dump
- [SPARK-45936] [SC-148392][PS] Ottimizzare
Index.symmetric_difference
- [SPARK-45389] [SC-144834][SQL][3.5] Correggere la regola di corrispondenza MetaException per ottenere i metadati della partizione
- [SPARK-45655] [SC-148085][SQL][SS] Consenti espressioni non deterministiche all'interno di AggregateFunctions in CollectMetrics
- [SPARK-45946] [SC-148448][SS] Correzione dell'uso di fileutils deprecati per passare il set di caratteri predefinito in RocksDBSuite
- [SPARK-45511] [SC-148285][SS] Origine dati stato - Lettore
- [SPARK-45918] [SC-148293][PS] Ottimizzare
MultiIndex.symmetric_difference
- [SPARK-45813] [SC-148288][CONNECT][PYTHON] Restituire le metriche osservate dai comandi
- [SPARK-45867] [SC-147916][CORE] Appoggiare
spark.worker.idPattern
- [SPARK-45945] [SC-148418][CONNECT] Aggiungere una funzione helper per
parser
- [SPARK-45930] [SC-148399][SQL] Supportare funzioni definite dall'utente non deterministiche in MapInPandas/MapInArrow
- [SPARK-45810] [SC-148356][Python] Creare l'API UDTF python per interrompere l'utilizzo di righe dalla tabella di input
- [SPARK-45731] [SC-147929][SQL] Aggiornare anche le statistiche delle partizioni con
ANALYZE TABLE
il comando - [SPARK-45868] [SC-148355][CONNECT] Assicurarsi di
spark.table
usare lo stesso parser con spark vanilla - [SPARK-45882] [SC-148161][SQL] BroadcastHashJoinExec propaga il partizionamento deve rispettare CoalescedHashPartitioning
- [SPARK-45710] [SC-147428][SQL] Assegnare nomi agli errori _LEGACY_ERROR_TEMP_21[59,60,61,62]
- [SPARK-45915] [SC-148306][SQL] Considera decimal(x, 0) uguale a IntegralType in
PromoteStrings
- [SPARK-45786] [SC-147552][SQL] Correzione di risultati di moltiplicazione decimale e divisione non accurati
- [SPARK-45871] [SC-148084][CONNECT] Conversioni di raccolte di ottimizzazioni correlate ai
.toBuffer
connect
moduli - [SPARK-45822] [SC-147546][CONNECT] SparkConnectSessionManager potrebbe cercare un sparkcontext arrestato
- [SPARK-45913] [SC-148289][PYTHON] Rendere privati gli attributi interni dagli errori PySpark.
- [SPARK-45827] [SC-148201][SQL] Aggiungere il tipo di dati Variant in Spark.
- [SPARK-44886] [SC-147876][SQL] Introdurre la clausola CLUSTER BY per CREATE/REPLACE TABLE
- [SPARK-45756] [SC-147959][CORE] Appoggiare
spark.master.useAppNameAsAppId.enabled
- [SPARK-45798] [SC-147956][CONNECT] Assert server-side session ID
- [SPARK-45896] [SC-148091][SQL] Costrutto
ValidateExternalType
con il tipo previsto corretto - [SPARK-45902] [SC-148123][SQL] Rimuovere la funzione
resolvePartitionColumns
inutilizzata daDataSource
- [SPARK-45909] [SC-148137][SQL] Rimuovere
NumericType
il cast se può eseguire il cast in modo sicuroIsNotNull
- [SPARK-42821] [SC-147715][SQL] Rimuovere i parametri inutilizzati nei metodi splitFiles
- [SPARK-45875] [SC-148088][CORE] Rimuovi
MissingStageTableRowData
dalcore
modulo - [SPARK-45783] [SC-148120][PYTHON][CONNECT] Migliorare i messaggi di errore quando la modalità Spark Connect è abilitata ma l'URL remoto non è impostato
- [SPARK-45804] [SC-147529][interfaccia utente] Aggiungere spark.ui.threadDump.flamegraphEnabled config per attivare/disattivare il grafico di fiamma
- [SPARK-45664] [SC-146878][SQL] Introdurre un mapper per i codec di compressione orc
- [SPARK-45481] [SC-146715][SQL] Introdurre un mapper per i codec di compressione Parquet
- [SPARK-45752] [SC-148005][SQL] Semplificare il codice per controllare le relazioni CTE senza riferimenti
- [SPARK-44752] [SC-146262][SQL] XML: Aggiornare la documentazione spark
- [SPARK-45752] [SC-147869][SQL] Il CTE senza riferimenti deve essere controllato da CheckAnalysis0
- [SPARK-45842] [SC-147853][SQL] Refactoring delle API della funzione del catalogo per l'uso dell'analizzatore
- [SPARK-45639] [SC-147676][SQL][PYTHON] Supporto del caricamento di origini dati Python in DataFrameReader
- [SPARK-45592] [SC-146977][SQL] Problema di correttezza in AQE con InMemoryTableScanExec
- [SPARK-45794] [SC-147646][SS] Introdurre l'origine dei metadati di stato per eseguire query sulle informazioni sui metadati dello stato di streaming
- [SPARK-45739] [SC-147059][PYTHON] Catch IOException invece di EOFException da solo per faulthandler
- [SPARK-45677] [SC-146700] Migliore registrazione degli errori per l'API Di osservazione
- [SPARK-45544] [SC-146873][CORE] Integrare il supporto SSL in TransportContext
- [SPARK-45654] [SC-147152][PYTHON] Aggiungere l'API di scrittura dell'origine dati Python
- [SPARK-45771] [SC-147270][CORE] Abilita
spark.eventLog.rolling.enabled
per impostazione predefinita - [SPARK-45713] [SC-146986][PYTHON] Supporto per la registrazione di origini dati Python
- [SPARK-45656] [SC-146488][SQL] Correggere l'osservazione quando le osservazioni denominate con lo stesso nome in set di dati diversi
- [SPARK-45808] [SC-147571][CONNECT][PYTHON] Migliore gestione degli errori per le eccezioni SQL
- [SPARK-45774] [SC-147353][CORE][interfaccia utente] Supporto
spark.master.ui.historyServerUrl
inApplicationPage
- [SPARK-45776] [SC-147327][CORE] Rimuovere il controllo null difensivo per
MapOutputTrackerMaster#unregisterShuffle
l'aggiunta in SPARK-39553 - [SPARK-45780] [SC-147410][CONNECT] Propagare tutti i thread del client Spark Connect in InheritableThread
- [SPARK-45785] [SC-147419][CORE] Supporto
spark.deploy.appNumberModulo
per ruotare il numero dell'app - [SPARK-45793] [SC-147456][CORE] Migliorare i codec di compressione predefiniti
- [SPARK-45757] [SC-147282][ML] Evitare il nuovo calcolo di NNZ in Binarizer
- [SPARK-45209] [SC-146490][CORE][interfaccia utente] Supporto di Flame Graph per la pagina di dump del thread executor
- [SPARK-45777] [SC-147319][CORE] Supporto
spark.test.appId
inLocalSchedulerBackend
- [SPARK-45523] [SC-146331][PYTHON] Effettuare il refactoring del controllo null per avere collegamenti
- [SPARK-45711] [SC-146854][SQL] Introdurre un mapper per i codec di compressione avro
- [SPARK-45523] [SC-146077][Python] Restituisce un messaggio di errore utile se UDTF restituisce Nessuno per qualsiasi colonna non nullable
- [SPARK-45614] [SC-146729][SQL] Assegnare nomi all'errore _LEGACY_ERROR_TEMP_215[6,7,8]
- [SPARK-45755] [SC-147164][SQL] Migliorare
Dataset.isEmpty()
applicando il limite globale1
- [SPARK-45569] [SC-145915][SQL] Assegnare il nome al _LEGACY_ERROR_TEMP_2153 di errore
- [SPARK-45749] [SC-147153][CORE][WEBUI] Correzione
Spark History Server
per ordinareDuration
correttamente la colonna - [SPARK-45754] [SC-147169][CORE] Appoggiare
spark.deploy.appIdPattern
- [SPARK-45707] [SC-146880][SQL] Semplificare
DataFrameStatFunctions.countMinSketch
conCountMinSketchAgg
- [SPARK-45753] [SC-147167][CORE] Appoggiare
spark.deploy.driverIdPattern
- [SPARK-45763] [SC-147177][CORE][interfaccia utente] Miglioramento
MasterPage
per visualizzareResource
la colonna solo quando esiste - [SPARK-45112] [SC-143259][SQL] Usare la risoluzione basata su UnresolvedFunction nelle funzioni del set di dati SQL
Supporto del driver ODBC/JDBC di Databricks
Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 14.3.
Ambiente di sistema
- Sistema operativo: Ubuntu 22.04.3 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- Delta Lake: 3.1.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttoken | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | click | 8.0.4 | serv | 0.1.2 |
contourpy | 1.0.5 | cryptography | 39.0.1 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0.11 | entrypoints | 0.4 |
executing | 0.8.3 | facet-overview | 1.1.1 | fastjsonschema | 2.19.1 |
filelock | 3.13.1 | fonttools | 4.25.0 | googleapis-common-protos | 1.62.0 |
grpcio | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
ipython | 8.14.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 3.1.2 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.17.3 |
jupyter-client | 7.3.4 | jupyter-server | 1.23.4 | jupyter_core | 5.2.0 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 |
kiwisolver | 1.4.4 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe | 2.1.1 |
matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 | mccabe | 0.7.0 |
mistune | 0.8.4 | more-itertools | 8.10.0 | mypy-extensions | 0.4.3 |
nbclassic | 0.5.2 | nbclient | 0.5.13 | nbconvert | 6.5.4 |
nbformat | 5.7.0 | nest-asyncio | 1.5.6 | nodeenv | 1.8.0 |
notebook | 6.5.2 | Notebook_shim | 0.2.2 | numpy | 1.23.5 |
oauthlib | 3.2.0 | packaging | 23.2 | pandas | 1.5.3 |
pandocfilters | 1.5.0 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 22.3.1 | platformdirs | 2.5.2 |
plotly | 5.9.0 | pluggy | 1.0.0 | prometheus-client | 0.14.1 |
prompt-toolkit | 3.0.36 | protobuf | 4.24.0 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 8.0.0 | pyarrow-hotfix | 0,5 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.1.0 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 | python-lsp-server | 1.8.0 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
requests | 2.28.1 | rope | 1.7.0 | s3transfer | 0.6.2 |
scikit-learn | 1.1.1 | scipy | 1.10.0 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools | 65.6.3 |
six | 1.16.0 | sniffio | 1.2.0 | soupsieve | 2.3.2.post1 |
ssh-import-id | 5.11 | stack-data | 0.2.0 | statsmodels | 0.13.5 |
tenacity | 8.1.0 | terminado | 0.17.1 | threadpoolctl | 2.2.0 |
tinycss2 | 1.2.1 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.7.1 | typing_extensions | 4.4.0 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.14 |
virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | websocket-client | 0.58.0 | whatthepatch | 1.0.2 |
wheel | 0.38.4 | widgetsnbextension | 3.6.1 | yapf | 0.33.0 |
zipp | 1.0.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot Gestione pacchetti CRAN nel 2023-02-10.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
freccia | 12.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.4 |
boot | 1.3-28 | brew | 1.0-8 | brio | 1.1.3 |
Scopa | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
callr | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | class | 7.3-22 | cli | 3.6.1 |
clipr | 0.8.0 | clock | 0.7.0 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.9.0 |
compilatore | 4.3.1 | config | 0.3.1 | in conflitto | 1.2.0 |
cpp11 | 0.4.4 | crayon | 1.5.2 | credentials | 1.3.2 |
curl | 5.0.1 | data.table | 1.14.8 | datasets | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | desc | 1.4.2 |
devtools | 2.4.5 | diagramma | 1.6.5 | diffobj | 0.3.5 |
digest | 0.6.33 | downlit | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | puntini di sospensione | 0.3.2 |
evaluate | 0.21 | fansi | 1.0.4 | farver | 2.1.1 |
fastmap | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | foreign | 0.8-85 | forge | 0.2.0 |
fs | 1.6.2 | future | 1.33.0 | future.apply | 1.11.0 |
gargle | 1.5.1 | generics | 0.1.3 | gert | 1.9.2 |
ggplot2 | 3.4.2 | gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globals | 0.16.2 | glue | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafica | 4.3.1 | grDevices | 4.3.1 | grid | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0,7 | gtable | 0.3.3 |
hardhat | 1.3.0 | haven | 2.5.3 | highr | 0,10 |
hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
Etichettatura | 0.4.2 | later | 1.3.1 | Lattice | 0.21-8 |
Java | 1.7.2.1 | lifecycle | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1.7 |
MASS | 7.3-60 | Matrice | 1.5-4.1 | memoise | 2.0.1 |
methods | 4.3.1 | mgcv | 1.8-42 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
parallelly | 1.36.0 | Concetto fondamentale | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | Avanzamento | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | ricette | 1.0.6 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2,23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.21 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.6 | Scalabilità | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | Forma | 1.4.6 |
shiny | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
spaziale | 7.3-15 | Spline | 4.3.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | stats | 4.3.1 | stats4 | 4.3.1 |
stringi | 1.7.12 | stringr | 1.5.0 | Sopravvivenza | 3.5-5 |
sys | 3.4.2 | systemfonts | 1.0.4 | tcltk | 4.3.1 |
testthat | 3.1.10 | textshaping | 0.3.6 | tibble | 3.2.1 |
tidyr | 1.3.0 | tidyselect | 1.2.0 | tidyverse | 2.0.0 |
timechange | 0.2.0 | timeDate | 4022.108 | tinytex | 0,45 |
tools | 4.3.1 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
usethis | 2.2.2 | UTF8 | 1.2.3 | utils | 4.3.1 |
uuid | 1.1-0 | vctrs | 0.6.3 | viridisLite | 0.4.2 |
vroom | 1.6.3 | waldo | 0.5.1 | whisker | 0.4.1 |
withr | 2.5.0 | xfun | 0,39 | xml2 | 1.3.5 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.7 |
zip | 2.3.0 |
Librerie Java e Scala installate (versione cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-consultas | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.13.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeina | caffeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 3.0.3 |
dev.sdk.netlib | blas | 3.0.3 |
dev.sdk.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.0.3 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 12.0.1 |
org.apache.arrow | arrow-memory-core | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | arrow-vector | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shim | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-all | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | shims | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatibile con scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | treten-extra | 1.7.1 |
org.cortanaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |