Databricks Runtime 13.1 (EoS)

Nota

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.

Le seguenti note sulla versione forniscono informazioni su Databricks Runtime 13.1, con tecnologia Apache Spark 3.4.0.

Databricks ha rilasciato questa versione nel maggio 2023.

Miglioramenti e nuove funzionalità

Supporto del cluster per JDK 17 (anteprima pubblica)

Databricks offre ora il supporto del cluster per il kit di sviluppo di Java (JDK) 17. Vedere Databricks SDK per Java.

Aggiungere, modificare o eliminare dati nelle tabelle di streaming

È ora possibile usare le istruzioni DML per modificare le tabelle di streaming pubblicate nel catalogo Unity da pipeline di tabelle live Delta. Vedere Aggiungere, modificare o eliminare dati in una tabella di streaming e Aggiungere, modificare o eliminare dati in una tabella di streaming di destinazione. È anche possibile usare istruzioni DML per modificare le tabelle di streaming create in Databricks SQL.

Leggere Kafka con SQL

È ora possibile usare la funzione SQL read_kafka per la lettura dei dati Kafka. Lo streaming con SQL è supportato solo in tabelle Live Delta o con tabelle di streaming in Databricks SQL. Vedere funzione con valori di tabella read_kafka.

Nuove funzioni predefinite SQL

Sono state aggiunte le funzioni seguenti:

Supporto del catalogo Unity per le librerie Python con ambito cluster

Il catalogo Unity presenta alcune limitazioni sull'utilizzo della libreria. A partire dalla versione 13.1 di Databricks Runtime sono supportate librerie Python con ambito cluster, tra cui wheel file Python caricati come file dell'area di lavoro. Le librerie a cui viene fatto riferimento utilizzando i percorsi file DBFS non sono supportate, sia nella radice DBFS che in un percorso esterno montato in DBFS. Le librerie non Python non sono supportate. Vedere Librerie cluster.

In Databricks Runtime 13.0 e versioni successive le librerie con ambito cluster non sono supportate nei cluster che usano la modalità di accesso condiviso in un'area di lavoro abilitata per catalogo Unity.

Abilitazione predefinita espansa per le scritture ottimizzate nel catalogo unity

Il supporto predefinito per la scrittura ottimizzata per le tabelle Delta registrate nel catalogo Unity è stato espanso in modo da includere istruzioni CTAS e operazioni INSERT per le tabelle partizionate. Questo comportamento è allineato alle impostazioni predefinite nei warehouse SQL. Si veda Scritture ottimizzate per Delta Lake in Azure Databricks.

Supporto avanzato per gli operatori con stato nei carichi di lavoro Structured Streaming

È ora possibile concatenare più operatori con stato, vale a dire che è possibile inserire l'output di un'operazione, ad esempio un'aggregazione finestrata a un'altra operazione con stato, ad esempio un join. Vedere Che cos'è lo streaming con stato?.

Il clone Delta per il catalogo Unity è disponibile in anteprima pubblica

È ora possibile usare un clone superficiale per creare nuove tabelle gestite del catalogo Unity a partire da tabelle gestite esistenti nel catalogo Unity. Vedere Clone superficiale per le tabelle del catalogo Unity.

Supporto pub/sub per Structured Streaming

È ora possibile usare un connettore predefinito per sottoscrivere Google Pub/Sub con Structured Streaming. Vedi Iscriviti a Google Pub/Sub.

Escludere duplicati all'interno di filigrane in Structured Streaming

È ora possibile usare dropDuplicatesWithinWatermark in combinazione con una soglia limite specificata per deduplicare i record in Structured Streaming. Vedere Escludere i duplicati all'interno della filigrana.

Supporto espanso per le conversioni Delta da tabelle Iceberg con colonne di partizione troncate

È ora possibile usare CLONE e CONVERT TO DELTA con le tabelle Iceberg con partizioni definite in colonne troncate di tipi int, long e string. Le colonne troncate di tipo decimal non sono supportate.

Trasmettere le modifiche dello schema con il mapping delle colonne in Delta Lake

È ora possibile fornire un percorso di rilevamento dello schema per abilitare lo streaming da tabelle Delta con mapping di colonne abilitato. Vedere Streaming con mapping di colonne e modifiche dello schema.

Rimuovere la VERSIONE INIZIALE

START VERSION è ora deprecato per ALTER SHARE.

Nuove espressioni H3 disponibili con Python

Le espressioni h3_coverash3 e h3_coverash3string sono disponibili con Python.

Correzioni di bug

Parquet failOnUnknownFields non elimina più automaticamente i dati in caso di tipo non corrispondente

Se un file Parquet è stato letto solo con l'opzione failOnUnknownFields o con il failOnNewColumns caricatore automatico nella modalità di evoluzione dello schema, le colonne con tipi di dati diversi ora hanno esito negativo e consigliano l'uso di rescuedDataColumn. Il caricatore automatico ora legge correttamente e non salva più i tipi Integer, Short o Byte se viene fornito uno di questi tipi di dati. Il file Parquet suggerisce uno degli altri due tipi.

Modifiche di rilievo

Aggiornare sqlite-jdbc alla versione 3.42.0.0 per l'indirizzo CVE-2023-32697

Aggiornare sqlite-jdbc dalla versione 3.8.11.2 alla versione 3.42.0.0. Le API della versione 3.42.0.0 non sono completamente compatibili con la versione 3.8.11.2. Se si usa sqlite-jdbc nel codice, controllare il report di compatibilità sqlite-jdbc per informazioni dettagliate. Se si esegue la migrazione alla versione 13.1 e si usa sqlite, verificare i metodi e il tipo restituito nella versione 3.42.0.0.

Aggiornamenti della libreria

  • Librerie Python aggiornate:
    • facet-overview dalla versione 1.0.2 alla versione 1.0.3
    • filelock da 3.10.7 a 3.12.0
    • pyarrow da 7.0.0 a 8.0.0
    • tenacia da 8.0.1 a 8.1.0
  • Librerie R aggiornate:
  • Librerie Java aggiornate:
    • com.github.ben-manes.caffeina.caffeina da 2.3.4 a 2.9.3
    • io.delta.delta-sharing-spark_2.12 da 0.6.8 a 0.6.4
    • net.snowflake.snowflake-jdbc da 3.13.29 a 3.13.22
    • org.checkerframework.checker-qual da 3.5.0 a 3.19.0
    • org.scalactic.scalactic_2.12 dalla versione 3.0.8 alla versione 3.2.15
    • org.scalatest.scalatest_2.12 dalla versione 3.0.8 alla versione 3.2.15
    • org.xerial.sqlite-jdbc da 3.8.11.2 a 3.42.0.0

Apache Spark

Databricks Runtime 13.1 include Apache Spark 3.4.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 13.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-42719] [DBRRM-199] [SC-131578] Ripristinare "[SC-125225] 'MapOutputTracker#getMap...
  • [SPARK-39696] [DBRRM-166] [SC-130056] [CORE] Ripristina [SC-127830]/
  • [SPARK-43331] [SC-130064] [CONNECT] Aggiungere Spark Connect SparkSession.interruptAll
  • [SPARK-43332] [SC-130051] [CONNECT] [PYTHON] Rendere possibile estendere ChannelBuilder per SparkConnectClient
  • [SPARK-43323] [SC-129966] [SQL] [PYTHON] Correggere DataFrame.toPandas con Arrow abilitato per gestire correttamente le eccezioni
  • [SPARK-42940] [SC-129896] [SS] [CONNECT] Migliorare la gestione delle sessioni per le query di streaming
  • [SPARK-43032] [SC-125756] [CONNECT] [SS] Aggiungere Gestione query di streaming
  • [SPARK-16484] [SC-129975][SQL] Aggiunta del supporto per Datasketches HllSketch
  • [SPARK-43260] [SC-129281] [PYTHON] Eseguire la migrazione degli errori del tipo di freccia pandas di Spark SQL nella classe di errore.
  • [SPARK-41766] [SC-129964] [CORE] Gestire la richiesta di rimozione delle autorizzazioni inviata prima della registrazione dell'executor
  • [SPARK-43307] [SC-129971] [PYTHON] Eseguire la migrazione degli errori del valore PandasUDF nella classe di errore
  • [SPARK-43206] [SC-129903] [SS] [CONNECT] L'eccezione StreamingQuery() include l'analisi dello stack
  • [SPARK-43311] [SC-129905] [SS] Aggiungere miglioramenti alla gestione della memoria del provider dell'archivio stati Di RocksDB
  • [SPARK-43237] [SC-129898] [CORE] Gestire un messaggio di eccezione Null nel registro eventi
  • [SPARK-43320] [SC-129899] [SQL] [HIVE] Chiamare direttamente l'API Hive 2.3.9
  • [SPARK-43270] [SC-129897] [PYTHON] Implementare __dir__() in pyspark.sql.dataframe.DataFrame per includere colonne
  • [SPARK-43183] Ripristinare “[SC-128938][SS] Introdurre un nuovo callback”...
  • [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
  • [SPARK-43257] [SC-129675] [SQL] Sostituire la classe di errore _LEGACY_ERROR_TEMP_2022 da un errore interno
  • [SPARK-43198] [SC-129470] [CONNECT] Correzione “Impossibile inizializzare l'ammonite della classe...” errore durante l'uso del filtro
  • [SPARK-43165] [SC-129777] [SQL] Sposta canWrite in DataTypeUtils
  • [SPARK-43298] [SC-129729] [PYTHON] [ML] predict_batch_udf con input scalare non riesce con dimensioni batch pari a una
  • [SPARK-43298] [SC-129700] Ripristinare “[PYTHON][ML] predict_batch_udf con input scalare ha esito negativo con dimensioni batch di uno”
  • [SPARK-43052] [SC-129663] [CORE] Gestire stacktrace con nome file Null nel registro eventi
  • [SPARK-43183] [SC-128938] [SS] Introdurre un nuovo callback “onQueryIdle” in StreamingQueryListener
  • [SPARK-43209] [SC-129190] [CONNECT] [PYTHON] Eseguire la migrazione degli errori di espressione nella classe di errore
  • [SPARK-42151] [SC-128754] [SQL] Allineare le assegnazioni UPDATE con gli attributi della tabella
  • [SPARK-43134] [SC-129468] [CONNECT] [SS] API StreamingQuery del client JVM ()
  • [SPARK-43298] [SC-129699] [PYTHON] [ML] predict_batch_udf con input scalare non riesce con dimensioni batch pari a una
  • [SPARK-43248] [SC-129660] [SQL] Serializzazione/deserializzazione non necessaria di Path su statistiche di partizione gather parallele
  • [SPARK-43274] [SC-129464] [SPARK-43275] [PYTHON] [CONNECT] Introdurre PySparkNotImplementedError
  • [SPARK-43146] [SC-128804] [CONNECT] [PYTHON] Implementare la valutazione eager per il repository e repr_html
  • [SPARK-42953] [SC-129469] [Connetti] [Followup] Correggere la compilazione di test maven per i test UDF del client Scala
  • [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
  • [SPARK-43136] [SC-129358] [CONNECT] Aggiunta di funzioni groupByKey + mapGroup + coGroup
  • [SPARK-43156] [SC-129672] [SC-128532] [SQL] Correzione di COUNT(*) is null un bug nella sottoquery scalare correlata
  • [SPARK-43046] [SC-129110] [SS] [Connetti] Implementazione dell'api Python dropDuplicatesWithinWatermark per Spark Connect
  • [SPARK-43199] [SC-129467] [SQL] Make InlineCTE idempotent
  • [SPARK-43293] [SC-129657][SQL] __qualified_access_only viene ignorato nelle colonne normali
  • [SPARK-43276] [SC-129461] [CONNECT] [PYTHON] Eseguire la migrazione degli errori della finestra di Connessione Spark nella classe di errore
  • [SPARK-43174] [SC-129109] [SQL] Correzione del completer SparkSQLCLIDriver
  • [SPARK-43084] [SC-128654] [SS] Aggiungere il supporto applyInPandasWithState per spark connect
  • [SPARK-43119] [SC-129040] [SQL] Supporto per ottenere parole chiave SQL in modo dinamico tramite API JDBC e TVF
  • [SPARK-43082] [SC-129112] [CONNECT] [PYTHON] Funzioni definite dall'utente Python ottimizzate per la freccia in Spark Connect
  • [SPARK-43085] [SC-128432][SQL] Colonna di supporto per l'assegnazione predefinita nomi di tabella con più nomi
  • [SPARK-43226] [LC-671] Definire gli estrattori per i metadati costanti dei file
  • [SPARK-43210] [SC-129189] [CONNECT] [PYTHON] Introdurre PySparkAssertionError
  • [SPARK-43214] [SC-129199] [SQL] Pubblicare le metriche lato driver per LocalTableScanExec/CommandResultExec
  • [SPARK-43285] [SC-129347] Correggere l'errore costante di ReplE2ESuite con JDK 17
  • [SPARK-43268] [SC-129249] [SQL] Usare le classi di errore appropriate quando le eccezioni vengono costruite con un messaggio
  • [SPARK-43142] [SC-129299] Correggere le espressioni DSL sugli attributi con caratteri speciali
  • [SPARK-43129] [SC-128896] API di base di Scala per lo streaming di Spark Connect
  • [SPARK-43233] [SC-129250] [SS] Aggiungere la registrazione per la lettura batch Kafka per la partizione dell'argomento, l'intervallo di offset e l'ID attività
  • [SPARK-43249] [SC-129195] [CONNECT] Correzione delle statistiche mancanti per il comando SQL
  • [SPARK-42945] [SC-129188] [CONNECT] Supporto di PYSPARK_JVM_STACKTRACE_ENABLED in Spark Connect
  • [SPARK-43178] [SC-129197] [CONNECT] [PYTHON] Eseguire la migrazione degli errori di funzioni definite dall'utente nel framework degli errori pySpark
  • [SPARK-43123] [SC-128494] [SQL] I metadati dei campi interni non devono essere persi nei cataloghi
  • [SPARK-43217] [SC-129205] Si ripete correttamente in mappe/matrici annidate in findNestedField
  • [SPARK-43243] [SC-129294] [PYTHON] [CONNECT] Aggiungere un parametro di livello a printSchema per Python
  • [SPARK-43230] [SC-129191] [CONNECT] Semplificare DataFrameNaFunctions.fillna
  • [SPARK-43088] [SC-128403] [SQL] Respect RequiresDistributionAndOrdering in CTAS/RTAS
  • [SPARK-43234] [SC-129192] [CONNECT] [PYTHON] Eseguire la migrazione ValueError dal dataframe conect alla classe di errore
  • [SPARK-43212] [SC-129187] [SS] [PYTHON] Eseguire la migrazione degli errori di Structured Streaming nella classe di errore
  • [SPARK-43239] [SC-129186] [PS] Rimuovi null_counts da info()
  • [SPARK-43190] [SC-128930] [SQL] ListQuery.childOutput deve essere coerente con l'output figlio
  • [SPARK-43191] [SC-128924] [CORE] Sostituire reflection w/direct calling for Hadoop CallerContext
  • [SPARK-43193] [SC-129042] [SS] Rimuovere la soluzione alternativa per HADOOP-12074
  • [SPARK-42657] [SC-128621] [CONNECT] Supporto per trovare e trasferire file di classe REPL sul lato client nel server come artefatti
  • [SPARK-43098] [SC-77059][SQL] Correzione del bug COUNT di correzione quando la sottoquery scalare è raggruppata per clausola
  • [SPARK-43213] [SC-129062] [PYTHON] Aggiungere DataFrame.offset alla vaniglia PySpark
  • [SPARK-42982] [SC-128400] [CONNECT] [PYTHON] Correzione di createDataFrame per rispettare il ddl dello schema specificato
  • [SPARK-43124] [SC-129011] [SQL] Dataset.show projects CommandResults localmente
  • [SPARK-42998] [SC-127422] [CONNECT] [PYTHON] Correggere DataFrame.collect con lo struct Null
  • [SPARK-41498] [SC-125343] Ripristinare ” Propagare i metadati tramite Union”
  • [SPARK-42960] [SC-129010] [CONNECT] [SS] Aggiungere await_termination() e api exception() per query di streaming in Python
  • [SPARK-42552] [SC-128824] [SQL] Correggere la strategia di analisi a due fasi del parser antlr
  • [SPARK-43207] [SC-128937] [CONNECT] Aggiungere funzioni helper per estrarre il valore dall'espressione letterale
  • [SPARK-43186] [SC-128841] [SQL] [HIVE] Rimuovere la soluzione alternativa per FileSinkDesc
  • [SPARK-43107] [SC-128533] [SQL] Bucket coalesce in join applicati sul lato flusso di join broadcast
  • [SPARK-43195] [SC-128922] [CORE] Rimuovere il wrapper serializzabile non necessario in HadoopFSUtils
  • [SPARK-43137] [SC-128828] [SQL] Migliorare ArrayInsert se la posizione è piegabile e positiva.
  • [SPARK-37829] [SC-128827] [SQL] Dataframe.joinWith outer-join deve restituire un valore Null per la riga senza corrispondenza
  • [SPARK-43042] [SC-128602] [SS] [Connetti] Aggiungere il supporto dell'API table() per DataStreamReader
  • [SPARK-43153] [SC-128753] [CONNECT] Ignorare l'esecuzione di Spark quando il dataframe è locale
  • [SPARK-43064] [SC-128496] [SQL] La scheda SQL dell'interfaccia della riga di comando di Spark SQL deve essere visualizzata una sola volta
  • [SPARK-43126] [SC-128447] [SQL] Contrassegnare due espressioni UDF Hive come con stato
  • [SPARK-43111] [SC-128750] [PS] [CONNECT] [PYTHON] Unire istruzioni annidate if in singole if istruzioni
  • [SPARK-43113] [SC-128749] [SQL] Valutare le variabili lato flusso durante la generazione di codice per una condizione associata
  • [SPARK-42895] [SC-127258] [CONNECT] Migliorare i messaggi di errore per le sessioni Spark arrestate
  • [SPARK-42884] [SC-126662] [CONNECT] Aggiungere l'integrazione di Ammonite REPL
  • [SPARK-43168] [SC-128674] [SQL] Rimuovere il metodo PhysicalDataType dalla classe Datatype
  • [SPARK-43121] [SC-128455] [SQL] Usare BytesWritable.copyBytes invece di una copia manuale in 'HiveInspectors
  • [SPARK-42916] [SC-128389] [SQL] JDBCTableCatalog mantiene il meta char/Varchar sul lato di lettura
  • [SPARK-43050] [SC-128550] [SQL] Correggere le espressioni di aggregazione dei costrutti sostituendo le funzioni di raggruppamento
  • [SPARK-43095] [SC-128549] [SQL] Evitare l'idempotenza della strategia una volta interrotta per il batch: Infer Filters
  • [SPARK-43130] [SC-128597] [SQL] Spostare InternalType in PhysicalDataType
  • [SPARK-43105] [SC-128456] [CONNECT] Byte abbreviati e stringhe nel messaggio proto
  • [SPARK-43099] [SC-128596] [SQL] Usare getName anziché per ottenere il nome della classe del generatore durante la registrazione di getCanonicalName funzioni definite dall'utente in FunctionRegistry
  • [SPARK-42994] [SC-128586] [ML] [CONNECT] Il server di distribuzione PyTorch supporta la modalità locale
  • [SPARK-42859] Ripristinare "[SC-127935][CONNECT][PS] Supporto Basic per l'API pandas in Spark Connect"
  • [SPARK-43021] [SC-128472] [SQL] CoalesceBucketsInJoin non funziona quando si usa AQE
  • [SPARK-43125] [SC-128477] [CONNECT] Correzione del server Connect non è in grado di gestire l'eccezione con un messaggio Null
  • [SPARK-43147] [SC-128594] correzione di flake8 lint per il controllo locale
  • [SPARK-43031] [SC-128360] [SS] [Connetti] Abilitare unit test e doctest per lo streaming
  • [SPARK-43039] [LC-67] Supportare i campi personalizzati nella colonna _metadata origine file.
  • [SPARK-43120] [SC-128407] [SS] Aggiunta del supporto per il rilevamento dei blocchi aggiunti all'utilizzo della memoria per l'archivio stati RocksDB
  • [SPARK-43110] [SC-128381] [SQL] Sposta asIntegral in PhysicalDataType
  • [SPARK-43118] [SC-128398] [SS] Rimuovere l'asserzione non necessaria per UninterruptibleThread in KafkaMicroBatchStream
  • [SPARK-43055] [SC-128331] [CONNECT] [PYTHON] Supportare nomi di campo annidati duplicati
  • [SPARK-42437] [SC-128339] [PYTHON] [CONNECT] PySpark catalog.cacheTable consentirà di specificare il livello di archiviazione
  • [SPARK-42985] [SC-128332] [CONNECT] [PYTHON] Correzione di createDataFrame per rispettare le configurazioni SQL
  • [SPARK-39696] [SC-127830] [CORE] Correzione della corsa dei dati nell'accesso a TaskMetrics.externalAccums
  • [SPARK-43103] [SC-128335] [SQL] Spostamento di integrali in PhysicalDataType
  • [SPARK-42741] [SC-125547] [SQL] Non annullare il wrapping dei cast nel confronto binario quando il valore letterale è Null
  • [SPARK-43057] [SC-127948] [CONNECT] [PYTHON] Eseguire la migrazione degli errori della colonna Spark Connect nella classe di errore
  • [SPARK-42859] [SC-127935] [CONNECT] [PS] Supporto di base per l'API Pandas in Spark Connect
  • [SPARK-43013] [SC-127773] [PYTHON] Eseguire la migrazione ValueError dal dataframe a PySparkValueError.
  • [SPARK-43089] [SC-128051] [CONNECT] Redact debug string in UI
  • [SPARK-43028] [SC-128070] [SQL] Aggiungere la classe di errore SQL_CONF_NOT_FOUND
  • [SPARK-42999] [SC-127842] [Connetti] Dataset#foreach, foreachPartition
  • [SPARK-43066] [SC-127937] [SQL] Aggiungere il test per dropDuplicates in JavaDatasetSuite
  • [SPARK-43075] [SC-127939] [CONNECT] Passare gRPC a grpcio quando non è installato.
  • [SPARK-42953] [SC-127809] [Connetti] Filtro tipizzato, mappa, flatMap, mapPartitions
  • [SPARK-42597] [SC-125506] [SQL] Supporto del tipo di data di annullamento del wrapping nel tipo timestamp
  • [SPARK-42931] [SC-127933] [SS] Introduzione a dropDuplicatesWithinWatermark
  • [SPARK-43073] [SC-127943] [CONNECT] Aggiungere costanti dei tipi di dati proto
  • [SPARK-43077] [SC-128050] [SQL] Migliorare il messaggio di errore di UNRECOGNIZED_SQL_TYPE
  • [SPARK-42951] [SC-128030] [SS] [Connetti] API DataStreamReader
  • [SPARK-43049] [SC-127846] [SQL] Usare CLOB anziché VARCHAR(255) per StringType per Oracle JDBC
  • [SPARK-43018] [SC-127762][SQL] Correzione del bug per i comandi INSERT con valori letterali timestamp
  • [SPARK-42855] [SC-127722] [SQL] Usare i controlli Null di runtime in TableOutputResolver
  • [SPARK-43030] [SC-127847] [SQL] Deduplicare le relazioni con le colonne di metadati
  • [SPARK-42993] [SC-127829] [ML] [CONNECT] Rendere il server di distribuzione PyTorch compatibile con Spark Connect
  • [SPARK-43058] [SC-128072] [SQL] Spostare numerico e frazionaria in PhysicalDataType
  • [SPARK-43056] [SC-127946] [SS] Il commit dell'archivio stati di RocksDB deve continuare il lavoro in background solo se il commit dell'archivio stati di RocksDB deve continuare a funzionare in background solo se è stato sospeso
  • [SPARK-43059] [SC-127947] [CONNECT] [PYTHON] Eseguire la migrazione di TypeError da DataFrame(Reader|Writer) nella classe error
  • [SPARK-43071] [SC-128018] [SQL] Supporto di SELECT DEFAULT con ORDER BY, LIMIT, OFFSET per la relazione di origine INSERT
  • [SPARK-43061] [SC-127956] [CORE] [SQL] Introdurre PartitionEvaluator per l'esecuzione dell'operatore SQL
  • [SPARK-43067] [SC-127938] [SS] Correggere il percorso del file di risorse della classe di errore nel connettore Kafka
  • [SPARK-43019] [SC-127844] [SQL] Sposta ordinamento in PhysicalDataType
  • [SPARK-43010] [SC-127759] [PYTHON] Eseguire la migrazione degli errori di colonna nella classe di errore
  • [SPARK-42840] [SC-127782] [SQL] Modificare _LEGACY_ERROR_TEMP_2004 l'errore in errore interno
  • [SPARK-43041] [SC-127765] [SQL] Ripristinare i costruttori di eccezioni per la compatibilità nell'API del connettore
  • [SPARK-42939] [SC-127761] [SS] [CONNECT] API Python di streaming core per Spark Connect
  • [SPARK-42844] [SC-127766] [SQL] Aggiornare la classe _LEGACY_ERROR_TEMP_2008 di errore in INVALID_URL
  • [SPARK-42316] [SC-127720] [SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2044
  • [SPARK-42995] [SC-127723] [CONNECT] [PYTHON] Eseguire la migrazione degli errori di Spark Connect DataFrame nella classe di errore
  • [SPARK-42983] [SC-127717] [CONNECT] [PYTHON] Correzione di createDataFrame per gestire correttamente la matrice numpy a 0 dim
  • [SPARK-42955] [SC-127476] [SQL] Ignorare classifyException ed eseguire il wrapping di AnalysisException per SparkThrowable
  • [SPARK-42949] [SC-127255] [SQL] Semplificare il codice per NAAJ
  • [SPARK-43011] [SC-127577][SQL] array_insert deve avere esito negativo con indice 0
  • [SPARK-42974] [SC-127487] [CORE] Ripristinare Utils.createTempDir per usare il ShutdownHookManager metodo e pulire JavaUtils.createTempDir.
  • [SPARK-42964] [SC-127585] [SQL] PosgresDialect '42P07' indica anche che la tabella esiste già
  • [SPARK-42978] [SC-127351] [SQL] Derby&PG: RENAME non può qualificare un new-table-Name con uno schema-Name
  • [SPARK-37980] [SC-127668] [SQL] Accesso row_index tramite _metadata, se possibile, nei test
  • [SPARK-42655] [SC-127591] [SQL] Errore di riferimento di colonna ambiguo non corretto
  • [SPARK-43009] [SC-127596][SQL] Parametrizzato sql() con Any costanti
  • [SPARK-43026] [SC-127590] [SQL] Applicare AQE con la cache delle tabelle non di scambio
  • [SPARK-42963] [SC-127576] [SQL] Estendere SparkSessionExtensions per inserire regole nell'utilità di ottimizzazione della fase di query AQE
  • [SPARK-42918] [SC-127357] Generalizzare la gestione degli attributi dei metadati in FileSourceStrategy
  • [SPARK-42806] [SC-127452] [SPARK-42811] [CONNECT] Aggiungere Catalog il supporto
  • [SPARK-42997] [SC-127535] [SQL] TableOutputResolver deve usare percorsi di colonna corretti nei messaggi di errore per matrici e mappe
  • [SPARK-43006] [SC-127486] [PYSPARK] Correzione dell'errore di digitazione in StorageLevel eq()
  • [SPARK-43005] [SC-127485] [PYSPARK] Correzione dell'errore di digitazioni in pyspark/pandas/config.py
  • [SPARK-43004] [SC-127457] [CORE] Correzione dell'errore di digitazioni in ResourceRequest.equals()
  • [SPARK-42907] [SC-126984] [CONNECT] [PYTHON] Implementare le funzioni Avro
  • [SPARK-42979] [SC-127272] [SQL] Definire costruttori letterali come parole chiave
  • [SPARK-42946] [SC-127252] [SQL] Redigere i dati sensibili che sono annidati tramite sostituzione di variabili
  • [SPARK-42952] [SC-127260] [SQL] Semplificare il parametro della regola dell'analizzatore PreprocessTableCreation e DataSourceAnalysis
  • [SPARK-42683] [LC-75] Rinominare automaticamente le colonne di metadati in conflitto
  • [SPARK-42853] [SC-126101] [FollowUp] Correggere i conflitti
  • [SPARK-42929] [SC-126748] [CONNECT] rendere mapInPandas/mapInArrow support "is_barrier"
  • [SPARK-42968] [SC-127271] [SS] Aggiungere l'opzione per ignorare il coordinatore del commit come parte dell'API StreamingWrite per origini/sink DSv2
  • [SPARK-42954] [SC-127261] [PYTHON] [CONNECT] Aggiungere YearMonthIntervalType al client Python PySpark e Spark Connect
  • [SPARK-41359] [SC-127256] [SQL] Usare PhysicalDataType anziché DataType in UnsafeRow
  • [SPARK-42873] [SC-127262] [SQL] Definire i tipi SPARK SQL come parole chiave
  • [SPARK-42808] [SC-126302] [CORE] Evitare di ottenere i responsabili disponibili ogni volta in MapOutputTrackerMaster#getStatistics
  • [SPARK-42937] [SC-126880][SQL] PlanSubqueries deve impostare InSubqueryExec#shouldBroadcast su true
  • [SPARK-42896] [SC-126729] [SQL] [PYTHON] Eseguire l'esecuzione mapInPandas / mapInArrow della modalità barriera di supporto
  • [SPARK-42874] [SC-126442] [SQL] Abilitare il nuovo framework di test dei file di riferimento per l'analisi per tutti i file di input
  • [SPARK-42922] [SC-126850] [SQL] Passare da Casuale a SecureRandom
  • [SPARK-42753] [SC-126369] ReusedExchange fa riferimento a nodi inesistenti
  • [SPARK-40822] [SC-126274] [SQL] Alias di colonna derivati stabili
  • [SPARK-42908] [SC-126856] [PYTHON] Generare RuntimeError quando SparkContext è obbligatorio ma non inizializzato
  • [SPARK-42779] [SC-126042] [SQL] Consentire alle scritture V2 di indicare le dimensioni delle partizioni casuali di avviso
  • [SPARK-42914] [SC-126727] [PYTHON] Riutilizzare transformUnregisteredFunction per DistributedSequenceID.
  • [SPARK-42878] [SC-126882] [CONNECT] L'API tabella in DataFrameReader può anche accettare opzioni
  • [SPARK-42927] [SC-126883] [CORE] Modificare l'ambito di accesso di o.a.spark.util.Iterators#size in private[util]
  • [SPARK-42943] [SC-126879] [SQL] Usare LONGTEXT invece di TEXT per StringType per una lunghezza effettiva
  • [SPARK-37677] [SC-126855] [CORE] Decomprimere potrebbe mantenere le autorizzazioni per i file
  • [SPARK-42891] [13.x] [SC-126458] [CONNECT] [PYTHON] Implementare l'API Mappa cogrouped
  • [SPARK-41876] [SC-126849] [CONNECT] [PYTHON] Implementare DataFrame.toLocalIterator
  • [SPARK-42930] [SC-126761] [CORE] [SQL] Modificare l'ambito di accesso delle ProtobufSerDe implementazioni correlate in private[protobuf]
  • [SPARK-42819] [SC-125879] [SS] Aggiungere il supporto per l'impostazione di max_write_buffer_number e write_buffer_size per RocksDB usato nel flusso
  • [SPARK-42924] [SC-126737] [SQL] [CONNECT] [PYTHON] Chiarire il commento degli argomenti SQL con parametri
  • [SPARK-42748] [SC-126455] [CONNECT] Gestione degli artefatti lato server
  • [SPARK-42816] [SC-126365] [CONNECT] Supportare dimensioni massime messaggi fino a 128 MB
  • [SPARK-42850] [SC-126109] [SQL] Rimuovere le regole duplicate CombineFilters in Optimizer
  • [SPARK-42662] [SC-126355] [CONNECT] [PS] Aggiungere un messaggio proto per l'API Pandas nell'indice predefinito di Spark
  • [SPARK-42720] [SC-126136] [PS] [SQL] Usa l'espressione per l'indice predefinito della sequenza distribuita anziché per il piano
  • [SPARK-42790] [SC-126174] [SQL] Astrarre il metodo escluso per un test migliore per i test docker JDBC.
  • [SPARK-42900] [SC-126473] [CONNECT] [PYTHON] Correzione di createDataFrame per rispettare i nomi di inferenza e colonna
  • [SPARK-42917] [SC-126657] [SQL] Corretto getUpdateColumnNullabilityQuery per DerbyDialect
  • [SPARK-42684] [SC-125157] [SQL] Catalogo v2 non deve consentire il valore predefinito della colonna per impostazione predefinita
  • [SPARK-42861] [SC-126635] [SQL] Usare private[sql] anziché protected[sql] per evitare di generare la documentazione dell'API
  • [SPARK-42920] [SC-126728] [CONNECT] [PYTHON] Abilitare i test per la funzione definita dall'utente con tipo definito dall'utente
  • [SPARK-42791] [SC-126617] [SQL] Creare un nuovo framework di test di file golden file per l'analisi
  • [SPARK-42911] [SC-126652] [PYTHON] Introdurre altre eccezioni di base
  • [SPARK-42904] [SC-126634] [SQL] Supporto char/varchar per il catalogo JDBC
  • [SPARK-42901] [SC-126459] [CONNECT] [PYTHON] Spostarsi StorageLevel in un file separato per evitare potenziali file recursively imports
  • [SPARK-42894] [SC-126451] [CONNECT] Supporto cache/persist/unpersist/storageLevel per il client jvm di Spark Connect
  • [SPARK-42792] [SC-125852] [SS] Aggiunta del supporto per WRITE_FLUSH_BYTES per RocksDB usato negli operatori con stato di streaming
  • [SPARK-41233] [SC-126441] [CONNECT] [PYTHON] Aggiungere array_prepend al client Python di Spark Connect
  • [SPARK-42681] [SC-125149] [SQL] Vincolo di ordinamento rilassante per ALTER TABLE ADD|Descrittore di colonna REPLACE
  • [SPARK-42889] [SC-126367] [CONNECT] [PYTHON] Implementare la cache, rendere persistente, non persistente e storageLevel
  • [SPARK-42824] [SC-125985] [CONNECT] [PYTHON] Specificare un messaggio di errore chiaro per gli attributi JVM non supportati
  • [SPARK-42340] [SC-126131] [CONNECT] [PYTHON] Implementare l'API mappa raggruppata
  • [SPARK-42892] [SC-126454] [SQL] Spostare sameType e i metodi pertinenti all'esterno di DataType
  • [SPARK-42827] [SC-126126] [CONNECT] Supporto functions#array_prepend per il client di connessione Scala
  • [SPARK-42823] [SC-125987] [SQL] spark-sql Shell supporta spazi dei nomi multipart per l'inizializzazione
  • [SPARK-42817] [SC-125960] [CORE] Registrazione del nome del servizio casuale una sola volta in ApplicationMaster
  • [SPARK-42786] [SC-126438] [Connetti] Selezione tipizzata
  • [SPARK-42800] [SC-125868] [CONNECT] [PYTHON] [ML] Implementare la funzione ml {array_to_vector, vector_to_array}
  • [SPARK-42052] [SC-126439] [SQL] Supporto di Codegen per HiveSimpleUDF
  • [SPARK-41233] [SC-126110] [SQL] [PYTHON] Aggiungere array_prepend una funzione
  • [SPARK-42864] [SC-126268] [ML] [3.4] Rendere IsotonicRegression.PointsAccumulator privato
  • [SPARK-42876] [SC-126281] [SQL] PhysicalDataType di DataType deve essere privato[sql]
  • [SPARK-42101] [SC-125437] [SQL] Rendere il supporto di AQE InMemoryTableScanExec
  • [SPARK-41290] [SC-124030] [SQL] Supporto di espressioni ALWAYS AS GENERATED per le colonne nelle istruzioni create/replace table
  • [SPARK-42870] [SC-126220] [CONNECT] Sposta toCatalystValue in connect-common
  • [SPARK-42247] [SC-126107] [CONNECT] [PYTHON] Correzione di UserDefinedFunction per avere returnType
  • [SPARK-42875] [SC-126258] [CONNECT] [PYTHON] Correzione di toPandas per gestire correttamente i tipi di fuso orario e mapping
  • [SPARK-42757] [SC-125626] [CONNECT] Implementare textFile per DataFrameReader
  • [SPARK-42803] [SC-126081] [CORE] [SQL] [ML] Usare la funzione getParameterCount anziché getParameterTypes.length
  • [SPARK-42833] [SC-126043] [SQL] Refactoring applyExtensions in SparkSession
  • [SPARK-41765] Ripristinare "[SC-123550][SQL] Eseguire il pull delle metriche di scrittura v1...
  • [SPARK-42848] [SC-126105] [CONNECT] [PYTHON] Implementare DataFrame.registerTempTable
  • [SPARK-42020] [SC-126103][CONNECT][PYTHON] Supporto UserDefinedType in Spark Connect
  • [SPARK-42818] [SC-125861] [CONNECT] [PYTHON] Implementare DataFrameReader/Writer.jdbc
  • [SPARK-42812] [SC-125867] [CONNECT] Aggiungere client_type al messaggio protobuf AddArtifactsRequest
  • [SPARK-42772] [SC-125860] [SQL] Modificare il valore predefinito delle opzioni JDBC relative al push fino a true
  • [SPARK-42771] [SC-125855] [SQL] Eseguire il refactoring di HiveGenericUDF
  • [SPARK-25050] [SC-123839] [SQL] Avro: scrittura di unioni complesse
  • [SPARK-42765] [SC-125850] [CONNECT] [PYTHON] Abilitare l'importazione pandas_udf da pyspark.sql.connect.functions
  • [SPARK-42719] [SC-125225] [CORE] MapOutputTracker#getMapLocation deve rispettare spark.shuffle.reduceLocality.enabled
  • [SPARK-42480] [SC-125173] [SQL] Migliorare le prestazioni delle partizioni di eliminazione
  • [SPARK-42689] [SC-125195] [CORE] [SHUFFLE] Consenti a ShuffleDriverComponent di dichiarare se i dati casuali vengono archiviati in modo affidabile
  • [SPARK-42726] [SC-125279] [CONNECT] [PYTHON] Implementare DataFrame.mapInArrow
  • [SPARK-41765] [SC-123550] [SQL] Eseguire il pull delle metriche di scrittura v1 in WriteFiles
  • [SPARK-41171] [SC-124191] [SQL] Dedurre ed eseguire il push del limite della finestra attraverso la finestra se partitionSpec è vuoto
  • [SPARK-42686] [SC-125292] [CORE] Rinviare la formattazione per i messaggi di debug in TaskMemoryManager
  • [SPARK-42756] [SC-125443] [CONNECT] [PYTHON] Funzione helper per convertire il valore letterale proto in valore nel client Python
  • [SPARK-42793] [SC-125627] [CONNECT] connect il modulo richiede build_profile_flags
  • [SPARK-42701] [SC-125192] [SQL] Aggiungere la try_aes_decrypt() funzione
  • [SPARK-42679] [SC-125438] [CONNECT] [PYTHON] createDataFrame non funziona con uno schema non nullable
  • [SPARK-42733] [SC-125542] [CONNECT] [Followup] Scrivere senza percorso o tabella
  • [SPARK-42777] [SC-125525] [SQL] Supporto per la conversione delle statistiche del catalogo TimestampNTZ in statistiche di piano
  • [SPARK-42770] [SC-125558] [CONNECT] Aggiungere truncatedTo(ChronoUnit.MICROS) per eseguire SQLImplicitsTestSuite il passaggio dell'attività ga al test giornaliero di Java 17
  • [SPARK-42752] [SC-125550] [PYSPARK] [SQL] Rendere stampabili le eccezioni PySpark durante l'inizializzazione
  • [SPARK-42732] [SC-125544] [PYSPARK] [CONNECT] Supporto del metodo spark connect session getActiveSession
  • [SPARK-42755] [SC-125442] [CONNECT] Conversione del valore letterale del fattore in connect-common
  • [SPARK-42747] [SC-125399] [ML] Correzione dello stato interno errato di LoR e AFT
  • [SPARK-42740] [SC-125439] [SQL] Correzione del bug che scostamento o paging del pushdown non è valido per alcuni dialetti predefiniti
  • [SPARK-42745] [SC-125332] [SQL] AliasAwareOutputExpression migliorato funziona con DSv2
  • [SPARK-42743] [SC-125330] [SQL] Supporto per l'analisi delle colonne TimestampNTZ
  • [SPARK-42721] [SC-125371] [CONNECT] Intercettore di registrazione RPC
  • [SPARK-42691] [SC-125397] [CONNECT] [PYTHON] Implementare Dataset.semanticHash
  • [SPARK-42688] [SC-124922] [CONNECT] Rinominare Connect proto Request client_id in session_id
  • [SPARK-42310] [SC-122792] [SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1289
  • [SPARK-42685] [SC-125339] [CORE] Ottimizzare le routine Utils.bytesToString
  • [SPARK-42725] [SC-125296] [CONNECT] [PYTHON] Make LiteralExpression support array params
  • [SPARK-42702] [SC-125293][SPARK-42623][SQL] Supportare query con parametri in sottoquery e CTE
  • [SPARK-42697] [SC-125189] [WEBUI] Correggere /api/v1/applications per restituire il tempo di attività totale anziché 0 per il campo durata
  • [SPARK-42733] [SC-125278] [CONNECT] [PYTHON] Correzione di DataFrameWriter.save per funzionare senza il parametro path
  • [SPARK-42376] [SC-124928] [SS] Introdurre la propagazione della filigrana tra gli operatori
  • [SPARK-42710] [SC-125205] [CONNECT] [PYTHON] Rinominare il proto FrameMap in MapPartitions
  • [SPARK-37099] [SC-123542] [SQL] Introdurre il limite di gruppo di Window per il filtro basato su classificazione per ottimizzare il calcolo top-k
  • [SPARK-42630] [SC-125207] [CONNECT] [PYTHON] Introdurre UnparsedDataType e ritardare l'analisi della stringa DDL fino a quando SparkConnectClient non è disponibile
  • [SPARK-42690] [SC-125193] [CONNECT] Implementare funzioni di analisi CSV/JSON per il client Scala
  • [SPARK-42709] [SC-125172] [PYTHON] Rimuovere il presupposto di __file__ essere disponibile
  • [SPARK-42318] [SC-122648] [SPARK-42319] [SQL] Assegnare il nome a LEGACY_ERROR_TEMP(2123|2125)
  • [SPARK-42723] [SC-125183] [SQL] Supportare il tipo di dati del parser json "timestamp_ltz" come TimestampType
  • [SPARK-42722] [SC-125175] [CONNECT] [PYTHON] Python Connect def schema() non deve memorizzare nella cache lo schema
  • [SPARK-42643] [SC-125152] [CONNECT] [PYTHON] Registrare funzioni Java (aggregate) definite dall'utente
  • [SPARK-42656] [SC-125177] [CONNECT] [Followup] Correggere lo script spark-connect
  • [SPARK-41516] [SC-123899] [SQL] Consentire ai dialetti jdbc di eseguire l'override della query usata per creare una tabella
  • [SPARK-41725] [SC-124396] [CONNECT] Esecuzione eager di DF.sql()
  • [SPARK-42687] [SC-124896] [SS] Messaggio di errore migliore per l'operazione non supportata pivot in Streaming
  • [SPARK-42676] [SC-124809] [SS] Scrivere checkpoint temporanei per le query di streaming nel file system locale anche se il file system predefinito è impostato in modo diverso
  • [SPARK-42303] [SC-122644] [SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1326
  • [SPARK-42553] [SC-124560][SQL] Verificare almeno un'unità a consumo dopo l'intervallo
  • [SPARK-42649] [SC-124576] [CORE] Rimuovere l'intestazione standard di Apache License dall'inizio dei file di origine di terze parti
  • [SPARK-42611] [SC-124395] [SQL] Inserire controlli di lunghezza char/varchar per i campi interni durante la risoluzione
  • [SPARK-42419] [SC-124019] [CONNECT] [PYTHON] Eseguire la migrazione nel framework degli errori per l'API Colonna Spark Connect.
  • [SPARK-42637] [SC-124522] [CONNECT] Aggiungere SparkSession.stop()
  • [SPARK-42647] [SC-124647] [PYTHON] Modificare l'alias per i tipi numpy deprecati e rimossi
  • [SPARK-42616] [SC-124389] [SQL] SparkSQLCLIDriver chiude solo sessionState hive avviato
  • [SPARK-42593] [SC-124405] [PS] Deprecare e rimuovere le API che verranno rimosse in pandas 2.0.
  • [SPARK-41870] [SC-124402] [CONNECT] [PYTHON] Correzione di createDataFrame per gestire i nomi di colonna duplicati
  • [SPARK-42569] [SC-124379] [CONNECT] Generare eccezioni per l'API di sessione non supportata
  • [SPARK-42631] [SC-124526] [CONNECT] Supporto di estensioni personalizzate nel client Scala
  • [SPARK-41868] [SC-124387] [CONNECT] [PYTHON] Correzione di createDataFrame per supportare le durate
  • [SPARK-42572] [SC-124171] [SQL] [SS] Correzione del comportamento per StateStoreProvider.validateStateRowFormat

Aggiornamenti di manutenzione

Vedere Aggiornamenti di manutenzione di Databricks Runtime 13.1.

Ambiente di sistema

  • Sistema operativo: Ubuntu 22.04.2 LTS
  • Java: Zulu 8.70.0.23-CA-linux64
  • Scala: 2.12.15
  • Python: 3.10.12
  • R: 4.2.2
  • Delta Lake: 2.4.0

Librerie Python installate

Library Versione Library Versione Library Versione
appdirs 1.4.4 argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0
asttoken 2.2.1 attrs 21.4.0 backcall 0.2.0
beautifulsoup4 4.11.1 black 22.6.0 bleach 4.1.0
blinker 1.4 boto3 1.24.28 botocore 1.27.28
certifi 2022.9.14 cffi 1.15.1 chardet 4.0.0
charset-normalizer 2.0.4 click 8.0.4 cryptography 37.0.1
cycler 0.11.0 Cython 0.29.32 dbus-python 1.2.18
debugpy 1.5.1 decorator 5.1.1 defusedxml 0.7.1
distlib 0.3.6 docstring-to-markdown 0.12 entrypoints 0.4
executing 1.2.0 facet-overview 1.0.3 fastjsonschema 2.16.3
filelock 3.12.0 fonttools 4.25.0 googleapis-common-protos 1.56.4
grpcio 1.48.1 grpcio-status 1.48.1 httplib2 0.20.2
idna 3.3 importlib-metadata 4.6.4 ipykernel 6.17.1
ipython 8.10.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 jeepney 0.7.1 Jinja2 2.11.3
jmespath 0.10.0 joblib 1.2.0 jsonschema 4.16.0
jupyter-client 7.3.4 jupyter_core 4.11.2 jupyterlab-pygments 0.1.2
jupyterlab-widgets 1.0.0 keyring 23.5.0 kiwisolver 1.4.2
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
MarkupSafe 2.0.1 matplotlib 3.5.2 matplotlib-inline 0.1.6
mccabe 0.7.0 mistune 0.8.4 more-itertools 8.10.0
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.5.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notebook 6.4.12 numpy 1.21.5 oauthlib 3.2.0
packaging 21.3 pandas 1.4.4 pandocfilters 1.5.0
parso 0.8.3 pathspec 0.9.0 patsy 0.5.2
pexpect 4.8.0 pickleshare 0.7.5 Pillow 9.2.0
pip 22.2.2 platformdirs 2.5.2 plotly 5.9.0
pluggy 1.0.0 prometheus-client 0.14.1 prompt-toolkit 3.0.36
protobuf 3.19.4 psutil 5.9.0 psycopg2 2.9.3
ptyprocess 0.7.0 pure-eval 0.2.2 pyarrow 8.0.0
pycparser 2.21 pydantic 1.10.6 pyflakes 3.0.1
Pygments 2.11.2 PyGObject 3.42.1 PyJWT 2.3.0
pyodbc 4.0.32 pyparsing 3.0.9 pyright 1.1.294
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.7.1 pytoolconfig 1.2.2 pytz 2022.1
pyzmq 23.2.0 requests 2.28.1 rope 1.7.0
s3transfer 0.6.0 scikit-learn 1.1.1 scipy 1.9.1
seaborn 0.11.2 SecretStorage 3.3.1 Send2Trash 1.8.0
setuptools 63.4.1 six 1.16.0 soupsieve 2.3.1
ssh-import-id 5.11 stack-data 0.6.2 statsmodels 0.13.2
tenacity 8.1.0 terminado 0.13.1 testpath 0.6.0
threadpoolctl 2.2.0 tokenize-rt 4.2.1 tomli 2.0.1
tornado 6.1 traitlets 5.1.1 typing_extensions 4.3.0
ujson 5.4.0 unattended-upgrades 0.1 urllib3 1.26.11
virtualenv 20.16.3 wadllib 1.3.6 wcwidth 0.2.5
webencodings 0.5.1 whatthepatch 1.0.2 wheel 0.37.1
widgetsnbextension 3.6.1 yapf 0.31.0 zipp 1.0.0

Librerie R installate

Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2023-02-10.

Library Versione Library Versione Library Versione
freccia 10.0.1 askpass 1.1 assertthat 0.2.1
backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.5 bit64 4.0.5 blob 1.2.3
boot 1.3-28 brew 1.0-8 brio 1.1.3
Scopa 1.0.3 bslib 0.4.2 cachem 1.0.6
callr 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-59 class 7.3-21 cli 3.6.0
clipr 0.8.0 clock 0.6.1 cluster 2.1.4
codetools 0.2-19 colorspace 2.1-0 commonmark 1.8.1
compilatore 4.2.2 config 0.3.1 cpp11 0.4.3
crayon 1.5.2 credentials 1.3.2 curl 5.0.0
data.table 1.14.6 datasets 4.2.2 DBI 1.1.3
dbplyr 2.3.0 desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 digest 0.6.31 downlit 0.4.2
dplyr 1.1.0 dtplyr 1.2.2 e1071 1.7-13
puntini di sospensione 0.3.2 evaluate 0,20 fansi 1.0.4
farver 2.1.1 fastmap 1.1.0 fontawesome 0.5.0
forcats 1.0.0 foreach 1.5.2 foreign 0.8-82
forge 0.2.0 fs 1.6.1 future 1.31.0
future.apply 1.10.0 gargle 1.3.0 generics 0.1.3
gert 1.9.2 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-6 globals 0.16.2
glue 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.1 grafica 4.2.2 grDevices 4.2.2
grid 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 haven 2.5.1
highr 0,10 hms 1.1.2 htmltools 0.5.4
htmlwidgets 1.6.1 httpuv 1.6.8 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.7 Iteratori 1.0.14 jquerylib 0.1.4
jsonlite 1.8.4 KernSmooth 2.23-20 knitr 1.42
Etichettatura 0.4.2 later 1.3.0 Lattice 0.20-45
Java 1.7.1 lifecycle 1.0.3 listenv 0.9.0
lubridate 1.9.1 magrittr 2.0.3 markdown 1,5
MASS 7.3-58.2 Matrice 1.5-1 memoise 2.0.1
methods 4.2.2 mgcv 1.8-41 mime 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.10
munsell 0.5.0 nlme 3.1-162 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.5 parallel 4.2.2
parallelly 1.34.0 Concetto fondamentale 1.8.1 pkgbuild 1.4.0
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.2
plogr 0.2.0 plyr 1.8.8 praise 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Avanzamento 1.2.2
progressr 0.13.0 promises 1.2.0.1 proto 1.0.0
proxy 0.4-27 ps 1.7.2 purrr 1.0.1
r2d3 0.2.6 R6 2.5.1 ragg 1.2.5
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.10 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.2 ricette 1.0.4
rematch 1.0.1 rematch2 2.1.2 remotes 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2.20 RODBC 1.3-20 roxygen2 7.2.3
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-12
RSQLite 2.2.20 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 sass 0.4.5 Scalabilità 1.2.1
selectr 0.4-2 sessioninfo 1.2.2 Forma 1.4.6
shiny 1.7.4 sourcetools 0.1.7-1 sparklyr 1.7.9
SparkR 3.4.0 spaziale 7.3-15 Spline 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 stats 4.2.2
stats4 4.2.2 stringi 1.7.12 stringr 1.5.0
Sopravvivenza 3.5-3 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.6 textshaping 0.3.6
tibble 3.1.8 tidyr 1.3.0 tidyselect 1.2.0
tidyverse 1.3.2 timechange 0.2.0 timeDate 4022.108
tinytex 0.44 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 UTF8 1.2.3
utils 4.2.2 uuid 1.1-0 vctrs 0.5.2
viridisLite 0.4.1 vroom 1.6.1 waldo 0.4.0
whisker 0.4.1 withr 2.5.0 xfun 0.37
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.7 zip 2.2.2

Librerie Java e Scala installate (versione del cluster Scala 2.12)

ID gruppo ID artefatto Versione
antlr antlr 2.7.7
com.amazonaws amazon-distribuisci-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr 1.12.390
com.amazonaws aws-java-sdk-glacier 1.12.390
com.amazonaws aws-java-sdk-glue 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws aws-java-sdk-importexport 1.12.390
com.amazonaws aws-java-sdk-consultas 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-machinelearning 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts 1.12.390
com.amazonaws aws-java-sdk-support 1.12.390
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics stream 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.mdfsoftware kryo-shaded 4.0.2
com.mdfsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.3.4
com.fasterxml.jackson.core annotazioni jackson 2.14.2
com.fasterxml.jackson.core jackson-core 2.14.2
com.fasterxml.jackson.core jackson-databind 2.14.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.14.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.14.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.14.2
com.github.ben-manes.caffeina caffeina 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java 1.1-natives
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java 1.1-natives
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-natives
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-natives
com.github.luben zstd-jni 1.5.2-5
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.9
com.google.crypto.tink tink 1.7.0
com.google.errorprone error_prone_annotations 2.10.0
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guaiava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.1.214
com.helger profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocità univocità-parser 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1,5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.sdk.netlib arpack 3.0.3
dev.sdk.netlib blas 3.0.3
dev.sdk.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.4
io.dropwizard.metrics metrics-core 4.2.10
io.dropwizard.metrics metrics-graphite 4.2.10
io.dropwizard.metrics metrics-healthchecks 4.2.10
io.dropwizard.metrics metrics-jetty9 4.2.10
io.dropwizard.metrics metrics-jmx 4.2.10
io.dropwizard.metrics metrics-json 4.2.10
io.dropwizard.metrics metrics-jvm 4.2.10
io.dropwizard.metrics metrics-servlets 4.2.10
io.netty netty-all 4.1.87.Final
io.netty netty-buffer 4.1.87.Final
io.netty netty-codec 4.1.87.Final
io.netty netty-codec-http 4.1.87.Final
io.netty netty-codec-http2 4.1.87.Final
io.netty netty-codec-socks 4.1.87.Final
io.netty netty-common 4.1.87.Final
io.netty netty-handler 4.1.87.Final
io.netty netty-handler-proxy 4.1.87.Final
io.netty netty-resolver 4.1.87.Final
io.netty netty-transport 4.1.87.Final
io.netty netty-transport-classes-epoll 4.1.87.Final
io.netty netty-transport-classes-kqueue 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final
io.netty netty-transport-native-epoll 4.1.87.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.87.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.87.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.87.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx agente di raccolta 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
ml.combust.mleap mleap-databricks-runtime_2.12 v0.20.0-db2
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.16
org.apache.ant ant-jsch 1.9.16
org.apache.ant ant-launcher 1.9.16
org.apache.arrow formato freccia 11.0.0
org.apache.arrow arrow-memory-core 11.0.0
org.apache.arrow arrow-memory-netty 11.0.0
org.apache.arrow freccia-vettore 11.0.0
org.apache.avro avro 1.11.1
org.apache.avro avro-ipc 1.11.1
org.apache.avro avro-mapred 1.11.1
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curatore-cliente 2.13.0
org.apache.curator curatore-framework 2.13.0
org.apache.curator ricette curatori 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-memory 2.0.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy ivy 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.19.0
org.apache.logging.log4j log4j-api 2.19.0
org.apache.logging.log4j log4j-core 2.19.0
org.apache.logging.log4j log4j-slf4j2-impl 2.19.0
org.apache.mesos mesos 1.11.0-shaded-protobuf
org.apache.orc orc-core 1.8.3-shaded-protobuf
org.apache.orc orc-mapreduce 1.8.3-shaded-protobuf
org.apache.orc orc-shim 1.8.3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.22
org.apache.yetus annotazioni del gruppo di destinatari 0.13.0
org.apache.zookeeper zookeeper 3.6.3
org.apache.zookeeper zookeeper-jute 3.6.3
org.checkerframework checker-qual 3.19.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.50.v20221201
org.eclipse.jetty jetty-continuation 9.4.50.v20221201
org.eclipse.jetty jetty-http 9.4.50.v20221201
org.eclipse.jetty jetty-io 9.4.50.v20221201
org.eclipse.jetty jetty-jndi 9.4.50.v20221201
org.eclipse.jetty jetty-plus 9.4.50.v20221201
org.eclipse.jetty jetty-proxy 9.4.50.v20221201
org.eclipse.jetty jetty-security 9.4.50.v20221201
org.eclipse.jetty jetty-server 9.4.50.v20221201
org.eclipse.jetty jetty-servlet 9.4.50.v20221201
org.eclipse.jetty jetty-servlets 9.4.50.v20221201
org.eclipse.jetty jetty-util 9.4.50.v20221201
org.eclipse.jetty jetty-util-ajax 9.4.50.v20221201
org.eclipse.jetty jetty-webapp 9.4.50.v20221201
org.eclipse.jetty jetty-xml 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-api 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-client 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-common 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-server 9.4.50.v20221201
org.eclipse.jetty.websocket websocket-servlet 9.4.50.v20221201
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core maglia-comune 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.7.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 2.2.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.8
org.roaringbitmap RoaringBitmap 0.9.39
org.roaringbitmap Spessori 0.9.39
org.rocksdb rocksdbjni 7.8.3
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest compatibile con scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.6
org.slf4j jul-to-slf4j 2.0.6
org.slf4j slf4j-api 2.0.6
org.threeten treten-extra 1.7.1
org.cortanaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.33
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1