Databricks Runtime 10.1 (EoS)
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 10.1 e Databricks Runtime 10.1 Photon, con tecnologia Apache Spark 3.2.0. Databricks ha rilasciato questa versione a novembre 2021. Photon è disponibile in anteprima pubblica.
Miglioramenti e nuove funzionalità
- Nuove impostazioni della tabella Delta per la compattazione di file di piccole dimensioni
- Nuove metriche dei gruppi di righe per le analisi di query Parquet
- Trigger.AvailableNow per query di streaming di origine Delta
- Trigger.AvailableNow per il caricatore automatico
- Supporto differenziale per le configurazioni del file system Hadoop passate tramite le opzioni del dataframe
- Il checkpoint dello stato asincrono è ora supportato nei processi di streaming con stato (anteprima pubblica)
- Sparklyr con pass-through delle credenziali
- I dati di Databricks Utilities riepilogano il controllo precisione (anteprima pubblica)
- I notebook di Azure Databricks possono ora essere usati con il kernel IPython
- Nuove funzioni in Spark SQL
Nuove impostazioni della tabella Delta per la compattazione di file di piccole dimensioni
La proprietà delta.autoOptimize.autoCompact
Tabella Delta accetta ora i nuovi valori di auto
e legacy
oltre ai valori esistenti di true
e false
. Se impostata su auto
(scelta consigliata), la compattazione automatica usa impostazioni predefinite migliori, ad esempio l'impostazione di 32 MB come dimensione del file di destinazione (anche se i comportamenti predefiniti sono soggetti a modifiche in futuro). Se impostato su legacy
o true
, la compattazione automatica usa 128 MB come dimensione del file di destinazione.
Anziché impostare questa proprietà per una singola tabella, è possibile impostare la spark.databricks.delta.autoCompact.enabled
configurazione su auto
, legacy
o true
per abilitare la compattazione automatica per tutte le tabelle Delta. Questa configurazione ha la precedenza sulla proprietà della tabella correlata durante la sessione corrente.
Le dimensioni del file di destinazione per la compattazione automatica possono essere controllate con la spark.databricks.delta.autoCompact.maxFileSize
configurazione.
Per altre informazioni sulla compattazione automatica, vedere Compattazione automatica per Delta Lake in Azure Databricks.
Nuove metriche dei gruppi di righe per le analisi di query Parquet
Le query con analisi Parquet ora eseguono metriche del gruppo di righe nell'interfaccia utente di Spark. Queste metriche del gruppo di righe sono:
- numero totale di gruppi di righe parquet
- numero di gruppi di righe parquet letti
Trigger.AvailableNow per query di streaming di origine Delta
Questa modifica supporta un nuovo tipo di trigger per le query di streaming di origine Delta in Scala: Trigger.AvailableNow
. È come Trigger.Once
, che elabora tutti i dati disponibili e quindi arresta la query. Tuttavia, Trigger.AvailableNow
offre una migliore scalabilità, perché i dati possono essere elaborati in più batch anziché in uno. Questa modifica non introduce una nuova interfaccia; implementa un'API Spark esistente. Questo trigger supporta anche tutte le opzioni di limitazione della frequenza già supportate da Delta come origine.
Esempio:
spark.readStream
.format("delta")
.option("maxFilesPerTrigger", "1")
.load(inputDir)
.writeStream
.trigger(Trigger.AvailableNow)
.option("checkpointLocation", checkpointDir)
.start()
Vedere copertura di Trigger.AvailableNow
in Che cos'è il caricatore automatico?.
Trigger.AvailableNow per il caricatore automatico
Trigger.AvailableNow
è una nuova modalità trigger di streaming simile a Trigger.Once
. Trigger.Once
elabora tutti i dati disponibili e quindi arresta la query. Trigger.AvailableNow
offre una maggiore scalabilità, perché i dati possono essere elaborati in più batch anziché in uno. Il caricatore automatico supporta Trigger.AvailableNow
ora sia l'elenco delle directory che le modalità di notifica dei file per Scala. Vedere copertura di Trigger.AvailableNow
in Che cos'è il caricatore automatico?.
Supporto differenziale per le configurazioni del file system Hadoop passate tramite le opzioni del dataframe
Analogamente a Parquet, Delta supporta ora la lettura delle configurazioni del file system Hadoop da DataFrameReader
e DataFrameWriter
quando la tabella viene letta o scritta usando DataFrameReader.load(path)
o DataFrameWriter.save(path)
. Vedere Configurare le credenziali di archiviazione Delta.
Il checkpoint dello stato asincrono è ora supportato nei processi di streaming con stato (anteprima pubblica)
Il checkpoint dello stato asincrono è una nuova funzionalità che riduce potenzialmente la latenza di microbatch end-to-end nei processi di streaming con stato con aggiornamenti di stato di grandi dimensioni. Vedere Checkpoint dello stato asincrono per le query con stato.
Sparklyr con pass-through delle credenziali
È ora possibile usare le API sparklyr per leggere e scrivere dati da e verso l'archiviazione cloud usando il pass-through delle credenziali. Questa funzionalità è limitata ai cluster standard con accesso utente singolo. Vedere Access Azure Data Lake Storage using Microsoft Entra ID credential passthrough (legacy) (Accedere ad Azure Data Lake Storage usando il pass-through delle credenziali di Microsoft Entra ID (legacy).
I dati di Databricks Utilities riepilogano il controllo precisione (anteprima pubblica)
precise
Nuovo parametro per dbutils.data.summarize
controllare la precisione dei risultati di riepilogo. Se precise
è impostato su false (impostazione predefinita), il riepilogo restituisce risultati approssimativi per conteggi distinti, percentile e conteggi frequenti degli elementi. Se precise
è impostato su true, i riepiloghi vengono ora calcolati con conteggio esatto dei valori distinti e conteggi frequenti degli elementi, con stime percentili più precise. Vedere il comando summarize (dbutils.data.summarize)..
I notebook di Azure Databricks possono ora essere usati con il kernel IPython
È ora possibile configurare un cluster Azure Databricks per usare il kernel IPython per eseguire il codice Python. L'uso del kernel IPython in Azure Databricks aggiunge il supporto per gli strumenti di visualizzazione e output di IPython. Inoltre, il kernel IPython acquisisce gli output stdout e stderr dei processi figlio creati da un notebook, consentendo l'inserimento dell'output nei risultati dei comandi del notebook.
Per altre informazioni, vedere Kernel IPython.
Nuove funzioni in Spark SQL
Sono stati aggiunti gli oggetti e i comandi seguenti per l'uso dei dati in Unity Catalog (anteprima):The following objects and commands have been added for working with data in Unity Catalog (Preview):
- Percorsi esterni
- ALTER CATALOG
- ALTER CREDENTIAL
- ALTER LOCATION
- CREATE CATALOG
- CREATE LOCATION
- CREATE RECIPIENT
- DESCRIVERE IL CATALOGO
- DESCRIVERE LE CREDENZIALI
- DESCRIVERE LA POSIZIONE
- DROP CATALOG
- DROP CREDENTIAL
- DROP LOCATION
- LISTA
- SHOW CATALOGS
- MOSTRA CREDENZIALI
- MOSTRA POSIZIONI
- USE CATALOG
Sono stati aggiunti i comandi seguenti per la condivisione Delta (anteprima), che consente di condividere dati di sola lettura con destinatari esterni all'organizzazione:
- Condivisione
- ALTER SHARE
- CREATE SHARE
- DESCRIVERE IL DESTINATARIO
- DESCRIVERE LA CONDIVISIONE
- DROP RECIPIENT
- DROP SHARE
- GRANT SHARE
- REVOKE SHARE
- MOSTRA TUTTO IN CONDIVISIONE
- MOSTRA DESTINATARI
- MOSTRA CONDIVISIONI
- SHOW GRANT ON SHARE
- SHOW GRANT TO RECIPIENT
Correzioni di bug
- Correzione di una race condition che potrebbe causare un errore di query con un
IOException
tipoNo FileSystem for scheme
o che potrebbe causare modifiche asparkContext.hadoopConfiguration
non rendere effettive le query.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- filelock da 3.0.12 a 3.3.1
- koala da 1.8.1 a 1.8.2
- tracciato da 5.1.0 a 5.3.0
- Librerie R aggiornate:
- bslib da 0.3.0 a 0.3.1
- cursore da 6.0-88 a 6.0-90
- cpp11 da 0.3.1 a 0.4.0
- data.table da 1.14.0 a 1.14.2
- desc da 1.3.0 a 1.4.0
- diffobj da 0.3.4 a 0.3.5
- digest da 0.6.27 a 0.6.28
- generics da 0.1.0 a 0.1.1
- hms da 1.1.0 a 1.1.1
- magliar da 1.34 a 1.36
- reticolo da 0,20-44 a 0,20-45
- ciclo di vita da 1.0.0 a 1.0.1
- lubridate da 1.7.10 a 1.8.0
- mgcv da 1,8-37 a 1,8-38
- mime da 0.11 a 0.12
- pkgload da 1.2.2 a 1.2.3
- progressr da 0.8.0 a 0.9.0
- rcmdcheck dalla versione 1.3.3 alla versione 1.4.0
- readr dalla versione 2.0.1 alla versione 2.0.2
- ricette da 0.1.16 a 0.1.17
- remote da 2.4.0 a 2.4.1
- rlang da 0.4.11 a 0.4.12
- rvest da 1.0.1 a 1.0.2
- brillante da 1.6.0 a 1.7.1
- stringi da 1.7.4 a 1.7.5
- testat da 3.0.4 a 3.1.0
- tidyr da 1.1.3 a 1.1.4
- tinytex da 0,33 a 0,34
- usethis da 2.0.1 a 2.1.2
- xfun da 0.26 a 0.27
- Librerie Java aggiornate:
- com.zaxxer.HikariCP da 3.1.0 a 4.0.3
Apache Spark
Databricks Runtime 10.1 include Apache Spark 3.2.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 10.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-37037] [SQL] Migliorare l'ordinamento delle matrici di byte unify CompareTo funzione UTF8String e ByteArray
- [SPARK-37091] [R] SystemRequirements per includere Java < 18
- [SPARK-37041] [SQL] Backport HIVE-15025: supporto SECURE-Socket-Layer (SSL) per HMS
- [SPARK-37098] [SQL] Modificare le proprietà della tabella deve invalidare la cache
- [SPARK-36992] [SQL] Migliorare l'ordinamento delle matrici di byte perf unify funzione getPrefix di UTF8String e ByteArray
- [SPARK-37047] [SQL] Aggiungere funzioni lpad e rpad per stringhe binarie
- [SPARK-37076] [SQL] Implementare StructType.toString in modo esplicito per Scala 2.13
- [SPARK-37075] [SQL] Spostare la compilazione dell'espressione UDAF da sql/catalyst a sql/core
- [SPARK-37084] [SQL] Impostare spark.sql.files.openCostInBytes su bytesConf
- [SPARK-37088] [PYSPARK] [SQL] Il thread writer non deve accedere all'input dopo la restituzione del listener di completamento attività
- [SPARK-37069] [SQL] Fallback corretto quando Hive.getWithoutRegisterFns non è disponibile
- [SPARK-37050] [PYTHON] Aggiornare le istruzioni di installazione di Conda
- [SPARK-37067] [SQL] Usare ZoneId.of() per gestire la stringa del fuso orario in DatetimeUtils
- [SPARK-35925] [SQL] Supporto di DayTimeIntervalType nella funzione width-bucket
- [SPARK-35926] [SQL] Aggiungere il supporto di YearMonthIntervalType per width_bucket
- [SPARK-35973] [SQL] Aggiungi comando
SHOW CATALOGS
- [SPARK-36922] [SQL] Le funzioni SIGN/SIGNUM devono supportare intervalli ANSI
- [SPARK-37078] [CORE] Supportare i costruttori sink di 3 parametri precedenti
- [SPARK-37061] [SQL] Correzione di CustomMetrics quando si usano classi interne
- [SPARK-35918] [AVRO] Unificare la gestione della mancata corrispondenza dello schema per la lettura/scrittura e migliorare i messaggi di errore
- [SPARK-36871] [SQL] Eseguire la migrazione del comando CreateViewStatement alla versione 2
- [SPARK-36898] [SQL] Rendere configurabile il fattore di hash join casuale
- [SPARK-36921] [SQL] Supportare gli intervalli ANSI per
DIV
- [SPARK-36794] [SQL] Ignorare le chiavi di join duplicate durante la compilazione di relazioni per il join hash casuale SEMI/ANTI
- [SPARK-36867] [SQL] Correzione del messaggio di errore con l'alias GROUP BY
- [SPARK-36914] [SQL] Implementare dropIndex e listIndexes in JDBC (dialetto MySQL)
- [SPARK-35531] [SQL] Passare direttamente la tabella hive a HiveClient quando si chiama getPartitions per evitare la conversione non necessaria da HiveTable -> CatalogTable -> HiveTable
- [SPARK-36718] [SQL] Comprimere i progetti solo se non si duplicano espressioni costose
- [SPARK-37046] [SQL]: La visualizzazione modifica non mantiene le maiuscole/minuscole delle colonne
- [SPARK-36978] [SQL] La regola InferConstraints deve creare vincoli IsNotNull sul campo annidato a cui si accede anziché sul tipo annidato radice
- [SPARK-37052] [CORE] Spark deve passare solo l'argomento –verbose alla classe main quando è la shell sql
- [SPARK-37017] [SQL] Ridurre l'ambito della sincronizzazione per evitare potenziali deadlock
- [SPARK-37032] [SQL] Correzione del collegamento alla sintassi SQL interrotta nella pagina di riferimento SQL
- [SPARK-36905] [SQL] Correzione della lettura delle viste Hive senza nomi di colonna espliciti
- [SPARK-36678] Eseguire la migrazione di SHOW TABLES per usare il comando V2 per impostazione predefinita
- [SPARK-36943] [SQL] Migliorare la leggibilità del messaggio di errore di colonna mancante
- [SPARK-36980] [SQL] Inserire una query di supporto con CTE
- [SPARK-37001] [SQL] Disabilitare due livelli di mapping per l'aggregazione hash finale per impostazione predefinita
- [SPARK-36970] [SQL] Formato di funzione disabilitato
B
date_format
manuale per rendere Java 17 compatibile con Java 8 - [SPARK-36546] [SQL] Aggiungere il supporto della matrice all'unione in base al nome
- [SPARK-36979] [SQL] Aggiungere la regola RewriteLateralSubquery in nonExcludableRules
- [SPARK-36949] [SQL] Non consentire tabelle del provider Hive con intervalli ANSI
- [SPARK-36849] [SQL] Eseguire la migrazione di UseStatement al framework dei comandi v2
- [SPARK-36868] [SQL] Eseguire la migrazione di CreateFunctionStatement al framework dei comandi v2
- [SPARK-36841] [SQL] Aggiungere una sintassi
set catalog xxx
ansi per modificare il catalogo corrente - [SPARK-36821] [SQL] Rendere la classe ColumnarBatch estendibile - addendum
- [SPARK-36963] [SQL] Aggiungere max_by/min_by a sql.functions
- [SPARK-36913] [SQL] Implementare createIndex e IndexExists in DS V2 JDBC (dialetto MySQL)
- [SPARK-36848] [SQL] Eseguire la migrazione di ShowCurrentNamespaceStatement al framework dei comandi v2
- [SPARK-36526] [SQL] Supporto dell'indice DSV2: Aggiunta dell'interfaccia supportsIndex
- [SPARK-36960] [SQL] Filtri pushdown con valori di intervallo ANSI in ORC
- [SPARK-36929] [SQL] Remove Unused Method EliminateSubqueryAliasesSuite#assertEquivalent
- [SPARK-36931] [SQL] Supportare la lettura e la scrittura di intervalli ANSI da/a origini dati ORC
- [SPARK-34980] [SQL] Supportare la partizione coalesce tramite unione in AQE
- [SPARK-36809] [SQL] Rimuovere la trasmissione per InSubqueryExec usata in DPP
- [SPARK-36813] [SQL] [PYTHON] Proporre un'infrastruttura di partecipazione e di imlementazione ps.merge_asof
- [SPARK-36918] [SQL] Ignorare i tipi durante il confronto degli struct per unionByName
- [SPARK-36891] [SQL] Eseguire il refactoring di SpecificParquetRecordReaderBase e aggiungere ulteriore copertura sulla decodifica Parquet vettorializzata
- [SPARK-36920] [SQL] Supportare gli intervalli ANSI per
ABS()
- [SPARK-36888] [SQL] Aggiungere test case per la funzione sha2
- [SPARK-36889] [SQL] Rispettare
spark.sql.parquet.filterPushdown
il generatore di analisi parquet v2 - [SPARK-36830] [SQL] Supportare la lettura e la scrittura di intervalli ANSI da/a origini dati JSON
- [SPARK-36870] [SQL] Introdurre INTERNAL_ERROR classe di errore
- [SPARK-36831] [SQL] Supportare la lettura e la scrittura di intervalli ANSI da/a origini dati CSV.
- [SPARK-36550] [SQL] Causa della propagazione quando la reflection UDF ha esito negativo
- [SPARK-36866] [SQL] Filtri push-down con valori di intervallo ANSI in parquet
- [SPARK-33832] [SQL] Forzare la semplificazione e il miglioramento del codice join asimmetria
- [SPARK-36642] [SQL] Aggiungere l'API pyspark df.withMetadata
- [SPARK-35765] [SQL] Gli agg distinti non sono sensibili duplicati
- [SPARK-36825] [SQL] Dataframe di lettura/scrittura con intervalli ANSI da/a file parquet
- [SPARK-36829] [SQL] Eseguire il refactoring del controllo NULL per collectionOperators
- [SPARK-32712] [SQL] Supporto per la scrittura di tabelle in bucket Hive (formati di file Hive con hash Hive)
- [SPARK-36797] [SQL] Union deve risolvere le colonne annidate come colonne di primo livello
- [SPARK-36838] [SQL] Migliorare le prestazioni del codice generato da InSet
- [SPARK-36683] [SQL] Aggiungere nuove funzioni SQL predefinite: SEC e CSC
- [SPARK-36721] [SQL] Semplificare le equalità booleane se un lato è letterale
- [SPARK-36760] [SQL] Aggiungere l'interfaccia SupportsPushDownV2Filters
- [SPARK-36652] [SQL] La selezione di join dinamico di AQE non deve essere applicata al join non equi
- [SPARK-36745] [SQL] ExtractEquiJoinKeys deve restituire i predicati originali nelle chiavi di join
- [SPARK-36107] [SQL] Effettuare il refactoring del primo set di 20 errori di esecuzione delle query per usare le classi di errore
- [SPARK-32709] [SQL] Supporto per la scrittura di tabella in bucket Hive (formato Parquet/ORC con hash Hive)
- [SPARK-36735] [SQL] Regolare il sovraccarico della relazione memorizzata nella cache per DPP
- [SPARK-33832] [SQL] Supportare un join asimmetrico ottimizzato anche se introduce un'ulteriore sequenza casuale
- [SPARK-36822] [SQL] BroadcastNestedLoopJoinExec deve usare tutte le condizioni anziché una condizione non equi
- [SPARK-35221] [SQL] Aggiungere il controllo degli hint di join supportati
- [SPARK-36814] [SQL] Rendere la classe ColumnarBatch estendibile
- [SPARK-36663] [SQL] Supportare i nomi delle colonne solo numeri nelle origini dati ORC
- [SPARK-36751] [SQL] [PYTHON] [R] Aggiungere API bit/octet_length a Scala, Python e R
- [SPARK-36733] [SQL] Correzione di un problema di prestazioni in SchemaPruning quando uno struct include molti campi
- [SPARK-36724] [SQL] Supporto timestamp_ntz come tipo di colonna temporale per SessionWindow
- [SPARK-36556] [SQL] Aggiungere filtri DSV2
- [SPARK-36687] [SQL] [CORE] Rinominare le classi di errore con _ERROR suffisso
- [SPARK-35803] [SQL] Supporto di DataSource V2 CreateTempViewUsing
- [SPARK-36642] [SQL] Aggiungere df.withMetadata: una sintassi di base per aggiornare i metadati di un dataframe
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 10.1.
Ambiente di sistema
- Sistema operativo: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.1
- Delta Lake: 1.0.0
Librerie Python installate
Libreria | Versione | Libreria | Versione | Libreria | Versione |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
async-generator | 1,10 | attrs | 20.3.0 | backcall | 0.2.0 |
bleach | 3.3.0 | boto3 | 1.16.7 | botocore | 1.19.7 |
certifi | 2020.12.5 | cffi | 1.14.5 | chardet | 4.0.0 |
cycler | 0.10.0 | Cython | 0.29.23 | dbus-python | 1.2.16 |
decorator | 5.0.6 | defusedxml | 0.7.1 | distlib | 0.3.3 |
informazioni sulla distribuzione | 0.23ubuntu1 | entrypoints | 0,3 | facet-overview | 1.0.0 |
filelock | 3.3.1 | idna | 2.10 | ipykernel | 5.3.4 |
ipython | 7.22.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.6.3 |
jedi | 0.17.2 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.1 | koalas | 1.8.2 | MarkupSafe | 2.0.1 |
matplotlib | 3.4.2 | mistune | 0.8.4 | nbclient | 0.5.3 |
nbconvert | 6.0.7 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
notebook | 6.3.0 | numpy | 1.19.2 | creazione del pacchetto | 20.9 |
pandas | 1.2.4 | pandocfilters | 1.4.3 | parso | 0.7.0 |
patsy | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 8.2.0 | pip | 21.0.1 | plotly | 5.3.0 |
prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 | protobuf | 3.17.2 |
psycopg2 | 2.8.5 | ptyprocess | 0.7.0 | pyarrow | 4.0.0 |
pycparser | 2,20 | Pygments | 2.8.1 | PyGObject | 3.36.0 |
pyparsing | 2.4.7 | pirsistente | 0.17.3 | python-apt | 2.0.0+ubuntu0.20.4.6 |
python-dateutil | 2.8.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
requests | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
scikit-learn | 0.24.1 | scipy | 1.6.2 | seaborn | 0.11.1 |
Send2Trash | 1.5.0 | setuptools | 52.0.0 | sei | 1.15.0 |
ssh-import-id | 5.10 | statsmodels | 0.12.2 | tenacity | 8.0.1 |
terminado | 0.9.4 | testpath | 0.4.4 | threadpoolctl | 2.1.0 |
tornado | 6.1 | traitlets | 5.0.5 | aggiornamenti automatici | 0,1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | wheel | 0.36.2 | widgetsnbextension | 3.5.1 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2021-10-26.
Libreria | Versione | Libreria | Versione | Libreria | Versione |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.2.1 |
base | 4.1.1 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.2 | boot | 1.3-28 |
brew | 1.0-6 | Brio | 1.1.2 | Scopa | 0.7.9 |
bslib | 0.3.1 | cachem | 1.0.6 | callr | 3.7.0 |
caret | 6.0-90 | cellranger | 1.1.0 | chron | 2.3-56 |
class | 7.3-19 | cli | 3.0.1 | clipr | 0.7.1 |
cluster | 2.1.2 | codetools | 0.2-18 | colorspace | 2.0-2 |
commonmark | 1,7 | compilatore | 4.1.1 | config | 0.3.1 |
cpp11 | 0.4.0 | crayon | 1.4.1 | credentials | 1.3.1 |
curl | 4.3.2 | data.table | 1.14.2 | datasets | 4.1.1 |
DBI | 1.1.1 | dbplyr | 2.1.1 | desc | 1.4.0 |
devtools | 2.4.2 | diffobj | 0.3.5 | digest | 0.6.28 |
dplyr | 1.0.7 | dtplyr | 1.1.0 | e1071 | 1.7-9 |
puntini di sospensione | 0.3.2 | evaluate | 0,14 | fansi | 0.5.0 |
farver | 2.1.0 | fastmap | 1.1.0 | fontawesome | 0.2.2 |
forcats | 0.5.1 | foreach | 1.5.1 | foreign | 0.8-81 |
forge | 0.2.0 | fs | 1.5.0 | future | 1.22.1 |
future.apply | 1.8.1 | gargarizzare | 1.2.0 | generics | 0.1.1 |
Gert | 1.4.1 | ggplot2 | 3.3.5 | Gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-2 | globals | 0.14.0 |
glue | 1.4.2 | googledrive | 2.0.0 | Googlesheets4 | 1.0.0 |
Gower | 0.2.2 | grafica | 4.1.1 | grDevices | 4.1.1 |
grid | 4.1.1 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.0 | haven | 2.4.3 | highr | 0.9 |
hms | 1.1.1 | htmltools | 0.5.2 | htmlwidgets | 1.5.4 |
httpuv | 1.6.3 | httr | 1.4.2 | hwriter | 1.3.2 |
hwriterPlus | 1.0-3 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-12 | isoband | 0.2.5 | Iteratori | 1.0.13 |
jquerylib | 0.1.4 | jsonlite | 1.7.2 | KernSmooth | 2.23-20 |
knitr | 1.36 | Etichettatura | 0.4.2 | later | 1.3.0 |
Lattice | 0.20-45 | Java | 1.6.10 | lifecycle | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.1 |
markdown | 1.1 | MASS | 7.3-54 | Matrice | 1.3-4 |
memoise | 2.0.0 | methods | 4.1.1 | mgcv | 1.8-38 |
mime | 0.12 | ModelMetrics | 1.2.2.2 | modelr | 0.1.8 |
munsell | 0.5.0 | nlme | 3.1-152 | nnet | 7.3-16 |
numDeriv | 2016.8-1.1 | openssl | 1.4.5 | parallel | 4.1.1 |
parallelly | 1.28.1 | Concetto fondamentale | 1.6.4 | pkgbuild | 1.2.0 |
pkgconfig | 2.0.3 | pkgload | 1.2.3 | plogr | 0.2.0 |
plyr | 1.8.6 | praise | 1.0.0 | prettyunits | 1.1.1 |
Proc | 1.18.0 | processx | 3.5.2 | prodlim | 2019.11.13 |
Avanzamento | 1.2.2 | progressr | 0.9.0 | promises | 1.2.0.1 |
proto | 1.0.0 | proxy | 0.4-26 | ps | 1.6.0 |
purrr | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
randomForest | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | readr | 2.0.2 |
readxl | 1.3.1 | ricette | 0.1.17 | rematch | 1.0.1 |
rematch2 | 2.1.2 | remotes | 2.4.1 | reprex | 2.0.1 |
reshape2 | 1.4.4 | rlang | 0.4.12 | rmarkdown | 2.11 |
RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1-15 |
rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
rstudioapi | 0,13 | rversions | 2.1.1 | rvest | 1.0.2 |
Sass | 0.4.0 | Scalabilità | 1.1.1 | selectr | 0.4-2 |
sessioninfo | 1.1.1 | Forma | 1.4.6 | shiny | 1.7.1 |
sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
spaziale | 7.3-11 | Spline | 4.1.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | stats | 4.1.1 | stats4 | 4.1.1 |
stringi | 1.7.5 | stringr | 1.4.0 | Sopravvivenza | 3.2-13 |
sys | 3.4 | tcltk | 4.1.1 | TeachingDemos | 2.10 |
testthat | 3.1.0 | tibble | 3.1.5 | tidyr | 1.1.4 |
tidyselect | 1.1.1 | tidyverse | 1.3.1 | timeDate | 3043.102 |
tinytex | 0.34 | tools | 4.1.1 | tzdb | 0.1.2 |
usethis | 2.1.2 | UTF8 | 1.2.2 | utils | 4.1.1 |
uuid | 0.1-4 | vctrs | 0.3.8 | viridisLite | 0.4.0 |
Vroom | 1.5.5 | waldo | 0.3.1 | whisker | 0,4 |
withr | 2.4.2 | xfun | 0.27 | xml2 | 1.3.2 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
zip | 2.2.0 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-glue | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-consultas | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.12.2 |
com.fasterxml.jackson.core | jackson-core | 2.12.2 |
com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
com.github.ben-manes.caffeina | caffeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.0-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.0 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocità | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 1.3.2 |
dev.sdk.netlib | blas | 1.3.2 |
dev.sdk.netlib | lapack | 1.3.2 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,19 |
io.delta | delta-sharing-spark_2.12 | 0.2.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.63.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collettore | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pirolite | 4.30 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato freccia | 2.0.0 |
org.apache.arrow | arrow-memory-core | 2.0.0 |
org.apache.arrow | arrow-memory-netty | 2.0.0 |
org.apache.arrow | freccia-vettore | 2.0.0 |
org.apache.avro | avro | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | avro-mapred | 1.10.2 |
org.apache.commons | commons-compress | 1,20 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1.6 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.htrace | htrace-core4 | Incubazione 4.1.0 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.6.10 |
org.apache.orc | orc-mapreduce | 1.6.10 |
org.apache.orc | orc-shim | 1.6.10 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
org.apache.parquet | codifica parquet | 1.12.0-databricks-0003 |
org.apache.parquet | strutture parquet-format-structures | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-continuation | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-http | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-plus | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-security | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-server | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlet | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlets | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-webapp | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-api | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-client | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-common | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-server | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | maglia-comune | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.2.19 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | Spessori | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | inutilizzato | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.threeten | treten-extra | 1.5.0 |
org.cortanaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |