Condividi tramite


Databricks Runtime 6.0 (EoS)

Nota

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.

Databricks ha rilasciato questa versione nell'ottobre 2019.

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 6.0, basate su Apache Spark.

Nuove funzionalità

Ambiente Python

Databricks Runtime 6.0 include importanti modifiche a Python e il modo in cui vengono configurati gli ambienti Python, tra cui l'aggiornamento di Python alla versione 3.7.3, la ridefinizione dell'elenco dei pacchetti Python installati e l'aggiornamento di tali pacchetti alle versioni più recenti. Per informazioni dettagliate, vedere Librerie Python installate.

Inoltre, come annunciato in precedenza, Databricks Runtime 6.0 non supporta Python 2.

Le modifiche principali includono:

  • Aggiornamento di Python dalla versione 3.5.2 alla versione 3.7.3. Alcune versioni precedenti dei pacchetti Python potrebbero non essere compatibili con Python 3.7 perché dipendono dalle versioni precedenti di Cython non compatibili con Python 3.7. L'installazione di un pacchetto di questo tipo può attivare errori simili a ‘PyThreadState’ {‘struct _ts’} has no member named ‘exc_type’ (per informazioni dettagliate, vedere il problema 1978 di GitHub). Installare invece versioni compatibili con Python 3.7 dei pacchetti Python.
  • Aggiornamenti principali dei pacchetti:
    • da boto3 a 1.9.162
    • da ipython a 7.4.0
    • da matplotlib a 3.0.3
    • Da numpy a 1.16.2
    • da pandas a 0.24.2
    • da pyarrow a 0.13.0
  • Rispetto a Databricks Runtime 5.5 LTS (EoS), i pacchetti Python seguenti sono appena inclusi: asn1crypto, backcall, jedi, kiwisolver, parso e PySocks.
  • Rispetto a Databricks Runtime 5.5 LTS (EoS), i pacchetti Python seguenti non sono installati: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, niba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson e singledispatch.
  • La display funzione negli oggetti ggplot Python non è più supportata perché il pacchetto ggplot non è compatibile con la versione più recente di pandas.
  • L'impostazione su PYSPARK_PYTHON/databricks/python2/bin/python non è supportata perché Databricks Runtime 6.0 non supporta Python 2. Un cluster con tale impostazione può comunque essere avviato. Tuttavia, i notebook Python e i comandi Python non funzioneranno, ovvero le celle dei comandi Python avranno esito negativo con un errore "Annullato" e nei log del driver verrà visualizzato un Python shell failed to start errore.
  • Se PYSPARK_PYTHON punta a un eseguibile Python che si trova in un ambiente gestito da Virtualenv , questo ambiente verrà attivato per gli script e i notebook init. È possibile usare python i comandi e pip definiti direttamente nell'ambiente attivato senza dover specificare le posizioni assolute di questi comandi. per impostazione predefinita, la proprietà PYSPARK_PYTHON è impostata su /databricks/python3/bin/python. Di conseguenza, per impostazione predefinita, python punta a /databricks/python3/bin/python e pip punta a /databricks/python3/bin/pip per gli script e i notebook init. Se punta PYSPARK_PYTHON a un eseguibile Python che non si trova in un ambiente gestito da Virtualenv o se si scrive uno script init per creare Python specificato da PYSPARK_PYTHON, sarà necessario usare percorsi assoluti per accedere al corretto python e pip. Quando l'isolamento della libreria Python è abilitato (è abilitato per impostazione predefinita), l'ambiente attivato è ancora l'ambiente PYSPARK_PYTHON associato. È consigliabile usare l'utilità libreria (dbutils.library) (legacy) per modificare l'ambiente isolato associato a un notebook Python.

API Scala e Java per i comandi DML di Delta Lake

È ora possibile modificare i dati nelle tabelle Delta usando le API a livello di codice per l'eliminazione, l'aggiornamento e l'unione. Queste API rispecchiano la sintassi e la semantica dei comandi SQL corrispondenti e sono ideali per molti carichi di lavoro, ad esempio le operazioni a modifica lenta delle dimensioni (SCD), l'unione dei dati delle modifiche per la replica e l'upsert dalle query di streaming.

Per informazioni dettagliate, vedere Che cos'è Delta Lake?.

API Scala e Java per i comandi dell'utilità Delta Lake

Databricks Runtime include ora API a livello di codice per i vacuum comandi di utilità e history . Queste API rispecchiano la sintassi e la semantica dei comandi SQL corrispondenti disponibili nelle versioni precedenti di Databricks Runtime.

È possibile pulire i file a cui non fa più riferimento una tabella Delta e che sono più vecchi della soglia di conservazione eseguendo vacuum nella tabella. L'esecuzione del vacuum comando nella tabella esegue in modo ricorsivo il vuoto delle directory associate alla tabella Delta. La soglia di conservazione predefinita per i file è di 7 giorni. La possibilità di tornare a una versione precedente a quella del periodo di conservazione viene persa dopo l'esecuzione vacuumdi . vacuum non viene attivato automaticamente.

È possibile recuperare informazioni sulle operazioni, l'utente, il timestamp e così via per ogni scrittura in una tabella Delta eseguendo il history comando . Le operazioni vengono restituite in ordine cronologico inverso. Per impostazione predefinita, la cronologia delle tabelle viene mantenuta per 30 giorni.

Per informazioni dettagliate, vedere Che cos'è Delta Lake?.

Memorizzazione nella cache del disco disponibile per le istanze di Azure Lsv2

la memorizzazione nella cache del disco è ora abilitata per impostazione predefinita per tutte le istanze Lsv2.

Archiviazione ottimizzata con le API dei file locali

Le API dei file locali sono utili perché consentono di accedere ai file dall'archiviazione oggetti distribuita sottostante come file locali. In Databricks Runtime 6.0 è stato migliorato il montaggio FUSE che consente alle API di file locali di risolvere le limitazioni delle chiavi. Databricks Runtime 6.0 migliora significativamente la velocità di lettura e scrittura e supporta i file di dimensioni superiori a 2 GB. Se sono necessarie letture e scritture più veloci e affidabili, ad esempio per il training dei modelli distribuiti, questo miglioramento risulta particolarmente utile. Inoltre, non sarebbe necessario caricare i dati in un archivio locale per i carichi di lavoro, risparmiando costi e migliorando la produttività.

Per informazioni dettagliate, vedere Che cos'è DBFS?.

Più tracciati matplotlib per cella del notebook

È ora possibile visualizzare più tracciati matplotlib per cella del notebook:

Più tracciati matplotlib nella cella

Credenziali del servizio per più account Azure Data Lake Storage Gen1

È ora possibile configurare le credenziali del servizio per più accessi ad Azure Data Lake Storage Gen1 da account Azure Databricks da usare in una singola sessione di Apache Spark. A tale scopo, aggiungere account.<account-name> alle chiavi di configurazione. Ad esempio, se si vogliono configurare le credenziali per gli account per l'accesso sia adl://example1.azuredatalakestore.net a e adl://example2.azuredatalakestore.net, è possibile eseguire questa operazione come indicato di seguito:

spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")

spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")

spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")

Miglioramenti

  • Aggiornamento di AWS SDK alla versione 1.11.596.
  • Aggiornamento di Archiviazione di Azure SDK nel driver WASB alla versione 7.0.
  • OPTIMIZE fornisce ora un riepilogo delle metriche, ad esempio il numero di file aggiunti, il numero di file rimossi e le dimensioni massime e minime del file. Vedere Ottimizzare il layout del file di dati.

Rimozione

L’esportazione del modello di ML Databricks è stata eliminata. Usare MLeap per importare ed esportare modelli.

Apache Spark

Nota

Questo articolo contiene riferimenti al termine slave, che Azure Databricks non usa. Quando il termine verrà rimosso dal software, verrà rimosso anche dall'articolo.

Databricks Runtime 6.0 include Apache Spark 2.4.3. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 5.5 LTS (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-27992][SPARK-28881][PYTHON] Consentire a Python di eseguire il join con il thread di connessione per propagare gli errori
  • [SPARK-27330][SS]Supporto dell'interruzione delle attività in foreach writer (6.0, 5.x)
  • [SPARK-28642][SQL] Nascondere le credenziali in SHOW CREATE TABLE
  • [SPARK-28699][MEMORIA CENTRALE] Correzione di un caso di angolo per l'interruzione della fase indeterminata
  • [SPARK-28647][WEBUI] Recuperare funzionalità aggiuntive per le metriche
  • [SPARK-28766][R][DOC] Correzione dell'avviso di fattibilità in ingresso CRAN sull'URL non valido
  • [SPARK-28486][CORE][PYTHON] Eseguire il mapping del file di dati di PythonBroadcast a un oggetto BroadcastBlock per evitare l'eliminazione da parte di GC
  • [SPARK-25035][CORE] Evitare il mapping della memoria nella replica dei blocchi archiviati su disco
  • [SPARK-27234][SS][PYTHON] Usare InheritableThreadLocal per l'epoca corrente in EpochTracker (per supportare le funzioni definite dall'utente Python)
  • [SPARK-28638][WEBUI] Il riepilogo delle attività deve contenere solo le metriche delle attività riuscite
  • [SPARK-28153][PYTHON] Usare AtomicReference in InputFileBlockHolder (per supportare input_file_name con la funzione definita dall'utente python)
  • [SPARK-28564][CORE] Per impostazione predefinita, l'applicazione di cronologia di accesso è l'ultimo ID tentativo
  • [SPARK-28260] Il cluster può terminare automaticamente mentre la query thriftserver sta ancora recuperando i risultati
  • [SPARK-26152][CORE] Sincronizzare la pulizia del ruolo di lavoro con l'arresto del ruolo di lavoro
  • [SPARK-28545][SQL] Aggiungere le dimensioni della mappa hash al log direzionale di ObjectAggregationIterator
  • [SPARK-28489][SS] Correzione di un bug che KafkaOffsetRangeCalculator.getRanges può eliminare gli offset
  • [SPARK-28421][ML] SparseVector.apply performance optimization
  • [SPARK-28156][SQL] La visualizzazione self-join non deve perdere la visualizzazione memorizzata nella cache
  • [SPARK-28152][SQL] Mapping di ShortType a SMALLINT e FloatType a REAL per MsSqlServerDialect
  • [SPARK-28054][SQL] Correzione dell'errore durante l'inserimento di una tabella partizionata Hive in modo dinamico in cui il nome della partizione è maiuscolo
  • [SPARK-27159][SQL] Aggiornare il dialetto del server mssql per supportare il tipo binario
  • [SPARK-28355][CORE][PYTHON] Usare spark conf per la soglia in corrispondenza della quale com...
  • [SPARK-27989][CORE] Aggiunta di nuovi tentativi per la connessione al driver per k8s
  • [SPARK-27416][SQL] Serializzazione UnsafeMapData & UnsafeArrayData Kryo ...
  • [SPARK-28430][interfaccia utente] Correzione del rendering della tabella di fase quando mancano alcune metriche delle attività
  • [SPARK-27485] EnsureRequirements.reorder deve gestire le espressioni duplicate normalmente
  • [SPARK-28404][SS] Correzione del valore di timeout negativo in RateStreamContinuousPartitionReader
  • [SPARK-28378][PYTHON] Rimuovere l'utilizzo di cgi.escape
  • [SPARK-28371][SQL] Rendere il filtro Parquet "StartsWith" sicuro per i valori Null
  • [SPARK-28015][SQL] Check stringToDate() utilizza l'intero input per i formati aaaa e aaaa-[m]m
  • [SPARK-28302][CORE] Assicurarsi di generare un file di output univoco per SparkLauncher in Windows
  • [SPARK-28308][MEMORIA CENTRALE] La parte secondaria calendarInterval deve essere riempita prima dell'analisi
  • [SPARK-28170][ML][PYTHON] Documentazione su vettori uniformi e matrice
  • [SPARK-28160][CORE] Correzione di un bug che la funzione di callback potrebbe bloccarsi quando l'eccezione non selezionata non è stata rilevata
  • [SPARK-27839][SQL] Modificare UTF8String.replace() per operare su byte UTF8
  • [SPARK-28157][CORE] Rendi SHS chiaro KVStore LogInfo per le voci elencate in nero
  • [SPARK-28128][PYTHON][SQL] Le funzioni definite dall'utente raggruppate pandas ignorano le partizioni vuote
  • [SPARK-28012][SQL] La funzione definita dall'utente Hive supporta l'espressione piegabile del tipo di struct
  • [SPARK-28164] Correzione della descrizione dell'utilizzo di start-slave.sh
  • [SPARK-27100][SQL] Usare array invece di Seq in FilePartition per impedire StackOverflowError
  • [SPARK-28154][ML] Correzione GMM doppia memorizzazione nella cache

Aggiornamenti di manutenzione

Vedere Aggiornamenti della manutenzione di Databricks Runtime 6.0.

Ambiente di sistema

  • Sistema operativo: Ubuntu 16.04.6 LTS
  • Java: 1.8.0_232
  • Scala: 2.11.12
  • Python: 3.7.3
  • R: R versione 3.6.1 (2019-07-05)
  • Delta Lake: 0.3.0

Nota

Sebbene Scala 2.12 sia disponibile come funzionalità sperimentale in Apache Spark 2.4, non è supportata in Databricks Runtime 6.0.

Librerie Python installate

Library Versione Library Versione Library Versione
asn1crypto 0.24.0 backcall 0.1.0 boto 2.49.0
boto3 1.9.162 botocore 1.12.163 certifi 2019.3.9
cffi 1.12.2 chardet 3.0.4 cryptography 2.6.1
cycler 0.10.0 Cython 0.29.6 decorator 4.4.0
docutils 0.14 idna 2.8 ipython 7.4.0
ipython-genutils 0.2.0 jedi 0.13.3 jmespath 0.9.4
kiwisolver 1.1.0 matplotlib 3.0.3 numpy 1.16.2
pandas 0.24.2 parso 0.3.4 patsy 0.5.1
pexpect 4.6.0 pickleshare 0.7.5 pip 19.0.3
prompt-toolkit 2.0.9 Psycopg2 2.7.6.1 ptyprocess 0.6.0
pyarrow 0.13.0 pycparser 2.19 pycurl 7.43.0
Pygments 2.3.1 pygobject 3.20.0 pyOpenSSL 19.0.0
pyparsing 2.4.2 PySocks 1.6.8 API Python 1.1.0.b1+ubuntu0.16.04.5
python-dateutil 2.8.0 pytz 2018.9 requests 2.21.0
s3transfer 0.2.1 scikit-learn 0.20.3 scipy 1.2.1
seaborn 0.9.0 setuptools 40.8.0 six 1.12.0
ssh-import-id 5.5 statsmodels 0.9.0 traitlets 4.3.2
aggiornamenti automatici 0.1 urllib3 1.24.1 virtualenv 16.4.1
wcwidth 0.1.7 wheel 0.33.1

Librerie R installate

Library Versione Library Versione Library Versione
abind 1.4-5 askpass 1.1 assertthat 0.2.1
backports 1.1.3 base 3.6.1 base64enc 0.1-3
BH 1.69.0-1 bit 1.1-14 bit64 0.9-7
bitops 1.0-6 blob 1.1.1 boot 1.3-23
brew 1.0-6 callr 3.2.0 car 3.0-2
carData 3.0-2 caret 6.0-82 cellranger 1.1.0
chron 2.3-53 class 7.3-15 cli 1.1.0
clipr 0.5.0 clisymbols 1.2.0 cluster 2.1.0
codetools 0.2-16 colorspace 1.4-1 commonmark 1.7
compilatore 3.6.1 config 0.3 crayon 1.3.4
curl 3.3 data.table 1.12.0 datasets 3.6.1
DBI 1.0.0 dbplyr 1.3.0 desc 1.2.0
devtools 2.0.1 digest 0.6.18 doMC 1.3.5
dplyr 0.8.0.1 puntini di sospensione 0.1.0 fansi 0.4.0
forcats 0.4.0 foreach 1.4.4 foreign 0.8-72
forge 0.2.0 fs 1.2.7 gbm 2.1.5
generics 0.0.2 ggplot2 3.1.0 gh 1.0.1
git2r 0.25.2 glmnet 2.0-16 glue 1.3.1
Gower 0.2.0 grafica 3.6.1 grDevices 3.6.1
grid 3.6.1 gridExtra 2.3 gsubfn 0,7
gtable 0.3.0 h2o 3.22.1.1 haven 2.1.0
hms 0.4.2 htmltools 0.3.6 htmlwidgets 1.3
httr 1.4.0 hwriter 1.3.2 hwriterPlus 1.0-3
ini 0.3.1 ipred 0.9-8 Iteratori 1.0.10
jsonlite 1.6 KernSmooth 2.23-15 Etichettatura 0.3
Lattice 0.20-38 Java 1.6.5 lazyeval 0.2.2
Littler 0.3.7 lme4 1.1-21 lubridate 1.7.4
magrittr 1,5 mapproj 1.2.6 mappe 3.3.0
maptools 0.9-5 MASS 7.3-51.4 Matrice 1.2-17
MatrixModels 0.4-1 memoise 1.1.0 methods 3.6.1
mgcv 1.8-28 mime 0,6 minqa 1.2.4
ModelMetrics 1.2.2 munsell 0.5.0 mvtnorm 1.0-10
nlme 3.1-141 nloptr 1.2.1 nnet 7.3-12
numDeriv 2016.8-1 openssl 1.3 openxlsx 4.1.0
parallel 3.6.1 pbkrtest 0.4-7 Concetto fondamentale 1.3.1
pkgbuild 1.0.3 pkgconfig 2.0.2 pkgKitten 0.1.4
pkgload 1.0.2 plogr 0.2.0 plyr 1.8.4
praise 1.0.0 prettyunits 1.0.2 Proc 1.14.0
processx 3.3.0 prodlim 2018.04.18 Avanzamento 1.2.0
proto 1.0.0 ps 1.3.0 purrr 0.3.2
quantreg 5.38 R.methodsS3 1.7.1 R.oo 1.22.0
R.utils 2.8.0 r2d3 0.2.3 R6 2.4.0
randomForest 4.6-14 rappdirs 0.3.1 rcmdcheck 1.3.2
RColorBrewer 1.1-2 Rcpp 1.0.1 RcppEigen 0.3.3.5.0
RcppRoll 0.3.0 RCurl 1.95-4.12 readr 1.3.1
readxl 1.3.1 ricette 0.1.5 rematch 1.0.1
remotes 2.0.2 reshape2 1.4.3 Rio de Janeiro 0.5.16
rlang 0.3.3 RODBC 1.3-15 roxygen2 6.1.1
rpart 4.1-15 rprojroot 1.3-2 Rserve 1.8-6
RSQLite 2.1.1 rstudioapi 0,10 Scalabilità 1.0.0
sessioninfo 1.1.1 sp 1.3-1 sparklyr 1.0.0
SparkR 2.4.4 SparseM 1.77 spaziale 7.3-11
Spline 3.6.1 sqldf 0.4-11 SQUAREM 2017.10-1
statmod 1.4.30 stats 3.6.1 stats4 3.6.1
stringi 1.4.3 stringr 1.4.0 Sopravvivenza 2.44-1.1
sys 3.1 tcltk 3.6.1 TeachingDemos 2.10
testthat 2.0.1 tibble 2.1.1 tidyr 0.8.3
tidyselect 0.2.5 timeDate 3043.102 tools 3.6.1
usethis 1.4.0 utf8 1.1.4 utils 3.6.1
viridisLite 0.3.0 whisker 0.3-2 withr 2.1.2
xml2 1.2.0 xopen 1.0.0 yaml 2.2.0
zip 2.0.1

Librerie Java e Scala installate (versione del cluster Scala 2.11)

ID gruppo ID artefatto Versione
antlr antlr 2.7.7
com.amazonaws amazon-distribuisci-client 1.8.10
com.amazonaws aws-java-sdk-autoscaling 1.11.595
com.amazonaws aws-java-sdk-cloudformation 1.11.595
com.amazonaws aws-java-sdk-cloudfront 1.11.595
com.amazonaws aws-java-sdk-cloudhsm 1.11.595
com.amazonaws aws-java-sdk-cloudsearch 1.11.595
com.amazonaws aws-java-sdk-cloudtrail 1.11.595
com.amazonaws aws-java-sdk-cloudwatch 1.11.595
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.595
com.amazonaws aws-java-sdk-codedeploy 1.11.595
com.amazonaws aws-java-sdk-cognitoidentity 1.11.595
com.amazonaws aws-java-sdk-cognitosync 1.11.595
com.amazonaws aws-java-sdk-config 1.11.595
com.amazonaws aws-java-sdk-core 1.11.595
com.amazonaws aws-java-sdk-datapipeline 1.11.595
com.amazonaws aws-java-sdk-directconnect 1.11.595
com.amazonaws aws-java-sdk-directory 1.11.595
com.amazonaws aws-java-sdk-dynamodb 1.11.595
com.amazonaws aws-java-sdk-ec2 1.11.595
com.amazonaws aws-java-sdk-ecs 1.11.595
com.amazonaws aws-java-sdk-efs 1.11.595
com.amazonaws aws-java-sdk-elasticache 1.11.595
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.595
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.595
com.amazonaws aws-java-sdk-elastictranscoder 1.11.595
com.amazonaws aws-java-sdk-emr 1.11.595
com.amazonaws aws-java-sdk-glacier 1.11.595
com.amazonaws aws-java-sdk-glue 1.11.595
com.amazonaws aws-java-sdk-iam 1.11.595
com.amazonaws aws-java-sdk-importexport 1.11.595
com.amazonaws aws-java-sdk-consultas 1.11.595
com.amazonaws aws-java-sdk-kms 1.11.595
com.amazonaws aws-java-sdk-lambda 1.11.595
com.amazonaws aws-java-sdk-logs 1.11.595
com.amazonaws aws-java-sdk-machinelearning 1.11.595
com.amazonaws aws-java-sdk-opsworks 1.11.595
com.amazonaws aws-java-sdk-rds 1.11.595
com.amazonaws aws-java-sdk-redshift 1.11.595
com.amazonaws aws-java-sdk-route53 1.11.595
com.amazonaws aws-java-sdk-s3 1.11.595
com.amazonaws aws-java-sdk-ses 1.11.595
com.amazonaws aws-java-sdk-simpledb 1.11.595
com.amazonaws aws-java-sdk-simpleworkflow 1.11.595
com.amazonaws aws-java-sdk-sns 1.11.595
com.amazonaws aws-java-sdk-sqs 1.11.595
com.amazonaws aws-java-sdk-ssm 1.11.595
com.amazonaws aws-java-sdk-storagegateway 1.11.595
com.amazonaws aws-java-sdk-sts 1.11.595
com.amazonaws aws-java-sdk-support 1.11.595
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.595
com.amazonaws jmespath-java 1.11.595
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics stream 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.5.0-db8-spark2.4
com.databricks dbml-local_2.11-tests 0.5.0-db8-spark2.4
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.mdfsoftware kryo-shaded 4.0.2
com.mdfsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.0.0
com.fasterxml.jackson.core annotazioni jackson 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava guaiava 15.0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.microsoft.azure azure-data-lake-store-sdk 2.2.8
com.microsoft.azure azure-storage 7.0.0
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0.3
com.twitter chill-java 0.9.3
com.twitter chill_2.11 0.9.3
com.twitter parquet-hadoop-bundle 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocità univocità-parser 2.7.3
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.3
commons-cli commons-cli 1.2
commons-codec commons-codec 1.10
commons-collections commons-collections 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift aircompressor 0,10
io.dropwizard.metrics metrics-core 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics metrics-healthchecks 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metrics-json 3.1.5
io.dropwizard.metrics metrics-jvm 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics metrics-servlets 3.1.5
io.netty Netty 3.9.9.Final
io.netty netty-all 4.1.17.Final
javax.activation activation 1.1.1
javax.annotation javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.9.3
junit junit 4.12
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.idromatico eigenbase-properties 1.1.5
net.razorvine pirolite 4.13
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.5
net.snowflake snowflake-jdbc 3.6.15
net.snowflake spark-snowflake_2.11 2.4.10-spark_2.4
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4.7
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formato freccia 0.10.0
org.apache.arrow freccia-memoria 0.10.0
org.apache.arrow freccia-vettore 0.10.0
org.apache.avro avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcite-avatica Incubazione 1.2.0
org.apache.calcite calcite-core Incubazione 1.2.0
org.apache.calcite calcite-linq4j Incubazione 1.2.0
org.apache.commons commons-compress 1.8.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3.5
org.apache.commons commons-math3 3.4.1
org.apache.curator curatore-cliente 2.7.1
org.apache.curator curatore-framework 2.7.1
org.apache.curator ricette curatori 2.7.1
org.apache.derby derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop hadoop-annotations 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop hadoop-client 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop hadoop-hdfs 2.7.3
org.apache.hadoop hadoop-mapreduce-client-app 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common 2.7.3
org.apache.htrace htrace-core Incubazione 3.1.0
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents httpcore 4.4.10
org.apache.ivy ivy 2.4.0
org.apache.orc orc-core-nohive 1.5.5
org.apache.orc orc-mapreduce-nohive 1.5.5
org.apache.orc orc-shim 1.5.5
org.apache.parquet parquet-column 1.10.1.2-databricks3
org.apache.parquet parquet-common 1.10.1.2-databricks3
org.apache.parquet codifica parquet 1.10.1.2-databricks3
org.apache.parquet formato parquet 2.4.0
org.apache.parquet parquet-hadoop 1.10.1.2-databricks3
org.apache.parquet parquet-jackson 1.10.1.2-databricks3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-shaded 4.8
org.apache.zookeeper zookeeper 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-compiler 3.0.10
org.codehaus.janino janino 3.0.10
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.27.v20190418
org.eclipse.jetty jetty-continuation 9.3.27.v20190418
org.eclipse.jetty jetty-http 9.3.27.v20190418
org.eclipse.jetty jetty-io 9.3.27.v20190418
org.eclipse.jetty jetty-jndi 9.3.27.v20190418
org.eclipse.jetty jetty-plus 9.3.27.v20190418
org.eclipse.jetty jetty-proxy 9.3.27.v20190418
org.eclipse.jetty jetty-security 9.3.27.v20190418
org.eclipse.jetty jetty-server 9.3.27.v20190418
org.eclipse.jetty jetty-servlet 9.3.27.v20190418
org.eclipse.jetty jetty-servlets 9.3.27.v20190418
org.eclipse.jetty jetty-util 9.3.27.v20190418
org.eclipse.jetty jetty-webapp 9.3.27.v20190418
org.eclipse.jetty jetty-xml 9.3.27.v20190418
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 hk2-locator 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 osgi-resource-locator 1.0.1
org.glassfish.hk2.external aopalliance-repackaged 2.4.0-b34
org.glassfish.hk2.external javax.inject 2.4.0-b34
org.glassfish.jersey.bundles.repackaged maglia-guava 2.22.2
org.glassfish.jersey.containers jersey-container-servlet 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core maglia-comune 2.22.2
org.glassfish.jersey.core jersey-server 2.22.2
org.glassfish.jersey.media jersey-media-jaxb 2.22.2
org.hamcrest hamcrest-core 1.3
org.hamcrest hamcrest-library 1.3
org.hibernate hibernate-validator 5.1.1.Final
org.iq80.snappy snappy 0.2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.5.3
org.json4s json4s-core_2.11 3.5.3
org.json4s json4s-jackson_2.11 3.5.3
org.json4s json4s-scalap_2.11 3.5.3
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc mariadb-java-client 2.1.2
org.mockito mockito-core 1.10.19
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.7.45
org.roaringbitmap Spessori 0.7.45
org.rocksdb rocksdbjni 6.2.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.12
org.scala-lang scala-library_2.11 2.11.12
org.scala-lang scala-reflect_2.11 2.11.12
org.scala-lang.modules scala-parser-combinators_2.11 1.1.0
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive hive-metastore 1.2.1.spark2
org.spark-project.spark inutilizzato 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core 4.1.4.RELEASE
org.springframework spring-test 4.1.4.RELEASE
org.cortanaani xz 1,5
org.typelevel machinist_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.7.3
org.yaml snakeyaml 1,16
oro oro 2.0.8
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1
xmlenc xmlenc 0,52