Databricks Runtime 6.0 (EoS)
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Databricks a publié cette version en octobre 2019.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 6.0 avec Apache Spark.
Nouvelles fonctionnalités
Environnement Python
Databricks Runtime 6.0 inclut des modifications majeures apportées à Python et à la façon dont les environnements Python sont configurés, notamment la mise à niveau de Python vers 3.7.3, l’affinage de la liste des packages Python installés et la mise à niveau de ces packages installés vers des versions plus récentes. Pour plus d’informations, consultez Bibliothèques Python installées.
En outre, comme annoncé précédemment, Databricks Runtime 6.0 ne prend pas en charge Python 2.
Les changements clé sont notamment :
- Mise à niveau de Python de 3.5.2 vers 3.7.3. Certaines anciennes versions des packages Python peuvent ne pas être compatibles avec Python 3.7 parce qu’elles dépendent d’anciennes versions de Cython qui ne sont pas compatibles avec Python 3.7. L’installation d’un tel package peut déclencher des erreurs similaires à
‘PyThreadState’ {‘struct _ts’} has no member named ‘exc_type’
(voir le problème GitHub 1978 pour plus d’informations). Installez les versions compatibles Python 3.7 des packages Python à la place. - Principales mises à niveau des packages :
- boto3 vers 1.9.162
- ipython vers 7.4.0
- matplotlib vers 3.0.3
- numpy vers 1.16.2
- pandas vers 0.24.2
- pyarrow vers 0.13.0
- Par rapport à Databricks Runtime 5.5 LTS (EoS), les packages Python suivants sont inclus depuis peu : asn1crypto, backcall, jedi, kiwisolver, parso et PySocks.
- Par rapport à Databricks Runtime 5.5 LTS (EoS), les packages Python suivants ne sont pas installés : ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson et singledispatch.
- La fonction
display
sur les objets ggplot Python n’est plus prise en charge, car le package ggplot n’est pas compatible avec la version plus récente de pandas. - Définir
PYSPARK_PYTHON
sur la valeur/databricks/python2/bin/python
n’est pas pris en charge, car Databricks Runtime 6.0 ne prend pas en charge Python 2. Un cluster avec ce paramètre peut toujours démarrer. Toutefois, les notebooks Python et les commandes Python ne fonctionneront pas. En fait, les cellules de commande Python échouent avec une erreur « Annulé » et une erreurPython shell failed to start
s’affiche dans les journaux du pilote. - Si
PYSPARK_PYTHON
pointe vers un exécutable Python qui se trouve dans un environnement géré par Virtualenv, cet environnement est activé pour les scripts init et les notebooks. Vous pouvez utiliser les commandespython
etpip
qui sont définies dans l’environnement activé directement sans avoir à spécifier les emplacements absolus de ces commandes. Par défaut,PYSPARK_PYTHON
est défini sur/databricks/python3/bin/python
. Par conséquent, par défaut,python
pointe vers/databricks/python3/bin/python
etpip
pointe vers/databricks/python3/bin/pip
pour les notebooks et les scripts init. Si votrePYSPARK_PYTHON
pointe vers un exécutable Python qui ne se trouve pas dans un environnement géré par Virtualenv ou si vous écrivez un script init pour créer le Python spécifié parPYSPARK_PYTHON
, vous devrez utiliser des chemins d’accès absolus pour accéder auxpython
etpip
corrects. Lorsque l’isolation de la bibliothèque Python est activée (ce qui est le cas par défaut), l’environnement activé est toujours l’environnement avec lequelPYSPARK_PYTHON
est associé. Nous vous recommandons d’utiliser l’utilitaire de bibliothèque (dbutils.library) pour modifier l’environnement isolé associé à un notebook Python.
API Scala et Java pour les commandes DML Delta Lake
Vous pouvez maintenant modifier des données dans des tables delta à l’aide d’API de programmation pour la suppression, la mise à jour et la fusion. Ces API reflètent la syntaxe et la sémantique de leurs commandes SQL correspondantes et sont idéales pour de nombreuses charges de travail, par exemple, les opérations de dimensions lentement variables, la fusion des données de modification pour la réplication et les upserts à partir de requêtes de streaming.
Pour plus d’informations, consultez Qu’est-ce que Delta Lake ?.
API Scala et Java pour les commandes d’utilitaire Delta Lake
Databricks Runtime possède désormais des API de programmation pour les commandes d’utilitaire vacuum
et history
. Ces api reflètent la syntaxe et la sémantique de leurs commandes SQL correspondantes disponibles dans les versions antérieures de Databricks Runtime.
Vous pouvez nettoyer les fichiers qui ne sont plus référencés par une table Delta et qui sont antérieurs au seuil de conservation des données en exécutant vacuum
sur la table. L’exécution de la commande vacuum
sur la table vide de manière récursive les répertoires associés à la table Delta. Le seuil de conservation des données par défaut pour les fichiers s’élève à 7 jours. Toute possibilité de revenir à une version antérieure à la période de conservation est perdue après l’exécution de la commande vacuum
. vacuum
n’est pas déclenché automatiquement.
Vous pouvez récupérer des informations sur les opérations, l’utilisateur,le timestamp, etc. pour chaque écriture dans une table Delta en exécutant la commande history
. Les opérations sont retournées dans l’ordre chronologique inverse. Par défaut, l’historique de la table est conservé pendant 30 jours.
Pour plus d’informations, consultez Qu’est-ce que Delta Lake ?.
Mise en cache de disque disponible pour les instances Azure Lsv2
la mise en cache de disque est désormais activée par défaut pour toutes les instances Lsv2.
Stockage optimisé à l’aide des API de fichier local
Les API de fichier local sont utiles car elles vous permettent d’accéder à des fichiers à partir du stockage d’objets distribués sous-jacent en tant que fichiers locaux. Dans Databricks Runtime 6.0, nous avons amélioré le montage FUSE qui permet aux API de fichier local d’adresser des limitations de clé. Databricks Runtime 6.0 améliore considérablement la vitesse de lecture et d’écriture et prend en charge les fichiers dont la taille est supérieure à 2 Go. Si vous avez besoin de lectures et d’écritures plus rapides et plus fiables, telles que pour l’apprentissage de modèle distribué, cette amélioration est particulièrement utile. En outre, il n’est pas nécessaire de charger des données dans un stockage local pour vos charges de travail, ce qui permet d’économiser les coûts et d’améliorer la productivité.
Pour obtenir des informations, consultez Qu’est-ce que DBFS ?.
Plusieurs tracés matplotlib par cellule de notebook
Vous pouvez maintenant afficher plusieurs tracés matplotlib par cellule de notebook :
Informations d’identification de service pour plusieurs comptes Azure Data Lake Storage Gen1
Vous pouvez maintenant configurer des informations d’identification de service pour plusieurs comptes d’Accès au stockage Azure Data Lake Storage Gen1 à partir d’Azure Databricks en vue de leur utilisation dans une même session Apache Spark. Pour ce faire, ajoutez account.<account-name>
aux clés de configuration. Par exemple, si vous souhaitez configurer des informations d’identification qui permettent aux deux comptes d’accéder à adl://example1.azuredatalakestore.net
et adl://example2.azuredatalakestore.net
, ajoutez ce code :
spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")
spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")
spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")
Améliorations
- Mise à niveau du Kit de développement logiciel AWS vers la version 1.11.596.
- Mise à niveau du Kit de développement logiciel (SDK) Stockage Azure dans le pilote WASB vers la version 7.0.
OPTIMIZE
fournit maintenant un résumé des métriques telles que le nombre de fichiers ajoutés, le nombre de fichiers supprimés et la taille de fichier maximale et minimale. Consultez Optimiser la disposition des fichiers de données.
Suppression
L’exportation du modèle ML Databricks a été supprimée. Utilisez MLeap pour importer et exporter des modèles à la place.
Apache Spark
Remarque
Cet article contient des références au terme esclave, un terme qu’Azure Databricks n’utilise pas. Lorsque le terme sera supprimé du logiciel, nous le supprimerons de cet article.
Databricks Runtime 6.0 comprend Apache Spark 2.4.3. Cette version inclut tous les correctifs et améliorations de Spark inclus dans Databricks Runtime 5.5 LTS (EoS), ainsi que les correctifs et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-27992][SPARK-28881][PYTHON] Autorisation de Python à se joindre avec un thread de connexion pour propager des erreurs
- [SPARK-27330][SS] Prend en charge l’abandon de tâche dans l’enregistreur foreach (6.0, 5.x)
- [SPARK-28642][SQL] Masque les informations d’identification dans SHOW CREATE TABLE
- [SPARK-28699][CORE] Correction d’un cas particulier pour l’abandon d’une étape indéterminée
- [SPARK-28647][WEBUI] Fonctionnalité de récupération de métriques supplémentaires
- [SPARK-28766][R][DOC] Correction de l’avertissement de faisabilité entrante CRAN sur une URL non valide
- [SPARK-28486][CORE][PYTHON] Mappage du fichier de données PythonBroadcast vers un BroadcastBlock pour éviter la suppression par GC
- [SPARK-25035][CORE] Éviter le mappage de mémoire au niveau de la réplication des blocs stockés sur le disque
- [SPARK-27234][SS][PYTHON] Utiliser InheritableThreadLocal pour l’époque actuelle dans EpochTracker (pour prendre en charge les fonctions définies par l’utilisateur Python)
- [SPARK-28638][WEBUI] Le résumé de la tâche doit contenir uniquement les métriques de tâches réussies
- [SPARK-28153][PYTHON] Utiliser AtomicReference sur InputFileBlockHolder (pour prendre en charge input_file_name avec la fonction UDF de Python)
- [SPARK-28564][CORE] L’application de l’historique des accès a comme valeur par défaut le dernier ID de tentative
- [SPARK-28260] Le cluster peut se terminer automatiquement quand la requête thriftserver continue de récupérer les résultats
- [SPARK-26152][CORE] Synchroniser le nettoyage du Worker avec l’arrêt du Worker
- [SPARK-28545][SQL] Ajout de la taille de la table de hachage au journal directionnel de ObjectAggregationIterator
- [SPARK-28489][SS] Correction d’un bogue où KafkaOffsetRangeCalculator.getRanges peut supprimer des décalages
- [SPARK-28421][ML] Optimisation des performances SparseVector.apply
- [SPARK-28156][SQL] La jointure réflexive ne doit pas manquer la vue mise en cache
- [SPARK-28152][SQL] ShortType mappé à SMALLINT et FloatType à REAL pour MsSqlServerDialect
- [SPARK-28054][SQL] Résolution de l’erreur lors de l’insertion dynamique de la table partitionnée Hive, où le nom de la partition est en majuscules
- [SPARK-27159][SQL] Mise à jour du dialecte de serveur mssql pour prendre en charge le type binaire
- [SPARK-28355][CORE][PYTHON] Utilisation de Spark conf pour le seuil auquel com...
- [SPARK-27989][CORE] Ajout de nouvelles tentatives sur la connexion au pilote pour k8s
- [SPARK-27416][SQL] Sérialisation UnsafeMapData et UnsafeArrayData Kryo …
- [SPARK-28430][UI] Résolution du rendu de la table de phases lorsque certaines métriques de tâches sont manquantes
- [SPARK-27485] EnsureRequirements.reorder doit gérer les expressions dupliquées correctement
- [SPARK-28404][SS] Correction de la valeur du délai d’expiration négatif dans RateStreamContinuousPartitionReader
- [SPARK-28378][PYTHON] Suppression de l’utilisation de cgi.escape
- [SPARK-28371][SQL] Le filtre Parquet « StartsWith » devient null-safe
- [SPARK-28015][SQL] Vérifie que stringToDate() consomme une entrée entière pour les formats aaaa et aaaa-[m]m
- [SPARK-28302][CORE] Assurez-vous de générer un fichier de sortie unique pour SparkLauncher sur Windows
- [SPARK-28308][CORE] La partie de CalendarInterval inférieure à une seconde doit être complétée avant l’analyse
- [SPARK-28170][ML][PYTHON] Documentation sur la matrice et les vecteurs uniformes
- [SPARK-28160][CORE] Résolution d’un bogue où la fonction de rappel peut se bloquer quand une exception non vérifiée est manquante
- [SPARK-27839][SQL] Modification de UTF8String.replace() pour qu’il fonctionne sur les octets UTF8
- [SPARK-28157][CORE] Faire en sorte que SHS efface KVStore loginfo pour les entrées bloquées
- [SPARK-28128][PYTHON][SQL] Les fonctions définies par l’utilisateur groupées pandas ignorent les partitions vides
- [SPARK-28012][SQL] La fonction définie par l’utilisateur Hive prend en charge l’expression pliable de type struct
- [SPARK-28164] Correction de la description de l’utilisation de start-slave.sh
- [SPARK-27100][SQL] Utiliser Array au lieu de Seq dans FilePartition pour empêcher StackOverflowError
- [SPARK-28154][ML] Résolution GMM de la mise en cache double
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 6.0.
Environnement du système
- Système d’exploitation : Ubuntu 16.04.6 LTS
- Java : 1.8.0_232
- Scala : 2.11.12
- Python : 3.7.3
- R : R version 3.6.1 (2019-07-05)
- Delta Lake : 0.3.0
Remarque
Bien que Scala 2.12 soit disponible en tant que fonctionnalité expérimentale dans Apache Spark 2.4, il n’est pas pris en charge dans Databricks Runtime 6.0.
Bibliothèques Python installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
asn1crypto | 0.24.0 | backcall | 0.1.0 | boto | 2.49.0 |
boto3 | 1.9.162 | botocore | 1.12.163 | certifi | 2019.3.9 |
cffi | 1.12.2 | chardet | 3.0.4 | cryptography | 2.6.1 |
cycler | 0.10.0 | Cython | 0.29.6 | decorator | 4.4.0 |
docutils | 0.14 | idna | 2.8 | ipython | 7.4.0 |
ipython-genutils | 0.2.0 | jedi | 0.13.3 | jmespath | 0.9.4 |
kiwisolver | 1.1.0 | matplotlib | 3.0.3 | numpy | 1.16.2 |
pandas | 0.24.2 | parso | 0.3.4 | patsy | 0.5.1 |
pexpect | 4.6.0 | pickleshare | 0.7.5 | pip | 19.0.3 |
prompt-toolkit | 2.0.9 | psycopg2 | 2.7.6.1 | ptyprocess | 0.6.0 |
pyarrow | 0.13.0 | pycparser | 2.19 | pycurl | 7.43.0 |
Pygments | 2.3.1 | PyGObject | 3.20.0 | pyOpenSSL | 19.0.0 |
pyparsing | 2.4.2 | PySocks | 1.6.8 | python-apt | 1.1.0.b1+ubuntu0.16.04.5 |
python-dateutil | 2.8.0 | pytz | 2018.9 | requêtes | 2.21.0 |
s3transfer | 0.2.1 | scikit-learn | 0.20.3 | scipy | 1.2.1 |
seaborn | 0.9.0 | setuptools | 40.8.0 | six | 1.12.0 |
ssh-import-id | 5.5 | statsmodels | 0.9.0 | traitlets | 4.3.2 |
unattended-upgrades | 0.1 | urllib3 | 1.24.1 | virtualenv | 16.4.1 |
wcwidth | 0.1.7 | wheel | 0.33.1 |
Bibliothèques R installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
abind | 1.4-5 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.1.3 | base | 3.6.1 | base64enc | 0.1-3 |
BH | 1.69.0-1 | bit | 1.1-14 | bit64 | 0.9-7 |
bitops | 1.0-6 | objet BLOB | 1.1.1 | boot | 1.3-23 |
brew | 1.0-6 | callr | 3.2.0 | voiture | 3.0-2 |
carData | 3.0-2 | caret | 6.0-82 | cellranger | 1.1.0 |
chron | 2.3-53 | class | 7.3-15 | cli | 1.1.0 |
clipr | 0.5.0 | clisymbols | 1.2.0 | cluster | 2.1.0 |
codetools | 0.2-16 | colorspace | 1.4-1 | commonmark | 1.7 |
compiler | 3.6.1 | config | 0.3 | crayon | 1.3.4 |
curl | 3.3 | data.table | 1.12.0 | jeux de données | 3.6.1 |
DBI | 1.0.0 | dbplyr | 1.3.0 | desc | 1.2.0 |
devtools | 2.0.1 | digest | 0.6.18 | doMC | 1.3.5 |
dplyr | 0.8.0.1 | ellipsis | 0.1.0 | fansi | 0.4.0 |
forcats | 0.4.0 | foreach | 1.4.4 | foreign | 0.8-72 |
forge | 0.2.0 | fs | 1.2.7 | gbm | 2.1.5 |
generics | 0.0.2 | ggplot2 | 3.1.0 | gh | 1.0.1 |
git2r | 0.25.2 | glmnet | 2.0-16 | glue | 1.3.1 |
gower | 0.2.0 | graphics | 3.6.1 | grDevices | 3.6.1 |
grid | 3.6.1 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.0 | h2o | 3.22.1.1 | haven | 2.1.0 |
hms | 0.4.2 | htmltools | 0.3.6 | htmlwidgets | 1.3 |
httr | 1.4.0 | hwriter | 1.3.2 | hwriterPlus | 1.0-3 |
ini | 0.3.1 | ipred | 0.9-8 | iterators | 1.0.10 |
jsonlite | 1.6 | KernSmooth | 2.23-15 | labeling | 0.3 |
lattice | 0.20-38 | lava | 1.6.5 | lazyeval | 0.2.2 |
littler | 0.3.7 | lme4 | 1.1-21 | lubridate | 1.7.4 |
magrittr | 1.5 | mapproj | 1.2.6 | cartes | 3.3.0 |
maptools | 0.9-5 | MASS | 7.3-51.4 | Matrix | 1.2-17 |
MatrixModels | 0.4-1 | memoise | 1.1.0 | methods | 3.6.1 |
mgcv | 1.8-28 | mime | 0,6 | minqa | 1.2.4 |
ModelMetrics | 1.2.2 | munsell | 0.5.0 | mvtnorm | 1.0-10 |
nlme | 3.1-141 | nloptr | 1.2.1 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.3 | openxlsx | 4.1.0 |
parallel | 3.6.1 | pbkrtest | 0.4-7 | pillar | 1.3.1 |
pkgbuild | 1.0.3 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
pkgload | 1.0.2 | plogr | 0.2.0 | plyr | 1.8.4 |
praise | 1.0.0 | prettyunits | 1.0.2 | pROC | 1.14.0 |
processx | 3.3.0 | prodlim | 2018.04.18 | progress | 1.2.0 |
proto | 1.0.0 | ps | 1.3.0 | purrr | 0.3.2 |
quantreg | 5.38 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
R.utils | 2.8.0 | r2d3 | 0.2.3 | R6 | 2.4.0 |
randomForest | 4.6-14 | rappdirs | 0.3.1 | rcmdcheck | 1.3.2 |
RColorBrewer | 1.1-2 | Rcpp | 1.0.1 | RcppEigen | 0.3.3.5.0 |
RcppRoll | 0.3.0 | RCurl | 1.95-4.12 | readr | 1.3.1 |
readxl | 1.3.1 | recipes | 0.1.5 | rematch | 1.0.1 |
remotes | 2.0.2 | reshape2 | 1.4.3 | rio | 0.5.16 |
rlang | 0.3.3 | RODBC | 1.3-15 | roxygen2 | 6.1.1 |
rpart | 4.1-15 | rprojroot | 1.3-2 | Rserve | 1.8-6 |
RSQLite | 2.1.1 | rstudioapi | 0.10 | scales | 1.0.0 |
sessioninfo | 1.1.1 | sp | 1.3-1 | sparklyr | 1.0.0 |
SparkR | 2.4.4 | SparseM | 1.77 | spatial | 7.3-11 |
splines | 3.6.1 | sqldf | 0.4-11 | SQUAREM | 2017.10-1 |
statmod | 1.4.30 | stats | 3.6.1 | stats4 | 3.6.1 |
stringi | 1.4.3 | stringr | 1.4.0 | survival | 2.44-1.1 |
sys | 3.1 | tcltk | 3.6.1 | TeachingDemos | 2,10 |
testthat | 2.0.1 | tibble | 2.1.1 | tidyr | 0.8.3 |
tidyselect | 0.2.5 | timeDate | 3043.102 | tools | 3.6.1 |
usethis | 1.4.0 | utf8 | 1.1.4 | utils | 3.6.1 |
viridisLite | 0.3.0 | whisker | 0.3-2 | withr | 2.1.2 |
xml2 | 1.2.0 | xopen | 1.0.0 | yaml | 2.2.0 |
zip | 2.0.1 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.11)
ID de groupe | ID d’artefact | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.595 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.595 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.595 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.595 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.595 |
com.amazonaws | aws-java-sdk-config | 1.11.595 |
com.amazonaws | aws-java-sdk-core | 1.11.595 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.595 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.595 |
com.amazonaws | aws-java-sdk-directory | 1.11.595 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.595 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.595 |
com.amazonaws | aws-java-sdk-ecs | 1.11.595 |
com.amazonaws | aws-java-sdk-efs | 1.11.595 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.595 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.595 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.595 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.595 |
com.amazonaws | aws-java-sdk-emr | 1.11.595 |
com.amazonaws | aws-java-sdk-glacier | 1.11.595 |
com.amazonaws | aws-java-sdk-glue | 1.11.595 |
com.amazonaws | aws-java-sdk-iam | 1.11.595 |
com.amazonaws | aws-java-sdk-importexport | 1.11.595 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.595 |
com.amazonaws | aws-java-sdk-kms | 1.11.595 |
com.amazonaws | aws-java-sdk-lambda | 1.11.595 |
com.amazonaws | aws-java-sdk-logs | 1.11.595 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.595 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.595 |
com.amazonaws | aws-java-sdk-rds | 1.11.595 |
com.amazonaws | aws-java-sdk-redshift | 1.11.595 |
com.amazonaws | aws-java-sdk-route53 | 1.11.595 |
com.amazonaws | aws-java-sdk-s3 | 1.11.595 |
com.amazonaws | aws-java-sdk-ses | 1.11.595 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.595 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.595 |
com.amazonaws | aws-java-sdk-sns | 1.11.595 |
com.amazonaws | aws-java-sdk-sqs | 1.11.595 |
com.amazonaws | aws-java-sdk-ssm | 1.11.595 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.595 |
com.amazonaws | aws-java-sdk-sts | 1.11.595 |
com.amazonaws | aws-java-sdk-support | 1.11.595 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.595 |
com.amazonaws | jmespath-java | 1.11.595 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | flux | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db8-spark2.4 |
com.databricks | dbml-local_2.11-tests | 0.5.0-db8-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.azure | azure-storage | 7.0.0 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.9.3 |
com.twitter | chill_2.11 | 0.9.3 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.7.3 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.9.3 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0.10 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.9.3 |
junit | junit | 4,12 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.5 |
net.snowflake | snowflake-jdbc | 3.6.15 |
net.snowflake | spark-snowflake_2.11 | 2.4.10-spark_2.4 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4,7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.10.0 |
org.apache.arrow | arrow-memory | 0.10.0 |
org.apache.arrow | arrow-vector | 0.10.0 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.6 |
org.apache.httpcomponents | httpcore | 4.4.10 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.5.5 |
org.apache.orc | orc-mapreduce-nohive | 1.5.5 |
org.apache.orc | orc-shims | 1.5.5 |
org.apache.parquet | parquet-column | 1.10.1.2-databricks3 |
org.apache.parquet | parquet-common | 1.10.1.2-databricks3 |
org.apache.parquet | parquet-encoding | 1.10.1.2-databricks3 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1.2-databricks3 |
org.apache.parquet | parquet-jackson | 1.10.1.2-databricks3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6-shaded | 4.8 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.10 |
org.codehaus.janino | janino | 3.0.10 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-continuation | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-http | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-io | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-jndi | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-plus | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-proxy | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-security | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-server | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-servlet | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-servlets | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-util | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-webapp | 9.3.27.v20190418 |
org.eclipse.jetty | jetty-xml | 9.3.27.v20190418 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hamcrest | hamcrest-core | 1.3 |
org.hamcrest | hamcrest-library | 1.3 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0.2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-core | 1.10.19 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.7.45 |
org.roaringbitmap | shims | 0.7.45 |
org.rocksdb | rocksdbjni | 6.2.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.12 |
org.scala-lang | scala-library_2.11 | 2.11.12 |
org.scala-lang | scala-reflect_2.11 | 2.11.12 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.1.0 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | unused | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.5 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.3 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |