Databricks Runtime 5.0 (EoS)
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Databricks a publié cette version en novembre 2018.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 5.0 avec Apache Spark.
Nouvelles fonctionnalités
Delta Lake
- Les sous-requêtes sont maintenant prises en charge dans la clause
WHERE
pour la prise en charge des commandesDELETE
etUPDATE
. - Nouvelle implémentation évolutive pour les commandes
MERGE
.- Le nombre d’insertions et de mises à jour n’est pas limité.
- Peut être utilisé pour les requêtes SCD de type 1 et de type 2.
- Peut exécuter des upserts à partir de la diffusion en continu de requêtes en mode « mise à jour » (par exemple, écrire une sortie d’agrégation de streaming dans une table Delta). Consultez l’exemple de notebook Écriture d’agrégats de diffusion en continu dans Databricks Delta à l’aide de MERGE et foreachBatch.
- Les sous-requêtes sont maintenant prises en charge dans la clause
Structured Streaming
- Source de diffusion en continu basée sur les notifications de fichier stockage BLOB Azure. Cela peut réduire considérablement les coûts d’affichage lors de l’exécution d’une requête de flux structuré sur des fichiers dans le stockage d’objets BLOB Azure. Au lieu d’utiliser les listes pour rechercher de nouveaux fichiers à traiter, cette source de streaming peut lire directement les notifications d’événements de fichier pour rechercher de nouveaux fichiers. Consultez Source de fichier Stockage Blob Azure avec Stockage File d’attente Azure (hérité).
Ajout de la prise en charge de TensorBoard pour la surveillance des travaux de Deep Learning. Consultez Tensorboard.
Améliorations
- Delta Lake
OPTIMIZE
Stabilité et performances.- La commande
OPTIMIZE
valide les lots dès que possible, plutôt qu’à la fin. - Réduction du nombre par défaut de threads
OPTIMIZE
exécutés en parallèle. Il s’agit d’une augmentation stricte des performances pour les tables volumineuses. - Accélération des écritures
OPTIMIZE
en évitant de trier inutilement les données lors de l’écriture dans une table partitionnée. - Accélération de
OPTIMIZE ZORDER BY
en le rendant incrémentiel. Cela signifie que la commande évite à présent de réécrire des fichiers de données qui étaient déjà classés en plan par la ou les mêmes colonnes. Consultez Ignorer les données pour Delta Lake.
- La commande
- Isolement d’instantané lors de l’interrogation des tables delta. Toute requête avec plusieurs références à une table Delta (par exemple, jointure réflexive) lit à partir du même instantané de table, même s’il existe des mises à jour simultanées de la table.
- Latence de requête améliorée lors de la lecture de tables Delta de petite taille (< 2000 fichiers) en mettant en cache les métadonnées sur le pilote.
- Amélioration des performances de régression logistique MLlib.
- Amélioration des performances de l’algorithme d’arborescence MLlib.
- Mise à niveau de plusieurs bibliothèques Java et Scala. Consultez Bibliothèques Java et Scala installées (version de cluster Scala 2.11).
- Mise à niveau de certaines bibliothèques Python installées :
- pip : 10.0.1 à 18.0
- setuptools : 39.2.0 à 40.4.1
- tornado : de 5.0.2 à 5.1.1
- Mise à niveau de plusieurs bibliothèques R installées. Consultez Bibliothèques R installées.
Correctifs de bogues
- Delta Lake
- Les configurations définies dans SQL conf s’appliquent désormais correctement aux opérations Delta Lake qui ont été chargées pour la première fois dans un autre notebook.
- Correction d’un bogue dans la commande
DELETE
qui supprimait incorrectement les lignes où la condition a la valeur Null. - Les flux qui prennent plus de deux jours pour traiter le lot initial (autrement dit, les données qui se trouvaient dans la table au moment du démarrage du flux) n’échouent plus avec
FileNotFoundException
lors de la tentative de récupération à partir d’un point de contrôle. - Évite une condition de concurrence qui mène à
NoClassDefError
lors du chargement d’une nouvelle table. - Correction de
VACUUM
l’endroit où l’opération peut échouer avec un AssertionError indiquant : « ne doit pas avoir de chemins d’accès absolus pour la suppression ». - Correction de la commande
SHOW CREATE TABLE
pour ne pas inclure les propriétés de stockage générées par Hive.
- Les exécuteurs qui génèrent de nombreuses erreurs
NoClassDefFoundError
pour les classes Spark internes sont maintenant redémarrés automatiquement pour résoudre le problème.
Problèmes connus
- Les noms de colonne spécifiés dans l’option
replaceWhere
pour le modeoverwrite
dans Delta Lake respectent la casse, même si le non-respect de la casse est activé (valeur par défaut). - Le connecteur Snowflake pour Databricks Runtime 5.0 est en version préliminaire.
- Une fois que vous avez annulé une cellule de streaming en cours d’exécution dans un notebook attaché à un cluster Databricks Runtime 5.0, vous ne pouvez pas exécuter les commandes suivantes dans le notebook, sauf si vous effacez l’état du notebook ou redémarrez le cluster. Pour obtenir une solution de contournement, consultez la base de connaissances.
Apache Spark
Databricks Runtime 5.0 comprend Apache Spark 2.4.0.
Core et Spark SQL
Notes
Cet article contient des références au terme esclave, un terme qu’Azure Databricks n’utilise pas. Lorsque le terme sera supprimé du logiciel, nous le supprimerons de cet article.
Fonctionnalités majeures
- Mode d’exécution de cloisonnement : [SPARK-24374] prend en charge le mode d’exécution de barrière dans le planificateur, pour une meilleure intégration avec les infrastructures de Deep Learning.
- Prise en charge de Scala 2.12 : [SPARK-14220] ajouter la prise en charge expérimentale Scala 2.12. Vous pouvez maintenant générer Spark avec Scala 2.12 et écrire des applications Spark dans Scala 2.12.
- Fonctions d’ordre supérieur : [SPARK-23899] ajouter de nombreuses fonctions intégrées, notamment des fonctions élevées, pour faciliter l’utilisation des types de données complexes. Consultez Fonctions intégrées Apache Spark.
- Source de données Avro intégrée : [SPARK-24768] package Spark-Avro Inline avec prise en charge de type logique, meilleures performances et facilité d’utilisation.
API
- [SPARK-24035] syntaxe de SQL pour le tableau croisé dynamique
- [SPARK-24940] indicateur de fusion et de repartitionnement pour les requêtes SQL
- [ -19602] Résolution de colonne de prise en charge du nom de colonne complet
- [SPARK-21274] Implémenter EXCEPT ALL et INTERSECT ALL
Performances et stabilité
- [SPARK-16406] La résolution de référence pour un grand nombre de colonnes doit être plus rapide
- [SPARK-23486]Mettre en cache le nom de la fonction à partir du catalogue externe pour lookupFunctions
- [SPARK-23803] Nettoyage des compartiments de support
- [SPARK-24802] Exclusion de la règle d’optimisation
- [SPARK-4502] Nettoyage de schéma imbriqué pour les tables parquet
- [SPARK-24296] Prendre en charge la réplication des blocs supérieurs à 2 Go
- [SPARK-24307] Prendre en charge l’envoi de messages sur 2 Go à partir de la mémoire
- [SPARK-23243] Une lecture aléatoire et une répartition sur un RDD peuvent entraîner des réponses incorrectes
- [SPARK-25181] Limite de la taille des pools de threads maîtres et subordonnés BlockManager, ce qui réduit la surcharge de mémoire quand la mise en réseau est lente
Connecteurs
- [SPARK-23972] Mettre à jour parquet de 1.8.2 vers 1.10.0
- [SPARK-25419] Amélioration du prédicat pushdown Parquet
- [SPARK-23456] Le lecteur ORC natif est activé par défaut
- [SPARK-22279] Utiliser le lecteur ORC natif pour lire les tables Hive par défaut
- [SPARK-21783] Activer par défaut le filtre pushdown de ORC
- [SPARK-24959] Accélérer le nombre () pour JSON et CSV
- [SPARK-24244] Analyse des colonnes requises uniquement pour l’analyseur CSV
- [SPARK-23786] Validation de schéma CSV- les noms de colonnes ne sont pas vérifiés
- [SPARK-24423] Requête d’option pour spécifier la requête à lire à partir de JDBC
- [SPARK-22814] Prise en charge de Date/Timestamp dans la colonne de partition JDBC
- [SPARK-24771] Mettre à jour Avro de 1.7.7 vers 1.8
PySpark
- [SPARK-24215] Implémenter une évaluation hâtive pour les API DataFrame
- [SPARK-22274] - [SPARK-22239] Fonctions d’agrégation définies par l’utilisateur avec pandas UDF
- [SPARK-24396] Ajouter des flux structurés ForeachWriter structurés pour Python
- [SPARK-23874]Mise à niveau d’Apache Arrow vers 0.10.0
- [SPARK-25004] Ajouter la limite Spark.executor.pyspark.memory
- [SPARK-23030] Utilisez le format de flux Arrow pour créer à partir de et pour collecter pandas DataFrames
- [SPARK-24624] Prise en charge du mélange des fonctions Python UDF et Scalar pandas UDF
Autres changements notables
- [SPARK-24596][SQL] Invalidation de cache sans cascade
- [SPARK-23880] Ne déclenche aucun travail de mise en cache des données
- [SPARK-23510][SPARK-24312] prendre en charge le metastore Hive 2.2 et Hive 2.3
- [SPARK-23711] Ajouter un générateur de secours pour UnsafeProjection
- [SPARK-24626] Mettre en parallèle le calcul de la taille d’emplacement dans la commande Analyze Table
Structured Streaming
Fonctionnalités majeures
- [SPARK-24565] Exposition des lignes de sortie de chaque microlot en tant que DataFrame à l’aide de foreachBatch (Python, Scala et Java)
- [SPARK-24396] Ajout de l’API Python pour foreach et ForeachWriter
- [SPARK-25005] Prendre en charge « kafka.isolation.level » pour lire uniquement les enregistrements validés dans les rubriques Kafka qui sont écrites à l’aide d’un producteur transactionnel.
Autres changements notables
- [SPARK-24662] Prendre en charge l’opérateur LIMIT pour les flux en mode Append ou Complete
- [SPARK-24763] Supprimer les données de clé redondantes de la valeur dans l’agrégation de streaming
- [SPARK-24156]Génération plus rapide de résultats de sortie et/ou nettoyage d’état à l’aide d’opérations avec état (mapGroupsWithState, jointure enter flux, agrégation de diffusion en continu, diffusion en continu dropDuplicates) lorsqu’il n’y a aucune donnée dans le flux d’entrée.
- [SPARK-24730] Prise en charge du choix du filigrane min ou Max lorsqu’il y a plusieurs flux d’entrée dans une requête
- [SPARK-25399] Correction d’un bogue où la réutilisation des threads d’exécution à partir du traitement continu pour la diffusion en continu de microlot peut entraîner un problème d’exactitude
- [SPARK-18057] Version du client Kafka mise à niveau de 0.10.0.1 vers 2.0.0
MLlib
Fonctionnalités majeures
- [SPARK-22666] Source de données Spark pour le format d’image
Autres changements notables
- [SPARK-22119][SPARK-23412][SPARK-23217] ajouter une mesure de distance cosinus à KMeans/BisectingKMeans/évaluateur de clustering
- [SPARK-10697] Calculer dans l’exploration des règles d’association
- [SPARK-14682][SPARK-24231] Fournir la méthode evaluateEachIteration ou un équivalent pour spark.ml GBT
- [SPARK-7132][SPARK-24333] Ajouter la valeur adaptée à la validation à spark.ml GBT
- [SPARK-15784][SPARK-19826] ajouter le clustering d’itérations d’itération à spark.ml
- [SPARK-15064] Prise en charge des paramètres régionaux dans StopWordsRemover
- [SPARK-21741] API Python pour un synthétiseur multivariable basé sur DataFrame
- [SPARK-21898][SPARK-23751] Parité des fonctionnalités pour KolmogorovSmirnovTest dans MLlib
- [SPARK-10884] Prendre en charge la prédiction sur une instance unique pour les modèles liés à la régression et à la classification
- [SPARK-23783] Ajouter une nouvelle caractéristique d’exportation générique pour les pipelines de ML
- [SPARK-11239] Exportation PMML pour régression linéaire ML
SparkR
- [SPARK-25393] Ajout de la nouvelle fonction from_csv()
- [SPARK-21291] Ajouter l’API R partitionBy dans DataFrame
- [SPARK-25007] Ajouter array_intersect/array_except/array_union/shuffle à SparkR
- [SPARK-25234] Éviter le dépassement sur les entiers dans la parallélisation
- [SPARK-25117] Ajouter EXCEPT ALL et INTERSECT ALL dans R
- [SPARK-24537] Ajouter array_remove/array_zip/map_from_arrays/array_distinct
- [SPARK-24187] Ajouter la fonction array_join à SparkR
- [SPARK-24331]Ajout d’arrays_overlap, array_repeat, map_entries à SparkR
- [SPARK-24198] Ajout d’une fonction de tranche à SparkR
- [SPARK-24197] Ajout d’une fonction array_sort à SparkR
- [SPARK-24185] Ajour d’une fonction d’aplatissement à SparkR
- [SPARK-24069] Ajouter des fonctions de array_min/array_max
- [SPARK-24054] Ajouter des fonctions array_position et element_at
- [SPARK-23770] Ajouter l’API repartitionByRange dans SparkR
GraphX
- [SPARK-25268] exécuter Parallel Personalized PageRank lève une exception de sérialisation
Dépréciations
- [SPARK-23451] Déconseiller KMeans computeCost
- [SPARK-25345] Déprécier les API readImages à partir de ImageSchema
Changements de comportement
- [SPARK-23549] Cast vers timestamp lors de la comparaison du timestamp avec la date
- [SPARK-24324] Les fonctions définies par l'utilisateur pandas Grouped Map doit attribuer les colonnes de résultats par nom
- [SPARK-25088] Mises à jour par défaut et de la documentation du serveur Rest
- [SPARK-23425] Les données de chargement pour le chemin d’accès du fichier HDFS avec l’utilisation de caractères génériques ne fonctionnent pas correctement
- [SPARK-23173] from_json peut produire des valeurs null pour les champs marqués comme n’acceptant pas les valeurs null
- [Spark-24966] Implémenter des règles de précédence pour les opérations d’ensemble
- [SPARK-25708] HAVING sans GROUP BY doit être aggrégé de façon globale
- [SPARK-24341] Gérer correctement plusieurs valeurs dans une sous-requête
- [SPARK-19724] Créer une table managée avec un emplacement par défaut existant doit lever une exception
Problèmes connus
- [SPARK-25793] Chargement du bogue de modèle dans BisectingKMeans
- [SPARK-25271] CTAS avec les tables Hive Parquet doit tirer parti de la source Parquet native
- [SPARK-24935] Problème lié à l’exécution des UDAF Hive à partir de Spark 2.2
Mises à jour de maintenance
Consultez Mises à jour de maintenance de Databricks Runtime 5.0.
Environnement du système
- Système d’exploitation : Ubuntu 16.04.5 LTS
- Java : 1.8.0_162
- Scala : 2.11.8
- Python : 2.7.12 pour les clusters Python 2 et 3.5.2 pour les clusters Python 3.
- R : R version 3.4.4 (2018-03-15)
- Clusters GPU : Les bibliothèques GPU NVIDIA suivantes sont installées :
- Pilote Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Notes
Bien que Scala 2.12 soit pris en charge dans Apache Spark 2.4, il ne l’est pas dans Databricks Runtime 5.0.
Bibliothèques Python installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
chiffrement | 1.5 | cycler | 0.10.0 | Cython | 0.24.1 |
decorator | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | futures | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0.999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Pillow | 3.3.1 |
pip | 18.0 | ply | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
requêtes | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | scour | 0.32 | seaborn | 0.7.1 |
setuptools | 40.4.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | six | 1.10.0 | statsmodels | 0.6.1 |
tornado | 5.1.1 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.31.1 |
wsgiref | 0.1.2 |
Bibliothèques R installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.2 |
base | 3.4.4 | base64enc | 0.1-3 | BH | 1.66.0-1 |
bindr | 0.1.1 | bindrcpp | 0.2.2 | bit | 1.1-14 |
bit64 | 0.9-7 | bitops | 1.0-6 | objet BLOB | 1.1.1 |
boot | 1.3-20 | brew | 1.0-6 | broom | 0.5.0 |
callr | 3.0.0 | voiture | 3.0-2 | carData | 3.0-1 |
caret | 6.0-80 | cellranger | 1.1.0 | chron | 2.3-52 |
class | 7.3-14 | cli | 1.0.0 | cluster | 2.0.7-1 |
codetools | 0.2-15 | colorspace | 1.3-2 | commonmark | 1.5 |
compiler | 3.4.4 | crayon | 1.3.4 | curl | 3.2 |
CVST | 0.2-2 | data.table | 1.11.4 | jeux de données | 3.4.4 |
DBI | 1.0.0 | ddalpha | 1.3.4 | DEoptimR | 1,0-8 |
desc | 1.2.0 | devtools | 1.13.6 | digest | 0.6.16 |
dimRed | 0.1.0 | doMC | 1.3.5 | dplyr | 0.7.6 |
DRR | 0.0.3 | fansi | 0.3.0 | forcats | 0.3.0 |
foreach | 1.4.4 | foreign | 0.8-70 | gbm | 2.1.3 |
geometry | 0.3-6 | ggplot2 | 3.0.0 | git2r | 0.23.0 |
glmnet | 2.0-16 | glue | 1.3.0 | gower | 0.1.2 |
graphics | 3.4.4 | grDevices | 3.4.4 | grid | 3.4.4 |
gsubfn | 0.7 | gtable | 0.2.0 | h2o | 3.20.0.2 |
haven | 1.1.2 | hms | 0.4.2 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-7 |
iterators | 1.0.10 | jsonlite | 1.5 | kernlab | 0.9-27 |
KernSmooth | 2.23-15 | labeling | 0.3 | lattice | 0.20-35 |
lava | 1.6.3 | lazyeval | 0.2.1 | littler | 0.3.4 |
lme4 | 1.1-18-1 | lubridate | 1.7.4 | magic | 1.5-8 |
magrittr | 1.5 | mapproj | 1.2.6 | cartes | 3.3.0 |
maptools | 0.9-3 | MASS | 7.3-50 | Matrice | 1.2-14 |
MatrixModels | 0.4-1 | memoise | 1.1.0 | methods | 3.4.4 |
mgcv | 1.8-24 | mime | 0.5 | minqa | 1.2.4 |
ModelMetrics | 1.2.0 | munsell | 0.5.0 | mvtnorm | 1,0-8 |
nlme | 3.1-137 | nloptr | 1.0.4 | nnet | 7.3-12 |
numDeriv | 2016.8-1 | openssl | 1.0.2 | openxlsx | 4.1.0 |
parallel | 3.4.4 | pbkrtest | 0.4-7 | pillar | 1.3.0 |
pkgbuild | 1.0.0 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
pkgload | 1.0.0 | plogr | 0.2.0 | Pls | 2.7-0 |
plyr | 1.8.4 | praise | 1.0.0 | prettyunits | 1.0.2 |
pROC | 1.12.1 | processx | 3.2.0 | prodlim | 2018.04.18 |
proto | 1.0.0 | ps | 1.1.0 | purrr | 0.2.5 |
quantreg | 5.36 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
R.utils | 2.7.0 | R6 | 2.2.2 | randomForest | 4.6-14 |
RColorBrewer | 1.1-2 | Rcpp | 0.12.18 | RcppEigen | 0.3.3.4.0 |
RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | readr | 1.1.1 |
readxl | 1.1.0 | recipes | 0.1.3 | rematch | 1.0.1 |
reshape2 | 1.4.3 | rio | 0.5.10 | rlang | 0.2.2 |
robustbase | 0.93-2 | RODBC | 1.3-15 | roxygen2 | 6.1.0 |
rpart | 4.1-13 | rprojroot | 1.3-2 | Rserve | 1.7-3 |
RSQLite | 2.1.1 | rstudioapi | 0.7 | scales | 1.0.0 |
sfsmisc | 1.1-2 | sp | 1.3-1 | SparkR | 2.4.0 |
SparseM | 1.77 | spatial | 7.3-11 | splines | 3.4.4 |
sqldf | 0.4-11 | SQUAREM | 2017.10-1 | statmod | 1.4.30 |
stats | 3.4.4 | stats4 | 3.4.4 | stringi | 1.2.4 |
stringr | 1.3.1 | survival | 2.42-6 | tcltk | 3.4.4 |
TeachingDemos | 2,10 | testthat | 2.0.0 | tibble | 1.4.2 |
tidyr | 0.8.1 | tidyselect | 0.2.4 | timeDate | 3043.102 |
tools | 3.4.4 | utf8 | 1.1.4 | utils | 3.4.4 |
viridisLite | 0.3.0 | whisker | 0.3-2 | withr | 2.1.2 |
xml2 | 1.2.0 | zip | 1.0.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.11)
ID de groupe | ID d’artefact | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.8.10 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
com.amazonaws | aws-java-sdk-config | 1.11.313 |
com.amazonaws | aws-java-sdk-core | 1.11.313 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.313 |
com.amazonaws | aws-java-sdk-directory | 1.11.313 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
com.amazonaws | aws-java-sdk-efs | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
com.amazonaws | aws-java-sdk-emr | 1.11.313 |
com.amazonaws | aws-java-sdk-glacier | 1.11.313 |
com.amazonaws | aws-java-sdk-iam | 1.11.313 |
com.amazonaws | aws-java-sdk-importexport | 1.11.313 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.313 |
com.amazonaws | aws-java-sdk-kms | 1.11.313 |
com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
com.amazonaws | aws-java-sdk-logs | 1.11.313 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.313 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
com.amazonaws | aws-java-sdk-rds | 1.11.313 |
com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
com.amazonaws | aws-java-sdk-ses | 1.11.313 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
com.amazonaws | aws-java-sdk-sns | 1.11.313 |
com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
com.amazonaws | aws-java-sdk-sts | 1.11.313 |
com.amazonaws | aws-java-sdk-support | 1.11.313 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
com.amazonaws | jmespath-java | 1.11.313 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | flux | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.5.0-db7-spark2.4 |
com.databricks | dbml-local_2.11-tests | 0.5.0-db7-spark2.4 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.2.8 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.9.3 |
com.twitter | chill_2.11 | 0.9.3 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.7.3 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 3.1.0 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0.10 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | collecteur | 0.7 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-jdbc | 3.6.3 |
net.snowflake | spark-snowflake_2.11 | 2.4.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4,7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.10.0 |
org.apache.arrow | arrow-memory | 0.10.0 |
org.apache.arrow | arrow-vector | 0.10.0 |
org.apache.avro | avro | 1.8.2 |
org.apache.avro | avro-ipc | 1.8.2 |
org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.8.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.5.2 |
org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
org.apache.orc | orc-shims | 1.5.2 |
org.apache.parquet | parquet-column | 1.10.1-databricks2 |
org.apache.parquet | parquet-common | 1.10.1-databricks2 |
org.apache.parquet | parquet-encoding | 1.10.1-databricks2 |
org.apache.parquet | parquet-format | 2.4.0 |
org.apache.parquet | parquet-hadoop | 1.10.1-databricks2 |
org.apache.parquet | parquet-jackson | 1.10.1-databricks2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm6-shaded | 4.8 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.9 |
org.codehaus.janino | janino | 3.0.9 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0.2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.5.3 |
org.json4s | json4s-core_2.11 | 3.5.3 |
org.json4s | json4s-jackson_2.11 | 3.5.3 |
org.json4s | json4s-scalap_2.11 | 3.5.3 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalactic | scalactic_2.11 | 3.0.3 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 3.0.3 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | unused | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.5 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.7.1 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |