Databricks Runtime 4.0 (EoS)
Nota:
El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.
Databricks publicó esta versión en marzo de 2018.
Importante
Esta versión quedó en desuso el 1 de noviembre de 2018. Para más información sobre la directiva y el programa de desuso de Databricks Runtime, consulte Ciclos de vida del soporte técnico de Databricks Runtime.
En las siguientes notas de la versión, se proporciona información sobre Databricks Runtime 4.0, con tecnología de Apache Spark.
Cambios y mejoras
- El origen de datos JSON ahora intenta detectar automáticamente la codificación en lugar de suponer que es UTF-8. En los casos en los que se produce un error en la detección automática, los usuarios pueden especificar la opción de juego de caracteres para aplicar una codificación determinada. Consulte Detección automática del juego de caracteres.
- La puntuación y la predicción mediante canalizaciones de Spark MLlib en el streaming estructurado son totalmente compatibles.
- La exportación de modelos de Machine Learning de Databricks es totalmente compatible. Con esta característica, puede entrenar un modelo de Spark MLlib en Databricks, exportarlo con una llamada de función y usar una biblioteca de Databricks en el sistema que prefiera para importar el modelo y puntuar nuevos datos.
- Una nueva implementación del origen de datos de Spark ofrece acceso de lectura y escritura escalable a Azure Synapse Analytics. Consulte Azure Synapse Analytics.
- El esquema de la función
from_json
ahora siempre se convierte en uno que acepte valores NULL. En otras palabras, todos los campos, incluidos los anidados, aceptan valores NULL. Esto garantiza que los datos sean compatibles con el esquema, lo que evita daños después de escribir los datos en Parquet cuando falta un campo en los datos y el esquema proporcionado por el usuario declara el campo como que no acepta valores NULL. - Se han actualizado algunas bibliotecas de Python instaladas:
- futures: de 3.1.1 a 3.2.0
- pandas: de 0.18.1 a 0.19.2
- pyarrow: de 0.4.1 a 0.8.0
- setuptools: de 38.2.3 a 38.5.1
- tornado: de 4.5.2 a 4.5.3
- Se han actualizado varias bibliotecas de R instaladas. Consulte Bibliotecas de R instaladas.
- Se ha actualizado el SDK de AWS para Java de la versión 1.11.126 a la 1.11.253.
- Se ha actualizado el controlador JDBC de SQL Server de 6.1.0.jre8 a 6.2.2.jre8.
- Se ha actualizado el controlador JDBC de PostgreSQL de 9.4-1204-jdbc41 a 42.1.4.
Spark de Apache
Databricks Runtime 4.0 incluye Apache Spark 2.3.0.
Core, PySpark y Spark SQL
Características principales
- Lector ORC vectorizado: [SPARK-16060]: agrega compatibilidad con el nuevo lector ORC, que mejora considerablemente el rendimiento del examen de ORC mediante vectorización (2-5x). Para habilitar el lector, los usuarios pueden establecer
spark.sql.orc.impl
ennative
. - Servidor de historial de Spark V2: [SPARK-18085]: un nuevo back-end del servidor de historial de Spark (SHS) que proporciona una mejor escalabilidad para aplicaciones a gran escala con un mecanismo de almacenamiento de eventos más eficaz.
- API de origen de datos V2: [SPARK-15689][SPARK-22386]: una API experimental para conectar nuevos orígenes de datos en Spark. La nueva API intenta abordar varias limitaciones de la API V1 y pretende facilitar el desarrollo de orígenes de datos externos de alto rendimiento, fáciles de mantener y extensibles. Esta API sigue experimentando un desarrollo activo y se deben esperar cambios importantes.
- Mejoras de rendimiento de PySpark: [SPARK-22216][SPARK-21187]: mejoras significativas en el rendimiento y la interoperabilidad de Python mediante la serialización rápida de datos y la ejecución vectorizada.
Rendimiento y estabilidad
- [SPARK-21975]: compatibilidad con histogramas en el optimizador basado en costos.
- [SPARK-20331]: mejor compatibilidad con la delegación de predicados para la eliminación de particiones de Hive.
- [SPARK-19112]: compatibilidad con el códec de compresión ZStandard.
- [SPARK-21113]: compatibilidad con el flujo de entrada de lectura por adelantado para amortizar el costo de E/S del disco en el lector de volcados.
- [SPARK-22510][SPARK-22692][SPARK-21871]: se estabiliza aún más el marco de codegen para evitar alcanzar el límite de código de bytes de JVM de 64 KB en el método de Java y el límite del grupo de constantes del compilador de Java.
- [SPARK-23207]: se ha corregido un error de larga duración en Spark en el que el orden aleatorio y la repartición consecutivos en un DataFrame podían dar lugar a respuestas incorrectas en determinados casos.
- [SPARK-22062][SPARK-17788][SPARK-21907]: corrección de diversas causas de los OOM.
- [SPARK-22489][SPARK-22916][SPARK-22895][SPARK-20758][SPARK-22266][SPARK-19122][SPARK-22662][SPARK-21652]: mejoras en el optimizador y la herramienta de planeamiento basados en reglas.
Otros cambios importantes
- [SPARK-20236]: compatibilidad con la semántica de sobrescritura de particiones dinámicas de estilo Hive.
- [SPARK-4131]: se admite
INSERT OVERWRITE DIRECTORY
para escribir datos directamente en el sistema de archivos desde una consulta. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: mejoras de las UDF.
- [SPARK-20463][SPARK-19951][SPARK-22934][SPARK-21055][SPARK-17729][SPARK-20962][SPARK-20963][SPARK-20841][SPARK-17642][SPARK-22475][SPARK-22934]: se ha mejorado el cumplimiento de ANSI SQL y la compatibilidad de Hive.
- [SPARK-20746]: funciones integradas de SQL más completas.
- [SPARK-21485]: generación de documentación de Spark SQL para funciones integradas.
- [SPARK-19810]: se ha quitado la compatibilidad con Scala
2.10
. - [SPARK-22324]: se ha actualizado Arrow a la versión
0.8.0
y Netty a la versión4.1.17
.
Structured Streaming
Procesamiento continuo
- Un nuevo motor de ejecución que puede ejecutar consultas de streaming con una latencia completa por debajo de milisegundos cambiando solo una sola línea de código de usuario. Para más información, consulte la guía de programación.
Combinaciones de streaming con streaming
- Capacidad de combinar dos flujos de datos, almacenando en búfer las filas hasta que lleguen las tuplas coincidentes del otro flujo. Se pueden usar predicados en columnas de tiempo de eventos para enlazar la cantidad de estado que se debe conservar.
API de streaming V2
- Una API experimental para conectar nuevos orígenes y receptores que funciona para lotes, microlotes y la ejecución continua. Esta API sigue experimentando un desarrollo activo y se deben esperar cambios importantes.
MLlib
Aspectos destacados
- La predicción de ML ahora funciona con streaming estructurado, mediante las API actualizadas. A continuación, se indican los detalles.
API nuevas y mejoradas
- [SPARK-21866]: compatibilidad integrada para leer imágenes en un dataframe (Scala, Java y Python).
- [SPARK-19634]: funciones de DataFrame para estadísticas de resumen descriptivas sobre columnas vectoriales (Scala y Java).
- [SPARK-14516]:
ClusteringEvaluator
para optimizar los algoritmos de agrupación en clústeres y admitir las métricas de silueta de coseno y de silueta euclídea cuadrada (Scala, Java y Python). - [SPARK-3181]: regresión lineal sólida con pérdida de Huber (Scala, Java y Python).
- [SPARK-13969]: transformador
FeatureHasher
(Scala, Java y Python). - Compatibilidad con varias columnas para varios transformadores de características:
- [SPARK-13030]:
OneHotEncoderEstimator
(Scala, Java y Python). - [SPARK-22397]:
QuantileDiscretizer
(Scala y Java). - [SPARK-20542]:
Bucketizer
(Scala, Java y Python).
- [SPARK-13030]:
- [SPARK-21633] y [SPARK-21542]: compatibilidad mejorada con componentes de canalización personalizados en Python.
Nuevas características:
- [SPARK-21087]:
CrossValidator
yTrainValidationSplit
pueden recopilar todos los modelos al ajustar (Scala y Java). Esto le permite inspeccionar o guardar todos los modelos ajustados. - [SPARK-19357]: los metaalgoritmos
CrossValidator
,TrainValidationSplit
yOneVsRest
, admiten un parámetro de paralelismo para ajustar varios modelos secundarios en trabajos de Spark paralelos. - [SPARK-17139]: resumen del modelo para la regresión logística multinómica (Scala, Java y Python)
- [SPARK-18710]: se ha agregado un desplazamiento en GLM.
- [SPARK-20199]: se ha agregado el parámetro
featureSubsetStrategy
aGBTClassifier
yGBTRegressor
. El uso de esto para el muestreo secundario de características puede mejorar significativamente la velocidad de entrenamiento; esta opción ha sido una de las principales mejoras dexgboost
.
Otros cambios importantes
- [SPARK-22156]: se ha corregido el escalado de la velocidad de aprendizaje de
Word2Vec
connum
iteraciones. La nueva velocidad de aprendizaje se establece para que coincida con el código C original deWord2Vec
y debe proporcionar mejores resultados del entrenamiento. - [SPARK-22289]: se ha agregado compatibilidad con
JSON
para los parámetros de matriz (esto ha corregido un error de persistencia de ML conLogisticRegressionModel
al usar límites en los coeficientes). - [SPARK-22700]:
Bucketizer.transform
quita incorrectamente una fila que contengaNaN
. Cuando el parámetrohandleInvalid
se ha establecido en "skip",Bucketizer
quitaría una fila con un valor válido en la columna de entrada si otra columna (irrelevante) tuviera un valorNaN
. - [SPARK-22446]: el optimizador de Catalyst a veces provocaba que
StringIndexerModel
produjese una excepción "Etiqueta no vista" incorrecta cuandohandleInvalid
se ha establecido en "error". Esto podría ocurrir para los datos filtrados, debido a la delegación de predicados, lo que provoca errores incluso después de que las filas no válidas ya se hubieran filtrado del conjunto de datos de entrada. - [SPARK-21681]: se ha corregido un error de caso perimetral en la regresión logística multinómica que provocaba coeficientes incorrectos cuando algunas características tenían varianza cero.
- Optimizaciones principales:
- [SPARK-22707]: se ha reducido el consumo de memoria para
CrossValidator
. - [SPARK-22949]: se ha reducido el consumo de memoria para
TrainValidationSplit
. - [SPARK-21690]:
Imputer
debe entrenar con un solo paso sobre los datos. - [SPARK-14371]:
OnlineLDAOptimizer
evita recopilar estadísticas en el controlador para cada minilote.
- [SPARK-22707]: se ha reducido el consumo de memoria para
SparkR
El enfoque principal de SparkR en la versión 2.3.0 era mejorar la estabilidad de las UDF y agregar varios nuevos contenedores de SparkR en torno a las API existentes:
Características principales
- Paridad de funciones mejorada entre SQL y R
- [SPARK-22933]: API de streaming estructurado para
withWatermark
,trigger
,partitionBy
y combinaciones secuencia-secuencia. - [SPARK-21266]: UDF de SparkR con compatibilidad con esquemas con formato DDL.
- [SPARK-20726][SPARK-22924][SPARK-22843]: varios nuevos contenedores de API de dataframe.
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: varios nuevos contenedores de API de SparkML.
GraphX
Optimizaciones
- [SPARK-5484]: Pregel ahora realiza puntos de control periódicamente para evitar errores
StackOverflowErrors
. - [SPARK-21491]: pequeñas mejoras del rendimiento en varios lugares.
En desuso
Python
- [SPARK-23122]: entrada en desuso de
register*
para las UDF enSQLContext
yCatalog
en PySpark
MLlib
- [SPARK-13030]:
OneHotEncoder
ha entrado en desuso y se quitará en la versión 3.0. Ha sido sustituido por el nuevoOneHotEncoderEstimator
.OneHotEncoderEstimator
cambiará el nombre aOneHotEncoder
en la versión 3.0 (pero se mantendráOneHotEncoderEstimator
como un alias).
Cambios de comportamiento
SparkSQL
- [SPARK-22036]: de manera predeterminada, las operaciones aritméticas entre decimales devuelven un valor redondeado si no es posible una representación exacta (en lugar de devolver
NULL
como en las versiones anteriores). - [SPARK-22937]: cuando todas las entradas son binarias, la función
elt()
de SQL devuelve una salida como binaria. De lo contrario, devuelve una cadena. En versiones anteriores, siempre se devolvía una cadena, independientemente de los tipos de entrada. - [SPARK-22895]: los predicados deterministas de join y filter que están después de los primeros predicados no deterministas también se delegan mediante los operadores secundarios, si es posible. En las versiones anteriores, estos filtros no eran aptos para la delegación de predicados.
- [SPARK-22771]: cuando todas las entradas son binarias,
functions.concat()
devuelve una salida como binaria. De lo contrario, devuelve una cadena. En las versiones anteriores, siempre se devolvía una cadena, independientemente de los tipos de entrada. - [SPARK-22489]: cuando cualquiera de los lados de una combinación se puede difundir, preferimos difundir la tabla que se especifica explícitamente en una sugerencia de difusión.
- [SPARK-22165]: la inferencia de la columna de partición antes encontraba un tipo común incorrecto para distintos tipos inferidos. Por ejemplo, anteriormente terminaba con el tipo
double
como tipo común para el tipodouble
y el tipodate
. Ahora encuentra el tipo común correcto para estos conflictos. Para más información, consulte la guía de migración. - [SPARK-22100]: la función
percentile_approx
antes aceptaba una entrada de tiponumeric
y generaba resultados de tipodouble
. Ahora admite el tipodate
, el tipotimestamp
y los tiposnumeric
como tipos de entrada. También se ha cambiado el tipo del resultado para que sea el mismo que el tipo de entrada, que es más razonable para los percentiles. - [SPARK-21610]: las consultas de archivos JSON o CSV sin formato no están permitidas cuando las columnas a las que se hace referencia incluyen solo la columna interna de registros incorrectos (llamada
_corrupt_record
de manera predeterminada). En su lugar, puede almacenar en caché o guardar los resultados analizados y, a continuación, enviar la misma consulta. - [SPARK-23421]: desde Spark 2.2.1 y 2.3.0, el esquema siempre se infiere en tiempo de ejecución cuando las tablas del origen de datos tienen las columnas que existen tanto en el esquema de particiones como en el esquema de datos. El esquema inferido no tiene las columnas con particiones. Al leer la tabla, Spark respeta los valores de partición de estas columnas superpuestas en lugar de los valores almacenados en los archivos del origen de datos. En las versiones 2.2.0 y 2.1.x, el esquema inferido tiene particiones, pero los datos de la tabla son invisibles para los usuarios (es decir, el conjunto de resultados está vacío).
PySpark
- [SPARK-19732]:
na.fill()
ofillna
también acepta valores booleanos y reemplaza los valores NULL por valores booleanos. En versiones anteriores de Spark, PySpark simplemente lo omite y devuelve el conjunto de datos o el dataframe original. - [SPARK-22395]: se requiere pandas
0.19.2
o superior para usar las funcionalidades relacionadas con pandas, comotoPandas
,createDataFrame
a partir de un DataFrame de Pandas, etc. - [SPARK-22395]: se ha cambiado el comportamiento de los valores de marca de tiempo para las funcionalidades relacionadas con pandas para respetar la zona horaria de la sesión, que se omitía en las versiones anteriores.
- [SPARK-23328]:
df.replace
no permite omitirvalue
cuandoto_replace
no es un diccionario. Anteriormente, se podía omitirvalue
en los otros casos y teníaNone
de manera predeterminada, lo que no es intuitivo y es propenso a errores.
MLlib
- Cambios importantes en la API: se ha cambiado la jerarquía de clases y rasgos para los resúmenes del modelo de regresión logística para que sea más limpia y adaptarse mejor a la adición del resumen de varias clases. Se trata de un cambio importante para el código de usuario que convierte un elemento
LogisticRegressionTrainingSummary
en un elementoBinaryLogisticRegressionTrainingSummary
. En su lugar, los usuarios deben usar el métodomodel.binarySummary
. Consulte [SPARK-17139] para más detalles (tenga en cuenta que se trata de una API@Experimental
). Esto no afecta al método de resumen de Python, que seguirá funcionando correctamente para los casos multinómicos y binarios. - [SPARK-21806]:
BinaryClassificationMetrics.pr()
: el primer punto (0,0, 1,0) es engañoso y se ha reemplazado por (0,0, p), donde la precisión p coincide con el punto de coincidencia más bajo. - [SPARK-16957]: los árboles de decisión ahora usan puntos medios ponderados al elegir valores divididos. Esto puede cambiar los resultados del entrenamiento del modelo.
- [SPARK-14657]:
RFormula
sin una interceptación ahora genera la categoría de referencia al codificar términos de cadena, con el fin de coincidir con el comportamiento nativo de R. Esto puede cambiar los resultados del entrenamiento del modelo. - [SPARK-21027]: el paralelismo predeterminado que se usa en
OneVsRest
ahora está establecido en 1 (es decir, serie). En la versión 2.2 y versiones anteriores, el nivel de paralelismo se establecía en el tamaño predeterminado del grupo de subprocesos en Scala. Esto puede cambiar el rendimiento. - [SPARK-21523]: se ha actualizado Breeze a la versión
0.13.2
. Esto incluía una corrección de errores importante en la búsqueda de línea segura de Wolfe para L-BFGS. - [SPARK-15526]: la dependencia JPMML ahora está sombreada.
- Consulte también la sección "Correcciones de errores" para ver los cambios de comportamiento resultantes de corregir los errores.
Problemas conocidos
- [SPARK-23523][SQL]: resultado incorrecto causado por la regla
OptimizeMetadataOnlyQuery
. - [SPARK-23406]: errores en las autocombinaciones secuencia-secuencia.
Actualizaciones de mantenimiento
Consulte Actualizaciones de mantenimiento de Databricks Runtime 4.0.
Entorno del sistema
- Sistema operativo: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Scala: 2.11.8
- Python: 2.7.12 (o 3.5.2 si se usa Python 3)
- R: R, versión 3.4.3 (2017-11-30)
- Clústeres de GPU: están instaladas las siguientes bibliotecas de GPU de NVIDIA:
- Controlador Tesla 375.66
- CUDA 8.0
- CUDNN 6.0
Bibliotecas de Python instaladas
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
criptografía | 1.5 | cycler | 0.10.0 | Cython | 0.24.1 |
decorator | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | futuros | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0,23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Pillow | 3.3.1 |
pip | 9.0.1 | ply | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
Python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
Solicitudes | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | scour | 0,32 | seaborn | 0.7.1 |
setuptools | 38.5.1 | simplejson | 3.8.2 | simples3 | 1,0 |
singledispatch | 3.4.0.3 | six (seis) | 1.10.0 | statsmodels | 0.6.1 |
tornado | 4.5.3 | traitlets | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | wheel | 0.30.0 |
wsgiref | 0.1.2 |
Bibliotecas de R instaladas
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backports | 1.1.1 |
base | 3.4.3 | BH | 1.65.0-1 | bindr | 0,1 |
bindrcpp | 0,2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.0 | boot | 1.3-20 |
brew | 1.0-6 | broom | 0.4.3 | automóvil | 2.1-6 |
caret | 6.0-77 | chron | 2.3-51 | clase | 7.3-14 |
cluster | 2.0.6 | codetools | 0.2-15 | colorspace | 1.3-2 |
commonmark | 1.4 | compiler | 3.4.3 | crayon | 1.3.4 |
curl | 3.0 | CVST | 0.2-1 | data.table | 1.10.4-3 |
conjuntos de datos | 3.4.3 | DBI | 0.7 | ddalpha | 1.3.1 |
DEoptimR | 1,0 - 8 | desc | 1.1.1 | devtools | 1.13.4 |
dichromat | 2.0-0 | digest | 0.6.12 | dimRed | 0.1.0 |
doMC | 1.3.4 | dplyr | 0.7.4 | DRR | 0.0.2 |
foreach | 1.4.3 | foreign | 0.8-69 | gbm | 2.1.3 |
ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
glue | 1.2.0 | gower | 0.1.2 | elementos gráficos | 3.4.3 |
grDevices | 3.4.3 | grid | 3.4.3 | gsubfn | 0.6-6 |
gtable | 0.2.0 | h2o | 3.16.0.1 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
iterators | 1.0.8 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | labeling | 0,3 | lattice | 0.20-35 |
lava | 1.5.1 | lazyeval | 0.2.1 | littler | 0.3.2 |
lme4 | 1.1-14 | lubridate | 1.7.1 | magrittr | 1.5 |
mapproj | 1.2-5 | maps | 3.2.0 | MASS | 7.3-48 |
Matriz | 1.2-11 | MatrixModels | 0.4-1 | memoise | 1.1.0 |
methods | 3.4.3 | mgcv | 1.8-23 | mime | 0.5 |
minqa | 1.2.4 | mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
munsell | 0.4.3 | mvtnorm | 1.0-6 | nlme | 3.1-131 |
nloptr | 1.0.4 | nnet | 7.3-12 | numDeriv | 2016.8-1 |
openssl | 0.9.9 | parallel | 3.4.3 | pbkrtest | 0.4-7 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
plyr | 1.8.4 | praise | 1.0.0 | pROC | 1.10.0 |
prodlim | 1.6.1 | proto | 1.0.0 | psych | 1.7.8 |
purrr | 0.2.4 | quantreg | 5.34 | R.methodsS3 | 1.7.1 |
R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
randomForest | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
recipes | 0.1.1 | reshape2 | 1.4.2 | rlang | 0.1.4 |
robustbase | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
rpart | 4.1-12 | rprojroot | 1.2 | Rserve | 1.7-3 |
RSQLite | 2.0 | rstudioapi | 0.7 | scales | 0.5.0 |
sfsmisc | 1.1-1 | sp | 1.2-5 | SparkR | 2.3.0 |
SparseM | 1.77 | spatial | 7.3-11 | splines | 3.4.3 |
sqldf | 0.4-11 | statmod | 1.4.30 | stats | 3.4.3 |
stats4 | 3.4.3 | stringi | 1.1.6 | stringr | 1.2.0 |
survival | 2.41-3 | tcltk | 3.4.3 | TeachingDemos | 2,10 |
testthat | 1.0.2 | tibble | 1.3.4 | tidyr | 0.7.2 |
tidyselect | 0.2.3 | timeDate | 3042.101 | tools | 3.4.3 |
utils | 3.4.3 | viridisLite | 0.2.0 | whisker | 0.3-2 |
withr | 2.1.0 | xml2 | 1.1.1 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.11)
Identificador de grupo | Identificador de artefacto | Versión |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
com.amazonaws | aws-java-sdk-config | 1.11.253 |
com.amazonaws | aws-java-sdk-core | 1.11.253 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
com.amazonaws | aws-java-sdk-directory | 1.11.253 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
com.amazonaws | aws-java-sdk-efs | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.253 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
com.amazonaws | aws-java-sdk-emr | 1.11.253 |
com.amazonaws | aws-java-sdk-glacier | 1.11.253 |
com.amazonaws | aws-java-sdk-iam | 1.11.253 |
com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.253 |
com.amazonaws | aws-java-sdk-kms | 1.11.253 |
com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
com.amazonaws | aws-java-sdk-logs | 1.11.253 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.253 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
com.amazonaws | aws-java-sdk-rds | 1.11.253 |
com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
com.amazonaws | aws-java-sdk-ses | 1.11.253 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
com.amazonaws | aws-java-sdk-sns | 1.11.253 |
com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.253 |
com.amazonaws | aws-java-sdk-sts | 1.11.253 |
com.amazonaws | aws-java-sdk-support | 1.11.253 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
com.amazonaws | jmespath-java | 1.11.253 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | flujo | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.3.0-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.3.0-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | kryo-shaded | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.0.11 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0,3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2.2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0.8 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | recopilador | 0.7 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2,11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pyrolite | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4,7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.8.0 |
org.apache.arrow | arrow-memory | 0.8.0 |
org.apache.arrow | arrow-vector | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0-incubating |
org.apache.calcite | calcite-core | 1.2.0-incubating |
org.apache.calcite | calcite-linq4j | 1.2.0-incubating |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3,5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curator-client | 2.7.1 |
org.apache.curator | curator-framework | 2.7.1 |
org.apache.curator | curator-recipes | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | ivy | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | parquet-encoding | 1.8.2-databricks1 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4. |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0,2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | unused | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1,0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |