Tempo de execução do Databricks 4.0 (EoS)
Nota
O suporte para esta versão do Databricks Runtime terminou. Para obter a data de fim do suporte, consulte Histórico de fim do suporte. Para todas as versões suportadas do Databricks Runtime, consulte Versões e compatibilidade das notas de versão do Databricks Runtime.
A Databricks lançou esta versão em março de 2018.
Importante
Esta versão foi preterida em 1º de novembro de 2018. Para obter mais informações sobre a política e o cronograma de substituição do Databricks Runtime, consulte Ciclos de vida de suporte do Databricks.
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 4.0, desenvolvido pelo Apache Spark.
Alterações e melhorias
- A fonte de dados JSON agora tenta detetar automaticamente a codificação em vez de assumir que seja UTF-8. Nos casos em que a deteção automática falha, os usuários podem especificar a opção charset para impor uma determinada codificação. Consulte Deteção automática de Charset.
- A pontuação e a previsão usando pipelines do Spark MLlib no Streaming estruturado são totalmente suportadas.
- O Databricks ML Model Export é totalmente suportado. Com esse recurso, você pode treinar um modelo Spark MLlib no Databricks, exportá-lo com uma chamada de função e usar uma biblioteca Databricks no sistema de sua escolha para importar o modelo e pontuar novos dados.
- Uma nova implementação de fonte de dados do Spark oferece acesso escalável de leitura/gravação ao Azure Synapse Analytics. Consulte Spark - Synapse Analytics Connector.
- O esquema da
from_json
função agora é sempre convertido em anulável. Em outras palavras, todos os campos, incluindo os aninhados, são anuláveis. Isso garante que os dados sejam compatíveis com o esquema, evitando corrupção depois de gravar os dados no parquet quando um campo estiver ausente nos dados e o esquema fornecido pelo usuário declarar o campo como não anulável. - Atualizado algumas bibliotecas Python instaladas:
- Futuros: de 3.1.1 a 3.2.0
- Pandas: de 0.18.1 a 0.19.2
- Pyarrow: de 0.4.1 a 0.8.0
- setuptools: de 38.2.3 a 38.5.1
- tornado: 4.5.2 a 4.5.3
- Atualizadas várias bibliotecas R instaladas. Consulte Bibliotecas R instaladas.
- AWS Java SDK atualizado de 1.11.126 para 1.11.253.
- Driver JDBC do SQL Server atualizado de 6.1.0.jre8 para 6.2.2.jre8.
- Driver JDBC PostgreSQL atualizado de 9.4-1204-jdbc41 para 42.1.4.
Apache Spark
O Databricks Runtime 4.0 inclui o Apache Spark 2.3.0.
Core, PySpark e Spark SQL
Principais características
- Leitor ORC vetorizado: [SPARK-16060]: Adiciona suporte para o novo leitor ORC que melhora substancialmente a taxa de transferência de varredura ORC através da vetorização (2-5x). Para habilitar o leitor, os usuários podem definir
spark.sql.orc.impl
comonative
. - Spark History Server V2: [SPARK-18085]: Um novo back-end do spark history server (SHS) que fornece melhor escalabilidade para aplicativos de grande escala com um mecanismo de armazenamento de eventos mais eficiente.
- API de fonte de dados V2: [SPARK-15689][SPARK-22386]: Uma API experimental para conectar novas fontes de dados no Spark. A nova API tenta abordar várias limitações da API V1 e visa facilitar o desenvolvimento de fontes de dados externas de alto desempenho, fáceis de manter e extensíveis. Esta API ainda está em desenvolvimento ativo e mudanças de quebra devem ser esperadas.
- Aprimoramentos de desempenho do PySpark: [SPARK-22216][SPARK-21187]: Melhorias significativas no desempenho e interoperabilidade do Python por serialização rápida de dados e execução vetorizada.
Desempenho e estabilidade
- [SPARK-21975]: Suporte a histogramas em otimizador baseado em custos.
- [SPARK-20331]: Melhor suporte para pushdown de predicados para poda de partições do Hive.
- [SPARK-19112]: Suporte para codec de compressão ZStandard.
- [SPARK-21113]: Suporte para fluxo de entrada de leitura antecipada para amortizar o custo de E/S do disco no leitor de vazamento.
- [FAÍSCA-22510][FAÍSCA-22692][SPARK-21871]: Estabilize ainda mais a estrutura codegen para evitar atingir o limite de bytecode da JVM de 64KB no método Java e no limite do pool constante do compilador Java.
- [SPARK-23207]: Corrigido um bug de longa data no Spark em que shuffle+repartition consecutivo em um DataFrame poderia levar a respostas incorretas em certos casos cirúrgicos.
- [FAÍSCA-22062][FAÍSCA-17788][SPARK-21907]: Corrigir várias causas de OOMs.
- [FAÍSCA-22489][FAÍSCA-22916][FAÍSCA-22895][FAÍSCA-20758][FAÍSCA-22266][FAÍSCA-19122][FAÍSCA-22662][SPARK-21652]: Aprimoramentos no otimizador e planejador baseados em regras.
Outras mudanças notáveis
- [SPARK-20236]: Suporta semântica de substituição de partição dinâmica no estilo Hive.
- [SPARK-4131]: Suporte
INSERT OVERWRITE DIRECTORY
para gravar dados diretamente no sistema de arquivos a partir de uma consulta. - [FAÍSCA-19285][FAÍSCA-22945][FAÍSCA-21499][FAÍSCA-20586][FAÍSCA-20416][SPARK-20668]: melhorias UDF.
- [FAÍSCA-20463][FAÍSCA-19951][FAÍSCA-22934][FAÍSCA-21055][FAÍSCA-17729][FAÍSCA-20962][FAÍSCA-20963][FAÍSCA-20841][FAÍSCA-17642][FAÍSCA-22475][SPARK-22934]: Melhoria da conformidade com ANSI SQL e compatibilidade com Hive.
- [SPARK-20746]: Funções incorporadas SQL mais abrangentes.
- [SPARK-21485]: Geração de documentação do Spark SQL para funções integradas.
- [SPARK-19810]: Remova o suporte para Scala
2.10
. - [SPARK-22324]: Atualize a seta para
0.8.0
e Netty para4.1.17
.
Transmissão em Fluxo Estruturada
Processamento Contínuo
- Um novo mecanismo de execução que pode executar consultas de streaming com latência de ponta a ponta inferior a milissegundos alterando apenas uma única linha de código do usuário. Para saber mais, consulte o guia de programação.
Stream-Stream junta-se
- Capacidade de unir dois fluxos de dados, buffering linhas até que tuplas correspondentes cheguem no outro fluxo. Os predicados podem ser usados em colunas de tempo de evento para vincular a quantidade de estado que precisa ser retida.
Streaming API V2
- Uma API experimental para conectar novas fontes e coletores que funciona para execução em lote, microlote e contínua. Esta API ainda está em desenvolvimento ativo, e mudanças significativas devem ser esperadas.
MLlib
Destaques
- O ML Prediction agora funciona com Structured Streaming, usando APIs atualizadas. Seguem-se os detalhes.
APIs novas e melhoradas
- [SPARK-21866]: Suporte integrado para leitura de imagens em um DataFrame (Scala/Java/Python).
- [SPARK-19634]: Funções DataFrame para estatísticas de resumo descritivo sobre colunas vetoriais (Scala/Java).
- [SPARK-14516]:
ClusteringEvaluator
para ajustar algoritmos de clustering, suportando silhueta Cosine e métricas de silhueta Euclidiana quadrada (Scala/Java/Python). - [SPARK-3181]: Regressão linear robusta com perda de Huber (Scala/Java/Python).
- [SPARK-13969]:
FeatureHasher
transformador (Scala/Java/Python). - Suporte de várias colunas para vários transformadores de funcionalidade:
- [SPARK-13030]:
OneHotEncoderEstimator
(Scala/Java/Python) - [SPARK-22397]:
QuantileDiscretizer
(Scala/Java) - [SPARK-20542]:
Bucketizer
(Scala/Java/Python)
- [SPARK-13030]:
- [FAÍSCA-21633] e SPARK-21542]: Suporte aprimorado para componentes de pipeline personalizados em Python.
Novas funcionalidades
- [SPARK-21087]:
CrossValidator
eTrainValidationSplit
pode coletar todos os modelos ao encaixar (Scala/Java). Isso permite que você inspecione ou salve todos os modelos instalados. - [SPARK-19357]: Meta-algoritmos ,
TrainValidationSplit
,OneVsRest
suportam um paralelismo Param para encaixar vários sub-modelos em trabalhos paralelosCrossValidator
do Spark. - [SPARK-17139]: Resumo do modelo para regressão logística multinomial (Scala/Java/Python)
- [SPARK-18710]: Adicionar deslocamento no GLM.
- [SPARK-20199]: Adicionado
featureSubsetStrategy
Param aGBTClassifier
eGBTRegressor
. Usar isso para subamostrar recursos pode melhorar significativamente a velocidade de treinamento; Esta opção tem sido um ponto forte daxgboost
.
Outras mudanças notáveis
- [SPARK-22156]: Escalonamento fixo
Word2Vec
da taxa de aprendizagem comnum
iterações. A nova taxa de aprendizagem está definida para corresponder ao código C originalWord2Vec
e deve dar melhores resultados do treinamento. - [SPARK-22289]: Adicionar
JSON
suporte para parâmetros Matrix (Isso corrigiu um bug para persistência de ML aoLogisticRegressionModel
usar limites em coeficientes.) - [SPARK-22700]:
Bucketizer.transform
descarte incorretamente a linha que contémNaN
. Quando ParamhandleInvalid
foi definido como "skip",Bucketizer
soltaria uma linha com um valor válido na coluna de entrada se outra coluna (irrelevante) tivesse umNaN
valor. - [SPARK-22446]: O otimizador do Catalyst às vezes fazia com que
StringIndexerModel
lançasse uma exceção incorreta de "rótulo invisível" quandohandleInvalid
estava definida como "erro". Isso pode acontecer para dados filtrados, devido ao push-down de predicados, causando erros mesmo depois que linhas inválidas já foram filtradas do conjunto de dados de entrada. - [SPARK-21681]: Corrigido um bug de caso de borda na regressão logística multinomial que resultava em coeficientes incorretos quando alguns recursos tinham variância zero.
- Principais otimizações:
- [SPARK-22707]: Consumo de memória reduzido para
CrossValidator
. - [SPARK-22949]: Consumo de memória reduzido para
TrainValidationSplit
. - [SPARK-21690]:
Imputer
deve treinar usando uma única passagem sobre os dados. - [SPARK-14371]:
OnlineLDAOptimizer
evita a recolha de estatísticas para o condutor para cada minilote.
- [SPARK-22707]: Consumo de memória reduzido para
SparkR
O foco principal do SparkR na versão 2.3.0 foi melhorar a estabilidade dos UDFs e adicionar vários novos wrappers SparkR em torno das APIs existentes:
Principais características
- Paridade de função melhorada entre SQL e R
- [SPARK-22933]: APIs de streaming estruturado para
withWatermark
,trigger
partitionBy
e junções de fluxo de fluxo. - [SPARK-21266]: UDF SparkR com suporte a esquema formatado em DDL.
- [FAÍSCA-20726][FAÍSCA-22924][SPARK-22843]: Vários novos wrappers de API de dataframe.
- [FAÍSCA-15767][FAÍSCA-21622][FAÍSCA-20917][FAÍSCA-20307][SPARK-20906]: Vários novos wrappers de API SparkML.
GraphX
Otimizações
- [SPARK-5484]: Pregel agora pontos de verificação periodicamente para evitar
StackOverflowErrors
. - [SPARK-21491]: Pequena melhoria de desempenho em vários locais.
Preterições
Python
- [SPARK-23122]: Depreciar
register*
UDFs dentroSQLContext
eCatalog
no PySpark
MLlib
- [SPARK-13030]:
OneHotEncoder
foi preterido e será removido na versão 3.0. Foi substituído pelo novoOneHotEncoderEstimator
.OneHotEncoderEstimator
será renomeado paraOneHotEncoder
em 3.0 (masOneHotEncoderEstimator
será mantido como um alias).
Mudanças de comportamento
SparkSQL
- [SPARK-22036]: Por padrão, as operações aritméticas entre decimais retornam um valor arredondado se uma representação exata não for possível (em vez de retornar
NULL
nas versões anteriores) - [SPARK-22937]: Quando todas as entradas são binárias, o SQL
elt()
retorna uma saída como binária. Caso contrário, ele retorna como uma cadeia de caracteres. Em versões anteriores, ele sempre retornava como uma cadeia de caracteres, independentemente dos tipos de entrada. - [SPARK-22895]: Os predicados determinísticos de Join/Filter que estão após os primeiros predicados não determinísticos também são empurrados para baixo/através dos operadores filho, se possível. Nas versões anteriores, esses filtros não eram elegíveis para pushdown de predicados.
- [SPARK-22771]: Quando todas as entradas são binárias,
functions.concat()
retorna uma saída como binária. Caso contrário, ele retorna como uma cadeia de caracteres. Nas versões anteriores, ele sempre retornava como uma cadeia de caracteres, independentemente dos tipos de entrada. - [SPARK-22489]: Quando qualquer um dos lados da junção é transmitido, preferimos transmitir a tabela explicitamente especificada em uma dica de transmissão.
- [SPARK-22165]: Inferência de coluna de partição anteriormente encontrada tipo comum incorreto para diferentes tipos inferidos. Por exemplo, anteriormente acabava com
double
o tipo como o tipo comum paradouble
tipo edate
tipo. Agora encontra o tipo comum correto para tais conflitos. Para obter detalhes, consulte o guia de migração. - [SPARK-22100]: A
percentile_approx
função previamente aceitenumeric
tipo entrada e saídadouble
tipo resultados. Agora ele suportadate
tipo,timestamp
tipo enumeric
tipos como tipos de entrada. O tipo de resultado também é alterado para ser o mesmo que o tipo de entrada, o que é mais razoável para percentis. - [SPARK-21610]: as consultas de arquivos JSON/CSV brutos não são permitidas quando as colunas referenciadas incluem apenas a coluna de registro corrompido interna (nomeada
_corrupt_record
por padrão). Em vez disso, você pode armazenar em cache ou salvar os resultados analisados e, em seguida, enviar a mesma consulta. - [SPARK-23421]: Desde o Spark 2.2.1 e 2.3.0, o esquema é sempre inferido em tempo de execução quando as tabelas de fonte de dados têm as colunas que existem no esquema de partição e no esquema de dados. O esquema inferido não tem as colunas particionadas. Ao ler a tabela, o Spark respeita os valores de partição dessas colunas sobrepostas em vez dos valores armazenados nos arquivos de fonte de dados. Nas versões 2.2.0 e 2.1.x, o esquema inferido é particionado, mas os dados da tabela são invisíveis para os usuários (ou seja, o conjunto de resultados está vazio).
PySpark
- [SPARK-19732]:
na.fill()
oufillna
também aceita booleanos e substitui nulos por booleanos. Em versões anteriores do Spark, o PySpark simplesmente o ignora e retorna o Dataset/DataFrame original. - [SPARK-22395]: pandas
0.19.2
ou superior é necessário para usar funcionalidades relacionadas a pandas, comotoPandas
,createDataFrame
de pandas DataFrame, etc. - [SPARK-22395]: O comportamento dos valores de carimbo de data/hora para funcionalidades relacionadas a pandas foi alterado para respeitar o fuso horário da sessão, o que é ignorado nas versões anteriores.
- [SPARK-23328]:
df.replace
não permite omitirvalue
quandoto_replace
não é um dicionário. Anteriormente,value
podia ser omitido nos outros casos e tinhaNone
por defeito, o que é contraintuitivo e propenso a erros.
MLlib
- Quebrando alterações na API: A hierarquia de classes e traços para resumos de modelos de regressão logística foi alterada para ser mais limpa e acomodar melhor a adição do resumo de várias classes. Esta é uma alteração de quebra para o código do usuário que converte a
LogisticRegressionTrainingSummary
para umBinaryLogisticRegressionTrainingSummary
arquivo . Os usuários devem, em vez disso, usar omodel.binarySummary
método. Consulte [SPARK-17139]: para obter mais detalhes (observe que esta é uma@Experimental
API). Isso não afeta o método de resumo do Python, que ainda funcionará corretamente para casos multinomiais e binários. - [SPARK-21806]:
BinaryClassificationMetrics.pr()
o primeiro ponto (0,0, 1,0) é enganoso e foi substituído por (0,0, p) em que a precisão p corresponde ao ponto de recolha mais baixo. - [SPARK-16957]: As árvores de decisão agora usam pontos médios ponderados ao escolher valores divididos. Isso pode mudar os resultados do treinamento do modelo.
- [SPARK-14657]:
RFormula
sem uma intercetação agora produz a categoria de referência ao codificar termos de cadeia de caracteres, a fim de corresponder ao comportamento R nativo. Isso pode mudar os resultados do treinamento do modelo. - [SPARK-21027]: O paralelismo padrão usado agora
OneVsRest
está definido como 1 (ou seja, serial). Na versão 2.2 e versões anteriores, o nível de paralelismo foi definido como o tamanho padrão do threadpool no Scala. Isso pode alterar o desempenho. - [SPARK-21523]: Brisa atualizada para
0.13.2
. Isso incluiu uma importante correção de bug na forte busca de linha Wolfe para L-BFGS. - [SPARK-15526]: A dependência JPMML agora está sombreada.
- Consulte também a seção "Correções de bugs" para alterações de comportamento resultantes da correção de bugs.
Problemas conhecidos
- [FAÍSCA-23523][SQL]: Resultado incorreto causado pela regra
OptimizeMetadataOnlyQuery
. - [SPARK-23406]: Bugs em auto-junções de fluxo de fluxo.
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 4.0.
Ambiente do sistema
- Sistema Operacional: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Escala: 2.11.8
- Python: 2.7.12 (ou 3.5.2 se utilizar Python 3)
- R: R versão 3.4.3 (2017-11-30)
- Clusters GPU: As seguintes bibliotecas de GPU NVIDIA estão instaladas:
- Piloto da Tesla 375.66
- CUDA 8.0
- CUDNN 6.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
brewer2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
criptografia | 1.5 | cycler | 0.10.0 | Quisto | 0.24.1 |
decorador | 4.0.10 | docutils | 0.14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | futuros | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0.999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0.2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | patsy | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Travesseiro | 3.3.1 |
pip | 9.0.1 | ply | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
pedidos | 2.11.1 | s3transferir | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | vasculhar | 0.32 | seaborn | 0.7.1 |
setuptools | 38.5.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | seis | 1.10.0 | statsmodels | 0.6.1 |
tornado | 4.5.3 | traços | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | largura de wc | 0.1.7 | roda | 0.30.0 |
wsgiref | 0.1.2 |
Bibliotecas R instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
abind | 1.4-5 | asserçãoat | 0.2.0 | backports | 1.1.1 |
base | 3.4.3 | BH | 1.65.0-1 | bindr | 0.1 |
bindrcpp | 0.2 | bit | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.0 | arranque | 1.3-20 |
brew | 1.0-6 | vassoura | 0.4.3 | carro | 2.1-6 |
acento circunflexo | 6.0-77 | crono | 2.3-51 | classe | 7.3-14 |
cluster | 2.0.6 | codetools | 0.2-15 | espaço em cores | 1.3-2 |
marca comum | 1.4 | compilador | 3.4.3 | lápis de cor | 1.3.4 |
curl | 3.0 | CVST | 0.2-1 | data.table | 1.10.4-3 |
conjuntos de dados | 3.4.3 | DBI | 0.7 | ddalpha | 1.3.1 |
DEoptimR | 1.0-8 | desc | 1.1.1 | devtools | 1.13.4 |
dichromat | 2.0-0 | resumo | 0.6.12 | dimRed | 0.1.0 |
doMC | 1.3.4 | dplyr | 0.7.4 | DRR | 0.0.2 |
foreach | 1.4.3 | externa | 0.8-69 | gbm | 2.1.3 |
ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
colar | 1.2.0 | gower | 0.1.2 | gráficos | 3.4.3 |
grDevices | 3.4.3 | grelha | 3.4.3 | gsubfn | 0.6-6 |
gtable | 0.2.0 | h2o | 3.16.0.1 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
iteradores | 1.0.8 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | etiquetagem | 0.3 | lattice | 0.20-35 |
lava | 1.5.1 | lazyeval | 0.2.1 | littler | 0.3.2 |
lme4 | 1.1-14 | lubridate | 1.7.1 | magrittr | 1.5 |
mapproj | 1.2-5 | mapas | 3.2.0 | MASSA | 7.3-48 |
Matriz | 1.2-11 | MatrizModels | 0.4-1 | memoise | 1.1.0 |
métodos | 3.4.3 | mgcv | 1.8-23 | mime | 0.5 |
minqa | 1.2.4 | mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
munsell | 0.4.3 | mvtnorm | 1.0-6 | nlme | 3.1-131 |
nloptr | 1.0.4 | nnet | 7.3-12 | numDeriv | 2016.8-1 |
openssl | 0.9.9 | paralelo | 3.4.3 | pbkrtest | 0.4-7 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
plyr | 1.8.4 | elogiar | 1.0.0 | pROC | 1.10.0 |
prodlim | 1.6.1 | proto | 1.0.0 | psique | 1.7.8 |
purrr | 0.2.4 | quantreg | 5.34 | R.methodsS3 | 1.7.1 |
R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
randomForest | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
receitas | 0.1.1 | remodelar2 | 1.4.2 | rlang | 0.1.4 |
robustbase | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
rpart | 4.1-12 | rprojroot | 1.2 | Rserve | 1.7-3 |
RSQLite | 2.0 | rstudioapi | 0.7 | escalas | 0.5.0 |
sfsmisc | 1.1-1 | sp | 1.2-5 | SparkR | 2.3.0 |
Disperso | 1.77 | espacial | 7.3-11 | splines | 3.4.3 |
sqldf | 0.4-11 | estatmod | 1.4.30 | estatísticas | 3.4.3 |
stats4 | 3.4.3 | stringi | 1.1.6 | stringr | 1.2.0 |
sobrevivência | 2.41-3 | tcltk | 3.4.3 | TeachingDemos | 2.10 |
testeatat | 1.0.2 | tibble | 1.3.4 | tidyr | 0.7.2 |
tidyselect | 0.2.3 | timeDate | 3042.101 | ferramentas | 3.4.3 |
utilitários | 3.4.3 | viridisLite | 0.2.0 | whisker | 0.3-2 |
withr | 2.1.0 | xml2 | 1.1.1 |
Bibliotecas Java e Scala instaladas (versão do cluster Scala 2.11)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
com.amazonaws | aws-java-sdk-config | 1.11.253 |
com.amazonaws | aws-java-sdk-core | 1.11.253 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
com.amazonaws | aws-java-sdk-directory | 1.11.253 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
com.amazonaws | aws-java-sdk-efs | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.253 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
com.amazonaws | aws-java-sdk-emr | 1.11.253 |
com.amazonaws | aws-java-sdk-glacier | 1.11.253 |
com.amazonaws | aws-java-sdk-iam | 1.11.253 |
com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.253 |
com.amazonaws | aws-java-sdk-kms | 1.11.253 |
com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
com.amazonaws | aws-java-sdk-logs | 1.11.253 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.253 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
com.amazonaws | aws-java-sdk-rds | 1.11.253 |
com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
com.amazonaws | aws-java-sdk-ses | 1.11.253 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
com.amazonaws | aws-java-sdk-sns | 1.11.253 |
com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.253 |
com.amazonaws | aws-java-sdk-sts | 1.11.253 |
com.amazonaws | aws-java-sdk-support | 1.11.253 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
com.amazonaws | jmespath-java | 1.11.253 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | transmissão em fluxo | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.3.0-DB1-Faísca2.3 |
com.databricks | dbml-local_2.11-tests | 0.3.0-DB1-Faísca2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | sombreado de kryo | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.0.0 |
com.fasterxml.jackson.core | jackson-anotações | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | núcleo | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-nativos | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | ZSTD-JNI | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.0.11 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.JRE8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.4 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-net | commons-net | 2.2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.ponte aérea | compressor de ar | 0.8 |
io.dropwizard.metrics | metrics-core | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metrics-healthchecks | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metrics-servlets | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | recoletor | 0.7 |
javax.activation | ativação | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1.1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pirolite | 4.13 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato de seta | 0.8.0 |
org.apache.arrow | seta-memória | 0.8.0 |
org.apache.arrow | vetor de seta | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0 incubação |
org.apache.calcite | calcite-core | 1.2.0 incubação |
org.apache.calcite | calcite-linq4j | 1.2.0 incubação |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.curator | curador-cliente | 2.7.1 |
org.apache.curator | curador-framework | 2.7.1 |
org.apache.curator | curador-receitas | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0 incubação |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | hera | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | parquet-encoding | 1.8.2-databricks1 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-continuation | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | localizador hk2 | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | jersey-common | 2.22.2 |
org.glassfish.jersey.core | servidor de jersey | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | hibernate-validator | 5.1.1.Final |
org.iq80.snappy | snappy | 0.2 |
org.javassist | javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | LZ4-Java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | teste de primavera | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | macro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0.52 |