Tempo de execução do Databricks 11.3 LTS
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 11.3 LTS, alimentado pelo Apache Spark 3.3.0. A Databricks lançou esta versão em outubro de 2022.
Nota
LTS significa que esta versão está sob suporte a longo prazo. Consulte Ciclo de vida da versão do Databricks Runtime LTS.
Gorjeta
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
[Mudança de rutura] Nova versão do Python requer atualização de clientes Python Databricks Connect V1
Para aplicar os patches de segurança necessários, a versão Python no Databricks Runtime 11.3 LTS é atualizada de 3.9.5 para 3.9.19. Como essas alterações podem causar erros em clientes que usam funções específicas do PySpark, todos os clientes que usam o Databricks Connect V1 for Python com Databricks Runtime 11.3 LTS devem ser atualizados para Python 3.9.7 ou posterior.
Novos recursos e melhorias
- O gatilho de Streaming estruturado uma vez preterido
- Alterar o caminho de origem do Auto Loader
- O conector Databricks Kinesis agora suporta a leitura de fluxos de dados do Kinesis no modo EFO
- Novas funções geoespaciais H3 e adicionado suporte a fótons para todas as funções H3
- Novos recursos para E/S preditiva
- Aumentando as partições iniciais para procurar consultas seletivas
- Visualização de novas versões do plano AQE
- Novos modos assíncronos de acompanhamento de progresso e limpeza de logs
- Streaming estruturado no catálogo Unity agora suporta
display()
- Os eventos de pipeline agora são registrados no formato JSON
- Processamento arbitrário com estado em streaming estruturado com Python
- Inferência de data em arquivos CSV
- Suporte de clonagem para tabelas Apache Parquet e Apache Iceberg (Visualização pública)
- Use SQL para especificar locais de armazenamento no nível de esquema e catálogo para tabelas gerenciadas do Unity Catalog
O gatilho de Streaming estruturado uma vez preterido
A Trigger.Once
configuração foi preterida. A Databricks recomenda o uso do Trigger.AvailableNow
. Consulte Configurar intervalos de gatilho de Streaming Estruturado.
Alterar o caminho de origem do Auto Loader
Agora você pode alterar o caminho de entrada do diretório para o Auto Loader configurado com o modo de listagem de diretórios sem ter que escolher um novo diretório de ponto de verificação. Consulte Alterar o caminho de origem do Auto Loader.
O conector Databricks Kinesis agora suporta a leitura de fluxos de dados do Kinesis no modo EFO
Agora você pode usar a fonte de streaming estruturada do Databricks Kinesis no Databricks Runtime 11.3 LTS para executar consultas lidas de fluxos do Kinesis Data no modo de distribuição avançado. Isso permite uma taxa de transferência dedicada por fragmento, por consumidor e entrega de registros no modo push.
Novas funções geoespaciais H3 e adicionado suporte a fótons para todas as funções H3
Apresentamos 4 novas funções H3, h3_maxchild
, h3_minchild
, h3_pointash3
, e h3_pointash3string
. Essas funções estão disponíveis em SQL, Scala e Python. Todas as expressões H3 agora são suportadas no Photon. Ver funções geoespaciais H3.
Novos recursos para E/S preditiva
Photon suporta o modo de alcance para executar quadros, usando RANGE BETWEEN UNBOUNDED PRECEDING AND CURRENT ROW
. Photon também suporta o modo de alcance para quadros de crescimento, usando RANGE BETWEEN UNBOUNDED PRECEDING AND offset_stop { PRECEDING | FOLLOWING }
.
Aumentando as partições iniciais para procurar consultas seletivas
O valor das partições iniciais a serem verificadas foi aumentado para 10 para consulta seletiva com take/tail/limit
clusters habilitados para Photon e LIMIT
Databricks SQL. Com 10 partições, você pode evitar a sobrecarga de iniciar vários trabalhos pequenos e uma expansão lenta. Você também pode configurar isso através do spark.sql.limit.selectiveInitialNumPartitions
.
Visualização de novas versões do plano AQE
Apresentando versões de plano AQE que permitem visualizar as atualizações do plano de tempo de execução a partir da execução de consulta adaptável (AQE).
Novos modos assíncronos de acompanhamento de progresso e limpeza de logs
Introdução aos modos de Streaming Estruturado chamados acompanhamento de progresso assíncrono e limpeza assíncrona de logs. O modo assíncrono de limpeza de logs reduz a latência das consultas de streaming, removendo os logs usados para o acompanhamento do progresso em segundo plano.
Streaming estruturado no catálogo Unity agora suporta display()
Agora você pode usar display()
o Streaming estruturado para trabalhar com tabelas registradas no Unity Catalog.
Os eventos de pipeline agora são registrados no formato JSON
O Azure Databricks agora grava eventos de pipeline no log do driver no formato JSON. Embora cada evento seja analisável por JSON, eventos grandes podem não conter todos os campos ou os campos podem ser truncados. Cada evento é registrado em uma única linha com o prefixo Event received:
. Segue-se um exemplo de evento.
Event received: {"id":"some-event-id","origin":{"pipeline_id":"some-pipeline-id","cluster_id":"some-cluster id"},"message":"simple [truncated] message","level":"WARN"}
Processamento arbitrário com estado em streaming estruturado com Python
Apresentando a applyInPandasWithState
função que pode ser usada para executar processamento stateful arbitrário no PySpark. Isso é equivalente à flatMapGroupsWithState
função na API Java.
Inferência de data em arquivos CSV
Introdução de inferência melhorada de colunas de tipo de data em ficheiros CSV. Quando o formato de data é consistente entre os registros de uma coluna, essas colunas podem ser inferidas como DateType
. Você também pode ter uma combinação de formatos de data em diferentes colunas. O Azure Databricks pode inferir automaticamente o formato de data para cada coluna. As colunas de data em arquivos CSV anteriores ao Databricks Runtime 11.3 LTS são deixadas como StringType
.
Suporte de clonagem para tabelas Apache Parquet e Apache Iceberg (Visualização pública)
O clone agora pode ser usado para criar e atualizar incrementalmente tabelas Delta que espelham tabelas Apache Parquet e Apache Iceberg. Você pode atualizar sua tabela Parquet de origem e aplicar incrementalmente as alterações à tabela Delta clonada com o comando clone. Veja Tabelas de Parquet e Iceberg clonadas incrementalmente para Delta Lake.
Use SQL para especificar locais de armazenamento no nível de esquema e catálogo para tabelas gerenciadas do Unity Catalog
Agora você pode usar o MANAGED LOCATION
comando SQL para especificar um local de armazenamento em nuvem para tabelas gerenciadas nos níveis de catálogo e esquema. Consulte CREATE CATALOG e CREATE SCHEMA.
Alterações de comportamento
Databricks Connect 11.3.2
A atualização 11.3.2 do cliente Databricks Connect agora é suportada. Consulte Notas de versão do Databricks Connect e do Databricks Connect.
Conector Snowflake do Azure Databricks atualizado
O conector Snowflake do Azure Databricks foi atualizado para a versão mais recente do código do repositório de código aberto, Snowflake Data Source for Apache Spark. Agora é totalmente compatível com o Databricks Runtime 11.3 LTS, incluindo pushdown de predicados e pushdown de plano de consulta interno, mantendo todos os recursos da versão de código aberto.
O cache do Hadoop para S3A agora está desativado
O cache Hadoop (FileSystem Apache Hadoop Main 3.3.4 API) para S3A agora está desativado. Isso é para alinhar com outros conectores de armazenamento em nuvem. Para cargas de trabalho que dependem do cache do sistema de arquivos, certifique-se de que os sistemas de arquivos recém-criados sejam fornecidos com as configurações corretas do Hadoop, incluindo provedores de credenciais.
O esquema de coleta de estatísticas do Delta Lake agora corresponde à ordem das colunas na definição do esquema da tabela
Essa alteração resolve um bug no protocolo Delta Lake em que as estatísticas não foram coletadas para colunas devido a uma incompatibilidade no DataFrame e na ordem de colunas da tabela. Em alguns casos, você pode encontrar degradação do desempenho de gravação devido à coleta de estatísticas em campos não rastreados anteriormente. Consulte Pulo de dados para Delta Lake.
applyInPandasWithState lança um erro se a consulta tiver um shuffle após o operador
O operador applyInPandasWithState
lança um erro se a consulta tiver shuffle
depois do operador. Isso acontece quando o usuário adiciona shuffle
após a operação, ou o otimizador ou coletor adiciona shuffle
implicitamente.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- distlib de 0.3.5 a 0.3.6
- Bibliotecas R atualizadas:
- Vassoura de 1.0.0 a 1.0.1
- chamador de 3.7.1 a 3.7.2
- dplyr de 1.0.9 a 1.0.10
- dtplyr de 1.2.1 a 1.2.2
- forcats de 0.5.1 a 0.5.2
- futuro de 1.27.0 a 1.28.0
- future.apply de 1.9.0 a 1.9.1
- Gert de 1.7.0 a 1.8.0
- globais de 0.16.0 a 0.16.1
- gtable de 0.3.0 a 0.3.1
- refúgio de 2.5.0 a 2.5.1
- HMS de 1.1.1 a 1.1.2
- httr de 1.4.3 a 1.4.4
- knitr de 1,39 a 1,40
- Modelador de 0.1.8 a 0.1.9
- pilar de 1.8.0 a 1.8.1
- progredir de 0.10.1 a 0.11.0
- readxl de 1.4.0 a 1.4.1
- reprex de 2.0.1 a 2.0.2
- RLANG de 1.0.4 a 1.0.5
- Rmarkdown de 2,14 para 2,16
- RSQLite de 2.2.15 a 2.2.16
- rstudioapi de 0.13 a 0.14
- Rversões de 2.1.1 para 2.1.2
- rvest de 1.0.2 a 1.0.3
- escalas de 1.2.0 a 1.2.1
- Sparklyr de 1.7.7 a 1.7.8
- stringr de 1.4.0 a 1.4.1
- sobrevida de 3,2-13 a 3,4-0
- tinytex de 0,40 a 0,41
- viridisLite de 0.4.0 a 0.4.1
- Bibliotecas Java atualizadas:
- com.fasterxml.jackson.core.jackson-anotações de 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-core de 2.13.3 a 2.13.4
- com.fasterxml.jackson.core.jackson-databind de 2.13.3 a 2.13.4
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.3 a 2.13.4
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.3 a 2.13.4
- com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.3 a 2.13.4
- org.apache.hadoop.hadoop-client-api de 3.3.2-databricks para 3.3.4-databricks
- org.apache.hadoop.hadoop-client-runtime de 3.3.2 a 3.3.4
- org.apache.orc.orc-core de 1.7.5 a 1.7.6
- org.apache.orc.orc-mapreduce de 1.7.5 para 1.7.6
- org.apache.orc.orc-shims de 1.7.5 a 1.7.6
- org.apache.parquet.parquet-coluna de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-comum de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-codificação de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-format-structures de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-hadoop de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.apache.parquet.parquet-jackson de 1.12.0-databricks-0004 a 1.12.0-databricks-0007
- org.glassfish.jersey.containers.jersey-container-servlet de 2,34 a 2,36
- org.glassfish.jersey.containers.jersey-container-servlet-core de 2,34 a 2,36
- org.glassfish.jersey.core.jersey-client de 2.34 a 2.36
- org.glassfish.jersey.core.jersey-comum de 2,34 a 2,36
- org.glassfish.jersey.core.jersey-server de 2.34 a 2.36
- org.glassfish.jersey.inject.jersey-hk2 de 2,34 a 2,36
Faísca Apache
O Databricks Runtime 11.3 LTS inclui o Apache Spark 3.3.0. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 11.2 (EoS), bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
- [FAÍSCA-39957] [WARMFIX][SC-111425][CORE] Delay onDesconectado para habilitar Driver recebe ExecutorExitCode
- [FAÍSCA-39955] [WARMFIX][SC-111424][CORE] Melhore o processo LaunchTask para evitar falhas no Stage causadas por mensagens LaunchTask com falha no envio
- [FAÍSCA-40474] [SC-106248][Escolha a dedo] Corrigir o comportamento de inferência de esquema CSV para colunas datetime e introduzir a deteção automática para campos Date
- [FAÍSCA-40535] [SC-111243][SQL] Corrigir bug: o buffer de AggregatingAccumulator não será criado se as linhas de entrada estiverem vazias
- [FAÍSCA-40434] [SC-111125][SC-111144][SC-111138][FAÍSCA-40435][11.3][SS][PYTHON] Implementar applyInPandasWithState no PySpark
- [FAÍSCA-40460] [SC-110832][SS] Corrigir métricas de streaming ao selecionar
_metadata
- [FAÍSCA-40324] [SC-109943][SQL] Fornecer um contexto de consulta de
ParseException
- [FAÍSCA-40466] [SC-110899][SS] Melhorar a mensagem de erro quando o DSv2 está desativado enquanto o DSv1 não está disponível
- [FAÍSCA-40456] [SC-110848][SQL] PartitionIterator.hasNext deve ser barato para chamar repetidamente
- [FAÍSCA-40169] [SC-110772][SQL] Não pressione filtros Parquet sem referência ao esquema de dados
- [FAÍSCA-40467] [SC-110759][SS] Dividir FlatMapGroupsWithState em vários pacotes de teste
- [FAÍSCA-40468] [SC-110813][SQL] Corrigir remoção de coluna em CSV quando _corrupt_record é selecionado
- [FAÍSCA-40291] [SC-110085][SQL] Melhorar a mensagem para coluna que não está no grupo por erro de cláusula
- [FAÍSCA-40398] [SC-110762][CORE][SQL] Use Loop em vez da api Arrays.stream
- [FAÍSCA-40433] [SC-110684][SS][PYTHON] Adicione toJVMRow em PythonSQLUtils para converter PySpark Row em pickled para JVM Row
- [FAÍSCA-40414] [SC-110568][SQL][PYTHON] Tipo mais genérico em PythonArrowInput e PythonArrowOutput
- [FAÍSCA-40352] [SC-109945][SQL] Adicionar aliases de função: len, datepart, dateadd, date_diff e curdate
- [FAÍSCA-40470] [SC-110761][SQL] Manipule GetArrayStructFields e GetMapValue na função "arrays_zip"
- [FAÍSCA-40387] [SC-110685][SQL] Melhorar a implementação do Spark Decimal
- [FAÍSCA-40429] [SC-110675][SQL] Defina KeyGroupedPartitioning apenas quando a coluna referenciada estiver na saída
- [FAÍSCA-40432] [SC-110716][SS][PYTHON] Introduza GroupStateImpl e GroupStateTimeout no PySpark
- [FAÍSCA-39915] [SC-110496][SQL] Verifique se o particionamento de saída é especificado pelo usuário no AQE
- [FAÍSCA-29260] [SQL] Suporte
ALTER DATABASE SET LOCATION
se HMS suporta - [FAÍSCA-40185] [SC-110056][SQL] Remover sugestão de coluna quando a lista de candidatos estiver vazia
- [FAÍSCA-40362] [SC-110401][SQL] Corrigir canonicalização BinaryComparison
- [FAÍSCA-40411] [SC-110381][SS] Refatore FlatMapGroupsWithStateExec para ter uma característica pai
- [FAÍSCA-40293] [SC-110084][SQL] Tornar a mensagem de erro da tabela V2 mais significativa
- [FAÍSCA-38734] [SC-110383][SQL] Remover a classe de erro
INDEX_OUT_OF_BOUNDS
- [FAÍSCA-40292] [SC-110300][SQL] Corrigir nomes de colunas na função "arrays_zip" quando matrizes são referenciadas a partir de estruturas aninhadas
- [FAÍSCA-40276] [SC-109674][CORE] Reduza o tamanho do resultado de RDD.takeOrdered
- [FAÍSCA-40197] [SC-109176][SQL] Substitua o plano de consulta pelo contexto para MULTI_VALUE_SUBQUERY_ERROR
- [FAÍSCA-40300] [SC-109942][SQL] Migrar para a classe de
DATATYPE_MISMATCH
erro - [FAÍSCA-40149] [SC-110055][SQL] Propagar colunas de metadados através do Project
- [FAÍSCA-40280] [SC-110146][SQL] Adicione suporte para pressão de parquet para baixo para anotado int e long
- [FAÍSCA-40220] [SC-110143][SC-109175][SQL] Não produza o mapa vazio dos parâmetros da mensagem de erro
- [FAÍSCA-40295] [SC-110070][SQL] Permitir funções v2 com args literais na distribuição/ordenação de escrita
- [FAÍSCA-40156] [SC-109264][SQL]
url_decode()
se o retornar uma classe de erro - [FAÍSCA-39195] [SQL] Spark OutputCommitCoordinator deve abortar o estágio quando o arquivo confirmado não é consistente com o status da tarefa
- [FAÍSCA-40260] [SC-109424][SQL] Usar classes de erro nos erros de compilação de GROUP BY uma posição
- [FAÍSCA-40205] [SC-110144][SC-109082][SQL] Fornecer um contexto de consulta de ELEMENT_AT_BY_INDEX_ZERO
- [FAÍSCA-40112] [SC-109676][SQL] Melhorar a função TO_BINARY()
- [FAÍSCA-40209] [SC-109081][SQL] Não altere o valor do intervalo decimal em
changePrecision()
erros - [FAÍSCA-40319] [SC-109873][SQL] Remover método de erro de execução de consulta duplicada para PARSE_DATETIME_BY_NEW_PARSER
- [FAÍSCA-40222] [SC-109209][SQL] Numéricos try_add/try_divide/try_subtract/try_multiply devem lançar erro de seus filhos
- [FAÍSCA-40183] [SC-108907][SQL] Usar NUMERIC_VALUE_OUT_OF_RANGE de classe de erro para estouro na conversão decimal
- [FAÍSCA-40180] [SC-109069][SQL] Formatar mensagens de erro por
spark-sql
- [FAÍSCA-40153] [SC-109165][SQL] Unificar funções de resolução e funções com valor de tabela
- [FAÍSCA-40308] [SC-109880][SQL] Permitir que argumentos de delimitador não dobráveis funcionem
str_to_map
- [FAÍSCA-40219] [SC-110052][SC-109663][SQL] O plano lógico de exibição resolvido deve conter o esquema para evitar pesquisas redundantes
- [FAÍSCA-40098] [SC-109939][SC-108693][SQL] Formatar mensagens de erro no Thrift Server
- [FAÍSCA-39917] [SC-109038][SQL] Usar classes de erro diferentes para estouro aritmético numérico/intervalar
- [FAÍSCA-40033] [SC-109875][SQL] Suporte à remoção de esquema aninhado por meio de element_at
- [FAÍSCA-40194] [SC-109660][SQL] A função SPLIT no regex vazio deve truncar a cadeia de caracteres vazia à direita.
- [FAÍSCA-40228] [SC-109835][SQL] Não simplifique multiLike se criança não é uma expressão barata
- [FAÍSCA-40039] [SC-109896][SC-109260][SS] Apresentando um gerenciador de arquivos de ponto de verificação de streaming baseado na interface Abortable do Hadoop
- [FAÍSCA-40285] [SC-109679][SQL] Simplifique o
roundTo[Numeric]
para o SparkDecimal
- [FAÍSCA-39896] [SC-109658][SQL] UnwrapCastInBinaryComparison deve funcionar quando o literal de In/InSet downcast falhou
- [FAÍSCA-40040] [SC-109662][SQL] Empurre o limite local para ambos os lados se a condição de junção estiver vazia
- [FAÍSCA-40055] [SC-109075][SQL] listCatalogs também deve retornar spark_catalog mesmo quando spark_catalog implementação é defaultSessionCatalog
- [FAÍSCA-39915] [SC-109391][SQL] Dataset.repartition(N) não pode criar partições N parte não-AQE
- [FAÍSCA-40207] [SC-109401][SQL] Especifique o nome da coluna quando o tipo de dados não for suportado pela fonte de dados
- [FAÍSCA-40245] [SC-109295][SQL] Corrigir a verificação de igualdade do FileScan quando as colunas de partição ou filtro de dados não são lidas
- [FAÍSCA-40113] [SC-109405][SQL] Implementações de interface DataSourceV2 do Reator ParquetScanBuilder
- [FAÍSCA-40211] [SC-109226][CORE][SQL] Permitir personalizar o número de partições iniciais no comportamento take()
- [FAÍSCA-40252] [SC-109379][SQL] Substituir
Stream.collect(Collectors.joining)
porStringJoiner
Api - [FAÍSCA-40247] [SC-109272][SQL] Corrigir verificação de igualdade BitSet
- [FAÍSCA-40067] [SQL] Use Table#name() em vez de Scan#name() para preencher o nome da tabela no nó BatchScan no SparkUI
- [FAÍSCA-39966] [SQL] Usar filtro V2 em SupportsDelete
- [FAÍSCA-39607] [SC-109268][SQL][DSV2] Suporte de distribuição e encomenda V2 função por escrito
- [FAÍSCA-40224] [SC-109271][SQL] Faça com que o ObjectHashAggregateExec libere memória ansiosamente quando o fallback for baseado em classificação
- [FAÍSCA-40013] [SQL] As expressões DS V2 devem ter o padrão
toString
- [FAÍSCA-40214] [SC-109079][PYTHON][SQL] adicionar 'get' às funções
- [FAÍSCA-40192] [SC-109089][SQL][ML] Remover groupby redundante
- [FAÍSCA-40146] [SC-108694][SQL] Simplesmente o codegen de obter valor de mapa
- [FAÍSCA-40109] [SQL] Nova função SQL: get()
- [FAÍSCA-39929] [SQL] DS V2 suporta funções push down string (não ANSI)
- [FAÍSCA-39819] [SQL] DS V2 aggregate push down pode funcionar com Top N ou Paging (Classificar com expressões)
- [FAÍSCA-40213] [SC-109077][SQL] Suporta conversão de valor ASCII para caracteres latino-1
- [FAÍSCA-39887] [SQL] RemoveRedundantAliases deve manter aliases que tornam a saída dos nós de projeção exclusiva
- [FAÍSCA-39764] [SQL] Torne o PhysicalOperation igual ao ScanOperation
- [FAÍSCA-39964] [SQL] O pushdown DS V2 deve unificar o caminho de tradução
- [FAÍSCA-39528] [SQL] Usar filtro V2 em SupportsRuntimeFiltering
- [FAÍSCA-40066] [SQL] Modo ANSI: sempre retornar null no acesso inválido à coluna do mapa
- [FAÍSCA-39912] [FAÍSCA-39828][SQL] Refinar CatalogImpl
- [FAÍSCA-39833] [SC-108736][SQL] Desative o índice de coluna Parquet no DSv1 para corrigir um problema de correção no caso de sobreposição de colunas de partição e dados
- [FAÍSCA-39880] [SQL] O comando V2 SHOW FUNCTIONS deve imprimir o nome da função qualificada como v1
- [FAÍSCA-39767] [SQL] Remova UnresolvedDBObjectName e adicione UnresolvedIdentifier
- [FAÍSCA-40163] [SC-108740][SQL] feat: SparkSession.config(Mapa)
- [FAÍSCA-40136] [SQL] Corrigir o fragmento de contextos de consulta SQL
- [FAÍSCA-40107] [SC-108689][SQL] Retirar a conversão empty2null de FileFormatWriter
- [FAÍSCA-40121] [PYTHON][SQL] Inicializar projeção usada para Python UDF
- [FAÍSCA-40128] [SQL] Faça com que o VectorizedColumnReader reconheça DELTA_LENGTH_BYTE_ARRAY como uma codificação de coluna autônoma
- [FAÍSCA-40132] [ML] Restaurar rawPredictionCol para MultilayerPerceptronClassifier.setParams
- [FAÍSCA-40050] [SC-108696][SQL] Melhorar
EliminateSorts
para suportar a remoção de ordenações através deLocalLimit
- [FAÍSCA-39629] [SQL] Suporte v2 SHOW FUNCTIONS
- [FAÍSCA-39925] [SC-108734][SQL] Adicionar sobrecarga array_sort(coluna, comparador) às operações DataFrame
- [FAÍSCA-40117] [PYTHON][SQL] Converter condição em java em DataFrameWriterV2.overwrite
- [FAÍSCA-40105] [SQL] Melhorar a repartição em ReplaceCTERefWithRepartition
- [FAÍSCA-39503] [SQL] Adicionar nome de catálogo de sessão para tabela e função de banco de dados v1
- [FAÍSCA-39889] [SQL] Use classes de erro diferentes para numérico/intervalo dividido por 0
- [FAÍSCA-39741] [SQL] Suporte url encode/decode como função integrada e arrumar funções relacionadas a url
- [FAÍSCA-40102] [SQL] Use SparkException em vez de IllegalStateException no SparkPlan
- [FAÍSCA-40014] [SQL] Suporte a conversão de decimais para intervalos ANSI
- [FAÍSCA-39776] [SQL][SEGUIR] Atualizar UT do PlanStabilitySuite no modo ANSI
- [FAÍSCA-39963] [SQL] Simplifique
SimplifyCasts.isWiderCast
Atualizações de manutenção
Consulte Atualizações de manutenção do Databricks Runtime 11.3.
Ambiente do sistema
- Sistema Operacional: Ubuntu 20.04.5 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Escala: 2.12.14
- Píton: 3.9.19
- R: 4.1.3
- Lago Delta: 2.1.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
Argônio2-CFFI | 20.1.0 | gerador assíncrono | 1.10 | ATRs | 21.2.0 |
Backcall | 0.2.0 | backports.pontos de entrada-selecionáveis | 1.1.1 | preto | 22.3.0 |
lixívia | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
Normalizador de Charset | 2.0.4 | clicar | 8.0.3 | criptografia | 3.4.8 |
cycler | 0.10.0 | Quisto | 0.29.24 | dbus-python | 1.2.16 |
depuração | 1.4.1 | decorador | 5.1.0 | DeUsedXML | 0.7.1 |
Distlib | 0.3.6 | pontos de entrada | 0.3 | facetas-visão geral | 1.0.0 |
filelock | 3.8.0 | idna | 3.2 | Ipykernel | 6.12.1 |
ipython | 7.32.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 |
Jedi | 0.18.0 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
Joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-cliente | 6.1.12 |
Jupyter-core | 4.8.1 | Jupyterlab-Pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
Kiwisolver | 1.3.1 | MarkupSafe | 2.0.1 | matplotlib | 3.4.3 |
matplotlib-em linha | 0.1.2 | Mistune | 0.8.4 | mypy-extensões | 0.4.3 |
nbclient | 0.5.3 | nbconvert | 6.1.0 | nbformat | 5.1.3 |
Ninho-Asyncio | 1.5.1 | bloco de notas | 6.4.5 | numpy | 1.20.3 |
embalagem | 21.0 | pandas | 1.3.4 | PandocFilters | 1.4.3 |
Parso | 0.8.2 | PathSpec | 0.9.0 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Travesseiro | 8.4.0 |
pip | 21.2.4 | plataformadirs | 2.5.2 | enredo | 5.9.0 |
Prometheus-cliente | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 4.21.5 |
PSUTIL | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2,20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | Pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pirsistent | 0.18.0 | python-dateutil | 2.8.2 | pytz | 2021.3 |
Pyzmq | 22.2.1 | pedidos | 2.26.0 | pedidos-unixsocket | 0.2.0 |
s3transferir | 0.5.2 | scikit-learn | 0.24.2 | scipy | 1.7.1 |
seaborn | 0.11.2 | Enviar2Lixo | 1.8.0 | setuptools | 58.0.4 |
seis | 1.16.0 | ssh-import-id | 5.10 | statsmodels | 0.12.2 |
tenacidade | 8.0.1 | terminado | 0.9.4 | caminho de teste | 0.5.0 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.1 | traços | 5.1.0 | extensões de digitação | 3.10.0.2 |
Upgrades autônomos | 0.1 | urllib3 | 1.26.7 | virtualenv | 20.8.0 |
largura de wc | 0.2.5 | WebEncodings | 0.5.1 | roda | 0.37.0 |
widgetsnbextension | 3.6.0 |
Bibliotecas R instaladas
As bibliotecas R são instaladas a partir do instantâneo da CRAN da Microsoft em 2022-09-08.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
AskPass | 1.1 | asserçãoat | 0.2.1 | backports | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | blob | 1.2.3 | arranque | 1.3-28 |
brew | 1.0-7 | Brio | 1.1.3 | vassoura | 1.0.1 |
BSLIB | 0.4.0 | cachem | 1.0.6 | Chamador | 3.7.2 |
acento circunflexo | 6.0-93 | Cellranger | 1.1.0 | crono | 2.3-57 |
classe | 7.3-20 | cli | 3.3.0 | Clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | espaço em cores | 2.0-3 |
marca comum | 1.8.0 | compilador | 4.1.3 | configuração | 0.3.1 |
CPP11 | 0.4.2 | lápis de cor | 1.5.1 | credenciais | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | conjuntos de dados | 4.1.3 |
DBI | 1.1.3 | DBPlyr | 2.2.1 | desc | 1.4.1 |
devtools | 2.4.4 | diffobj | 0.3.5 | resumo | 0.6.29 |
Iluminação reduzida | 0.4.2 | dplyr | 1.0.10 | DTPlyr | 1.2.2 |
E1071 | 1.7-11 | reticências | 0.3.2 | evaluate | 0,16 |
Fãsi | 1.0.3 | Farver | 2.1.1 | mapa rápido | 1.1.0 |
fontawesome | 0.3.0 | FORCATS | 0.5.2 | foreach | 1.5.2 |
externa | 0.8-82 | forjar | 0.2.0 | FS | 1.5.2 |
Futuro | 1.28.0 | future.apply | 1.9.1 | gargarejo | 1.2.0 |
Genéricos | 0.1.3 | Gert | 1.8.0 | ggplot2 | 3.3.6 |
GH | 1.3.0 | gitcreds | 0.1.1 | glmnet | 4.1-4 |
Globais | 0.16.1 | colar | 1.6.2 | GoogleDrive | 2.0.0 |
googlesheets4 | 1.0.1 | gower | 1.0.0 | gráficos | 4.1.3 |
grDevices | 4.1.3 | grelha | 4.1.3 | gridExtra | 2.3 |
gsubfn | 0.7 | gtable | 0.3.1 | capacete | 1.2.0 |
Refúgio | 2.5.1 | mais alto | 0,9 | HMS | 1.1.2 |
htmltools | 0.5.3 | htmlwidgets | 1.5.4 | httpuv | 1.6.5 |
httr | 1.4.4 | IDs | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-13 | Isoband | 0.2.5 | iteradores | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.0 | KernSmooth | 2.23-20 |
Knitr | 1.40 | etiquetagem | 0.4.2 | mais tarde | 1.3.0 |
lattice | 0.20-45 | lava | 1.6.10 | ciclo de vida | 1.0.1 |
ouvirv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.3 |
Marcação | 1.1 | MASSA | 7.3-56 | Matriz | 1.4-1 |
memoise | 2.0.1 | métodos | 4.1.3 | mgcv | 1.8-40 |
mime | 0,12 | miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 |
Modelador | 0.1.9 | munsell | 0.5.0 | nlme | 3.1-157 |
nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 2.0.2 |
paralelo | 4.1.3 | Paralelamente | 1.32.1 | pilar | 1.8.1 |
pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgdown | 2.0.6 |
pkgload | 1.3.0 | plogr | 0.2.0 | plyr | 1.8.7 |
elogiar | 1.0.0 | unidades bonitas | 1.1.1 | pROC | 1.18.0 |
processx | 3.7.0 | prodlim | 2019.11.13 | Profvis | 0.3.7 |
Progresso | 1.2.2 | progressor | 0.11.0 | promessas | 1.2.0.1 |
proto | 1.0.0 | procuração | 0.4-27 | PS | 1.7.1 |
purrr | 0.3.4 | r2d3 | 0.2.6 | R6 | 2.5.1 |
RAGG | 1.2.2 | randomForest | 4.7-1.1 | rappdirs | 0.3.3 |
rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 | Rcpp | 1.0.9 |
RcppEigen | 0.3.3.9.2 | Leitor | 2.1.2 | ReadXL | 1.4.1 |
receitas | 1.0.1 | revanche | 1.0.1 | revanche2 | 2.1.2 |
Controles remotos | 2.4.2 | Reprex | 2.0.2 | remodelar2 | 1.4.4 |
rlang | 1.0.5 | rmarkdown | 2.16 | RODBC | 1.3-19 |
roxygen2 | 7.2.1 | rpart | 4.1.16 | rprojroot | 2.0.3 |
Rserve | 1.8-11 | RSQLite | 2.2.16 | rstudioapi | 0.14 |
rversões | 2.1.2 | Rvest | 1.0.3 | Sass | 0.4.2 |
escalas | 1.2.1 | seletor | 0.4-2 | sessioninfo | 1.2.2 |
forma | 1.4.6 | brilhante | 1.7.2 | ferramentas de origem | 0.1.7 |
sparklyr | 1.7.8 | SparkR | 3.3.0 | espacial | 7.3-11 |
splines | 4.1.3 | sqldf | 0.4-11 | QUADRADO | 2021.1 |
estatísticas | 4.1.3 | stats4 | 4.1.3 | stringi | 1.7.8 |
stringr | 1.4.1 | sobrevivência | 3.4-0 | sys | 3.4 |
fontes do sistema | 1.0.4 | tcltk | 4.1.3 | testeatat | 3.1.4 |
formatação de texto | 0.3.6 | tibble | 3.1.8 | tidyr | 1.2.0 |
tidyselect | 1.1.2 | Tidyverse | 1.3.2 | timeDate | 4021.104 |
Tinytex | 0.41 | ferramentas | 4.1.3 | TZDB | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utilitários | 4.1.3 | uuid | 1.1-0 | VCTRS | 0.4.1 |
viridisLite | 0.4.1 | vroom | 1.5.7 | Waldo | 0.4.0 |
whisker | 0.4 | withr | 2.5.0 | xfun | 0.32 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.5 | zip | 2.2.0 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do Grupo | ID do Artefacto | Versão |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | transmissão em fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | sombreado de kryo | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | jackson-anotações | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.13.4 |
com.github.ben-manes.cafeína | cafeína | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | núcleo | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-nativos | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-nativos | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | ZSTD-JNI | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | Tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | criador de perfil | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuração | 1.2.1 |
com.typesafe.scala-logging | Escala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1,15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
registo de comuns | registo de comuns | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 2.2.1 |
dev.ludovic.netlib | Blas | 2.2.1 |
dev.ludovic.netlib | Lapack | | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.ponte aérea | compressor de ar | 0.21 |
IO.Delta | delta-compartilhamento-spark_2.12 | 0.5.1 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | métricas-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-comum | 4.1.74.Final |
io.netty | netty-manipulador | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | transporte de rede | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-nativo-unix-comum | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recoletor | 0.12.0 |
jacarta.anotação | Jacarta.Anotação-API | 1.3.5 |
jacarta.servlet | jacarta.servlet-api | 4.0.3 |
jacarta.validação | Jacarta.validation-api | 2.0.2 |
jakarta.ws.rs | Jacarta.ws.rs-api | 2.1.6 |
javax.activation | ativação | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | picles | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.floco de neve | flocos de neve-ingestão-sdk | 0.9.6 |
net.floco de neve | Flocos de Neve-JDBC | 3.13.14 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | Remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato de seta | 7.0.0 |
org.apache.arrow | seta-memória-núcleo | 7.0.0 |
org.apache.arrow | seta-memória-netty | 7.0.0 |
org.apache.arrow | vetor de seta | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapeado | 1.11.0 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.9 |
org.apache.curator | curador-cliente | 2.13.0 |
org.apache.curator | curador-framework | 2.13.0 |
org.apache.curator | curador-receitas | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-DATABRICKS |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-cliente | 2.3.9 |
org.apache.hive | colmeia-lamp-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | colmeia-calços-0,23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | colmeia-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | hera | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-sombreado-protobuf | 1.4.0 |
org.apache.orc | orc-núcleo | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | Orc-calços | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-common | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-encoding | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-formato-estruturas | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-hadoop | 1.12.0-DATABRICKS-0007 |
org.apache.parquet | parquet-jackson | 1.12.0-DATABRICKS-0007 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.20 |
org.apache.yetus | anotações de audiência | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-juta | 3.6.2 |
org.checkerframework | verificador-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | cais-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | localizador hk2 | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | jersey-common | 2.36 |
org.glassfish.jersey.core | servidor de jersey | 2.36 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-core_2.12 | 3.7.0-M11 |
org.json4s | JSON4S-jackson_2,12 | 3.7.0-M11 |
org.json4s | JSON4S-scalap_2.12 | 3.7.0-M11 |
org.lz4 | LZ4-Java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | MLFLOW-Faísca | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | calços | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.14 |
org.scala-lang | Escala-library_2.12 | 2.12.14 |
org.scala-lang | Escala-reflect_2,12 | 2.12.14 |
org.scala-lang.modules | scala-coleção-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | Escala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | Brisa-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | não utilizado | 1.0.0 |
org.threeten | trêsdez-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | gatos-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | torre-macros_2.12 | 0.17.0 |
org.typelevel | torre-platform_2.12 | 0.17.0 |
org.typelevel | torre-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | mosca-selvagem-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1,24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |