Tempo de execução do Databricks 16.2
As notas de versão a seguir fornecem informações sobre o Databricks Runtime 16.2, alimentado pelo Apache Spark 3.5.2.
A Databricks lançou esta versão em fevereiro de 2025.
Dica
Para ver as notas de versão das versões do Databricks Runtime que atingiram o fim do suporte (EoS), consulte Notas de versão do End-of-support Databricks Runtime. As versões do EoS Databricks Runtime foram desativadas e podem não ser atualizadas.
Mudanças comportamentais
No Compartilhamento Delta, o histórico da tabela é habilitado por padrão
Os compartilhamentos criados usando o comando SQL ALTER SHARE <share> ADD TABLE <table>
agora têm o compartilhamento de histórico (WITH HISTORY
) habilitado por padrão. Consulte ALTER SHARE.
As instruções SQL de credenciais retornam um erro quando há uma incompatibilidade de tipo de credencial
Com esta versão, se o tipo de credencial especificado em uma instrução DROP CREDENTIAL
não corresponder ao tipo de credencial a ser descartada, um erro será retornado e a instrução não será executada. Por exemplo, para a instrução DROP STORAGE CREDENTIAL 'credential-name'
, se credential-name
não for uma credencial de armazenamento, a instrução falhará com um erro.
Essa alteração é feita para ajudar a evitar erros do usuário. Anteriormente, a instrução DROP CREDENTIAL
era executada com êxito, mesmo que uma credencial que não correspondesse ao tipo de credencial especificado fosse passada. Por exemplo, antes dessa alteração, a seguinte instrução removeria com êxito storage-credential
: DROP SERVICE CREDENTIAL storage-credential
.
Consulte DROP CREDENTIAL na referência SQL.
Novos recursos e melhorias
- acesso controlado pelo Unity Catalog a serviços de nuvem externos usando credenciais de serviço agora é GA
- Blocos de Anotações são suportados como arquivos de espaço de trabalho
-
Use o
timestampdiff
×tampadd
em expressões de coluna geradas - Suporte para sintaxe de pipeline SQL
-
Atualização para
DESCRIBE TABLE
retorna metadados como JSON estruturado - Colações insensíveis em branco à direita
- Converter tabelas Iceberg com particionamento de bucket em tabelas Delta não particionadas
-
O modo de acesso partilhado agora suporta os métodos Spark Scala
foreach
,foreachBatch
eflatMapGroupsWithState
O acesso controlado pelo Unity Catalog a serviços de nuvem externos usando credenciais de serviço agora é GA
As credenciais de serviço permitem uma autenticação simples e segura com os serviços do seu locatário de nuvem do Azure Databricks. Com o Databricks Runtime 16.2, as credenciais de serviço estão geralmente disponíveis e agora suportam SDKs Scala, além do SDK Python que era suportado na Visualização Pública. Consulte Gerenciar o acesso a serviços de nuvem externos usando credenciais de serviço.
Os blocos de notas são suportados como ficheiros de espaço de trabalho
No Databricks Runtime 16.2 e superior, os blocos de anotações são suportados como arquivos de espaço de trabalho. Agora você pode interagir programaticamente com blocos de anotações de qualquer lugar onde o sistema de arquivos do espaço de trabalho esteja disponível, incluindo gravação, leitura e exclusão de blocos de anotações como qualquer outro arquivo. Para saber mais, consulte Blocos de Anotações como arquivos de espaço de trabalho.
Usar o timestampdiff
& timestampadd
em expressões de coluna geradas
No Databricks Runtime 16.2 e superior, você pode usar as funções timestampdiff e timestampadd em expressões de coluna geradas pelo Delta Lake. Consulte colunas geradas pelo Lago Delta.
Suporte para sintaxe de pipeline SQL
Nas versões do Databricks Runtime 16.2 e superiores, pode compor pipelines SQL. Um pipeline SQL estrutura uma consulta padrão, como SELECT c2 FROM T WHERE c1 = 5
, em uma sequência passo a passo, conforme mostrado no exemplo a seguir:
FROM T
|> SELECT c2
|> WHERE c1 = 5
Para saber mais sobre a sintaxe com suporte para pipelines SQL, consulte SQL Pipeline Syntax.
Para obter informações de base sobre esta extensão intersetorial, consulte SQL apresenta problemas. Podemos corrigi-los: Sintaxe de Pipe em SQL (por Google Research).
Atualização para DESCRIBE TABLE
retorna metadados como JSON estruturado
No Databricks Runtime 16.2 e superior, você pode usar o comando DESCRIBE TABLE AS JSON
para retornar metadados de tabela como um documento JSON. A saída JSON é mais estruturada do que o relatório padrão legível por humanos e pode ser usada para interpretar o esquema de uma tabela programaticamente. Para saber mais, consulte DESCRIBE TABLE AS JSON.
Agrupamentos insensíveis em branco à direita
O Databricks Runtime 16.2 adiciona suporte para agrupamentos que não consideram espaços em branco à direita, complementando o suporte de agrupamento adicionado no Databricks Runtime 16.1. Por exemplo, esses agrupamentos tratam 'Hello'
e 'Hello '
como iguais. Para saber mais, consulte conjunto de ordenação RTRIM.
Converter tabelas Iceberg com particionamento de bucket em tabelas Delta não particionadas
As instruções CONVERT TO DELTA e CREATE TABLE CLONE agora suportam a conversão de uma tabela Iceberg com particionamento de bucket em uma tabela Delta não particionada.
A computação do modo de acesso compartilhado agora suporta os métodos Spark Scala foreach
, foreachBatch
e flatMapGroupsWithState
No Databricks Runtime 16.2 e superior, a computação do modo de acesso compartilhado agora suporta os métodos Scala DataStreamWriter.foreachBatch
e KeyValueGroupedDataset.flatMapGroupsWithState
. No Databricks Runtime 16.1 e superior, a computação do modo de acesso compartilhado agora suporta o método Scala DataStreamWriter.foreach
.
Correções de bugs
Processamento incremental de clones melhorado
Esta versão inclui uma correção para um caso limite em que um CLONE
incremental pode voltar a copiar os ficheiros já copiados de uma tabela de origem para uma tabela de destino. Ver Clonar uma tabela no Azure Databricks.
Atualizações da biblioteca
- Bibliotecas Python atualizadas:
- Bibliotecas R atualizadas:
- Bibliotecas Java atualizadas:
- org.json4s.json4s-ast_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-jackson_2.12 de 3.7.0-M11 a 4.0.7
- org.json4s.json4s-scalap_2.12 de 3.7.0-M11 a 4.0.7
Apache Spark
O Databricks Runtime 16.2 inclui o Apache Spark 3.5.2. Esta versão inclui todas as correções e melhorias do Spark incluídas no Databricks Runtime 16.1, bem como as seguintes correções de bugs adicionais e melhorias feitas no Spark:
-
[SPARK-49966] Reverter "[SC-179501][SQL] Use
Invoke
para implementarJsonToStructs
(from_json
)" - [SPARK-50904] [SC-186976][SQL] Corrigir a execução da consulta walker da expressão de agrupamento
- [SPARK-49666] [SQL] Habilitar testes de corte para expressão InSet
- [SPARK-50669] [SC-184566][ES-1327450][SQL] Alterar a assinatura da expressão TimestampAdd
-
[SPARK-50795] [16.x][SC-186719][SQL] Armazenar o carimbo de data/hora como tipo
long
no LinkedHashMapdescribe
- [SPARK-50870] [SC-186950][SQL] Adicionar o fuso horário ao converter para carimbo de data e hora em V2ScanRelationPushDown
- [SPARK-50735] [SC-186944][CONNECT] Falha no ExecuteResponseObserver resulta em infinitas solicitações de reanexação
- [SPARK-50522] [SC-186500][SQL] Suporte para agrupamento indeterminado
- [SPARK-50525] [SC-186058][SQL] Definir a Regra do Otimizador InsertMapSortInRepartitionExpressions
- [SPARK-50679] [SC-184572][SQL] Expressões comuns duplicadas em diferentes cláusulas WITH devem ser projetadas apenas uma vez
- [SPARK-50847] [SC-186916] [SQL] Negar a aplicação de ApplyCharTypePadding em expressões In específicas
- [SPARK-50714] [SC-186786][SQL][SS] Habilitar a evolução do esquema para TransformWithState quando a codificação Avro é usada
-
[SPARK-50795] [SC-186390][SQL] Exibir todas as datas DESCRIBE AS JSON no formato ISO-8601 e tipos como
dataType.simpleString
- [SPARK-50561] [SC-185924][SQL] DBR 16.x cherrypick: Melhorar a coerção de tipo e a verificação de limites para a função SQL UNIFORM
-
[SPARK-50700] [SC-184845][SQL]
spark.sql.catalog.spark_catalog
suportabuiltin
valor mágico - [SPARK-50831] [SC-186736][SQL] Habilitar agrupamento de corte por padrão
-
[SPARK-50263] [SC-186793][CONNECT] Substitua
System.currentTimeMillis
porSystem.nanoTime
- [SPARK-48730] [SC-184926][SQL] Implementar CreateSQLFunctionCommand para funções SQL escalares e de tabela
- [SPARK-50830] [SC-186718] [SQL] Retornar o resultado de uma única passagem como o resultado da análise de execução dupla
- [SPARK-50707] [SC-186098][SQL] Habilitar conversão de/para char/varchar
- [SPARK-49490] [SC-182137][SQL] Adicionar benchmarks para initCap
-
[SPARK-50529] [SC-184535][SQL] Alterar o comportamento de char/varchar de acordo com a configuração
spark.sql.preserveCharVarcharTypeInfo
- [SPARK-49632] [SC-184179][SQL] Remova a sugestão de configuração ANSI no CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][PYTHON][SQL] Corrigir bug onde passar Variantes nulas em createDataFrame faz com que ele falhe e adicione suporte a Variant em createDataFrame no Spark Connect
-
[SPARK-50828] [SC-186493][PYTHON][ML][CONNECT] Depreciar
pyspark.ml.connect
- [SPARK-50600] [SC-186057][CONNECT][SQL] Conjunto analisado em falha de análise
- [SPARK-50824] [SC-186472][PYTHON] Evite importar pacotes Python opcionais para verificação
- [SPARK-50755] [SC-185521][SQL] Exibição de plano bonito para InsertIntoHiveTable
- [SPARK-50789] [SC-186312][CONNECT] As entradas para agregações tipadas devem ser analisadas
- [SPARK-50791] [SC-185867][SC-186338][SQL] Corrigir NPE no tratamento de erros do State Store
-
[SPARK-50801] [SC-186365] [SQL] Melhore
PlanLogger.logPlanResolution
para que mostre apenas planos resolvidos e não resolvidos - [SPARK-50749] [SC-185925][SQL] Corrigir bug de ordenação no método CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Canonicalize o nome e o layout do arquivo de resultados do criador de perfil JVM no DFS
- [SPARK-50790] [SC-186354][PYTHON] Implementar análise de JSON no PySpark
- [SPARK-50738] [SC-184856][PYTHON] Atualize preto para 23.12.1
- [SPARK-50764] [SC-185930][PYTHON] Refinar o docstring dos métodos relacionados ao XPath
-
[SPARK-50798] [SC-186277][SQL] Melhorar
NormalizePlan
- [SPARK-49883] [SC-183787][SS] State Store Checkpoint Structure V2 Integração com RocksDB e RocksDBFileManager
- [SPARK-50779] [SC-186062][SQL] Adicionando sinalizador de funcionalidade para agrupamentos no nível do objeto
- [SPARK-50778] [SC-186183][PYTHON] Adicionar metadataColumn ao PySpark DataFrame
- [SPARK-49565] [SC-186056][SQL] DBR 16.x cherrypick: Melhore aliases de expressão gerados automaticamente com operadores SQL de pipe
- [SPARK-50541] [16.x][SC-184937] Descrever a tabela como JSON
- [SPARK-50772] [SC-185923][SQL] DBR 16.x cherrypick: Manter aliases de tabela após SET, EXTEND, DROP operadores
- [SPARK-50769] [SC-185919][SQL] Corrigir ClassCastException em HistogramNumeric
- [SPARK-49025] [SC-174667] Sincronizar diferença de código Delta com DBR
- [SPARK-50752] [SC-185547][PYTHON][SQL] Introduza configurações para ajustar Python UDF sem seta
-
[SPARK-50705] [SC-185944][SQL] Torne
QueryPlan
sem bloqueio - [SPARK-50690] [16.x][SC-184640][SQL] Corrigir discrepância no DESCRIBE TABLE exibir colunas de saída de consulta citando
- [SPARK-50746] [SC-184932][SQL] Substitua Either por VariantPathSegment.
-
[SPARK-50715] [SC-185546][PYTHON][CONNECT]
SparkSession.Builder
define as configurações em lote - [SPARK-50480] [SC-183359][SQL] Estender CharType e VarcharType de StringType
- [SPARK-50675] [SC-184539][SQL] Suporte a agrupamentos ao nível de tabela e vista
-
[SPARK-50409] [SC-184516][SQL] Corrigir a instrução set para ignorar
;
no final deSET;
,SET -v;
eSET key;
- [SPARK-50743] [SC-185528][SQL] Normalizar IDs CTERelationDef e CTERelationRef
- [SPARK-50693] [SC-184684][CONNECT] As entradas para TypedScalaUdf devem ser analisadas
- [SPARK-50744] [SC-184929][SQL] Adicionar um caso de teste para precedência de resolução de nome de visualização/CTE
- [SPARK-50710] [SC-184767][CONNECT] Adicionar suporte para reconexão de cliente opcional a sessões após o lançamento
- [SPARK-50703] [SC-184843][PYTHON] Refine o docstring de regexp_replace, regexp_substr e regexp_instr
- pt-PT: [SPARK-50716] [SC-184823][CORE] Corrigir a lógica de limpeza de links simbólicos no método
JavaUtils.deleteRecursivelyUsingJavaIO
- [SPARK-50630] [SC-184443][SQL] Corrija GROUP BY suporte ordinal para operadores de pipe SQL AGGREGATE
- [SPARK-50614] [SC-184729][SQL] Adicionar suporte de desagregação de variantes para Parquet
- [SPARK-50661] [SASP-4936] Adicionar compatibilidade com versões anteriores para o cliente antigo FEB.
-
[SPARK-50676] [SC-184641][SQL] Remover
private lazy val mapValueContainsNull
não utilizados deElementAt
-
[SPARK-50515] [SC-183813][CORE] Adicionar interface somente leitura ao
SparkConf
- [SPARK-50697] [SC-184702][SQL] Habilitar a recursão de cauda sempre que possível
- [SPARK-50642] [SC-184726][SC-183517][CONNECT][SS][2/N][16.x]Corrija o esquema de estado para FlatMapGroupsWithState na conexão de faísca quando não houver nenhum estado inicial
- [SPARK-50701] [SC-184704][PYTHON] Fazer com que o uso do Plotly requeira a versão mínima do Plotly
- [SPARK-50702] [SC-184727][PYTHON] Refine o docstring de regexp_count, regexp_extract e regexp_extract_all
- [SPARK-50499] [SC-184177][PYTHON] Expor métricas do BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Adicionar suporte a RPAD pushdown
- [SPARK-50682] [SC-184579][SQL] Alias interno deve ser canónico
- [SPARK-50699] [SC-184695][PYTHON] Analise e gere a cadeia de caracteres DDL com uma sessão especificada
- [SPARK-50573] [SC-184568][SS] Adicionando ID de esquema de estado a linhas de estado para evolução do esquema
- [SPARK-50661] [SC-184639][CONNECT][SS][SASP-4936] Corrigir a implementação foreachBatch do Spark Connect Scala. para dar suporte ao Dataset[T].
- [SPARK-50689] [SC-184591][SQL] Impor ordenação determinística em listas de projetos LCA
- [SPARK-50696] [SC-184667][PYTHON] Otimizar a chamada da função Py4J para o método de análise DDL
- [SPARK-49670] [SC-182902][SQL] Habilitar agrupamento de corte para todas as expressões de passagem
-
[SPARK-50673] [SC-184565][ML] Evitar atravessar os coeficientes do modelo duas vezes no
Word2VecModel
construtor - [SPARK-50687] [SC-184588][PYTHON] Otimize a lógica para obter rastreamentos de pilha para DataFrameQueryContext
- [SPARK-50681] [SC-184662][PYTHON][CONNECT] Armazene em cache o esquema analisado para MapInXXX e ApplyInXXX
- [SPARK-50674] [SC-184589][PYTHON] Corrigir verificação da existência do método 'terminate' na avaliação UDTF
- [SPARK-50684] [SC-184582][PYTHON] Melhorar o desempenho do Py4J em DataFrameQueryContext
- [SPARK-50578] [DBR16.x][SC-184559][PYTHON][SS] Adicionar suporte para a nova versão dos metadados de estado para TransformWithStateInPandas
- [SPARK-50602] [SC-184439][SQL] Corrigir a transposição para mostrar uma mensagem de erro adequada quando colunas de índice inválidas são especificadas
- [SPARK-50650] [SC-184532][SQL] Melhorar o registro em log no analisador de passagem única
- [SPARK-50665] [SC-184533][SQL] Substituir LocalRelation por ComparableLocalRelation em NormalizePlan
- [SPARK-50644] [SC-184486][SQL] Leia a estrutura variante no Parquet reader.
- [SPARK-49636] [SC-184089][SQL] Remova a sugestão de configuração ANSI no INVALID_ARRAY_INDEX e INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][SQL] Refatorar o cálculo de saída de Union para reutilizá-lo no analisador de passagem única.
- [SPARK-50659] [SC-184512][SQL] Mover erros relacionados à Union para QueryCompilationErrors
- [SPARK-50530] [SC-183419][SQL] Corrigir cálculo de contexto de tipo de cadeia de caracteres implícita incorreta
- [SPARK-50546] [SC-183807][SQL] Adicionar suporte de transmissão de subconsulta à coerção do tipo de agrupamento
- [SPARK-50405] [SC-182889][SQL] Manipular a coerção do tipo de agrupamento de tipos de dados complexos corretamente
- [SPARK-50637] [SC-184434][SQL] Corrigir estilo de código para o analisador de passagem única
- [SPARK-50638] [SC-184435][SQL] Refatore a resolução de visualização para um arquivo separado para que possa ser reutilizada no Analisador de Passagem Única.
- [SPARK-50615] [SC-184298][SQL] Insira a variante na exploração.
- [SPARK-50619] [SC-184210][SQL] Refatorar VariantGet.cast para agrupar os argumentos de conversão
- [SPARK-50599] [SC-184058][SQL] Crie a característica DataEncoder que permite a codificação Avro e UnsafeRow
- [SPARK-50076] [SC-183809] Corrigir chaves de log
- [SPARK-50597] [SC-183972][SQL] Refatoração da construção de lotes em Optimizer.scala e SparkOptimizer.scala
- [SPARK-50339] [SC-183063][SPARK-50360][SS] Habilitar o changelog para armazenar informações de linhagem
- [SPARK-50526] [SC-183811][SS] Adicionar configuração de formato de codificação de armazenamento no registo de offset e impedir que operadores de estado não suportados usem avro
- [SPARK-50540] [SC-183810][PYTHON][SS] Corrigir esquema de cadeia de caracteres para StatefulProcessorHandle
- [SPARK-50157] [SC-183789][SQL] Usando SQLConf fornecido pelo SparkSession primeiro.
- [SPARK-48898] [SC-183793][SQL] Definir a nulabilidade corretamente no esquema Variant
- [SPARK-50559] [SC-183814][SQL] Armazene as saídas de *Except*, *Intersect* e *Union* como "lazy vals"
- [SPARK-48416] [SC-183643][SQL] Suporte aninhado correlacionado com expressão
- [SPARK-50428] [SC-183566][SS][PYTHON] Suporte TransformWithStateInPandas em consultas por lotes
- [SPARK-50063] [SC-183350][SQL][CONNECT] Adicionar suporte para Variant no cliente Spark Connect Scala
-
[SPARK-50544] [SC-183569][PYTHON][CONNECT] Implementar
StructType.toDDL
- [SPARK-50443] [SC-182590][SS] Corrigindo erros de compilação do Maven introduzidos pelo cache Guava no RocksDBStateStoreProvider
- [SPARK-50491] [SC-183434][SQL] Corrigir bug onde blocos BEGIN END vazios lançam um erro
-
[SPARK-50536] [SC-183443][CORE] Registre os tamanhos dos arquivos baixados em
SparkContext
eExecutor
- [SPARK-45891] [SC-183439][SQL] Reconstruir variante binária a partir de dados triturados.
- [SPARK-49565] [SC-183465][SQL] Adicionar sintaxe de pipe SQL para o operador FROM
- [SPARK-50497] [SC-183338][SQL] Falhe consultas com mensagem adequada se MultiAlias contiver função não-geradora
- [SPARK-50460] [SC-183375][PYTHON][CONNECT] Generalizar e simplificar o tratamento de exceções do Connect
-
[SPARK-50537] [SC-183452][CONNECT][PYTHON] Corrigir opção de compactação que está sendo substituída no
df.write.parquet
- [SPARK-50329] [SC-183358][SQL] corrigir InSet$toString
-
[SPARK-50524] [SC-183364][SQL] Descer mensagem de aviso de
RowBasedKeyValueBatch.spill
para o nível de depuração -
[SPARK-50528] [SC-183385][CONNECT] Mover
InvalidCommandInput
para o módulo comum - [SPARK-50017] [SC-182438][SS] Suporte à codificação Avro para o operador TransformWithState
-
[SPARK-50463] [SC-182833][SQL] Corrija
ConstantColumnVector
com conversão colunar para linha - [SPARK-50235] [SC-180786][SQL] Limpar recurso ColumnVector depois de processar todas as linhas em ColumnarToRowExec
- [SPARK-50516] [SC-183279][SS][MINOR] Corrija o teste relacionado ao estado de inicialização para usar o StreamManualClock
- [SPARK-50478] [SC-183188][SQL] Corrigir a correspondência de StringType
- [SPARK-50492] [SC-183177][SS] Corrigir java.util.NoSuchElementException quando a coluna de tempo de evento é eliminada após dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][SQL] Adicionar sintaxe de pipe SQL para o operador SET
- [SPARK-50449] [SC-183178][SQL] Corrija a gramática de script SQL permitindo corpos vazios para loops, IF e CASE
-
[SPARK-50251] [SC-180970][PYTHON] Adicionar
getSystemProperty
à PySparkSparkContext
- [SPARK-50421] [SC-183091][CORE] Corrigir a configuração de memória relacionada ao executor incorreta quando vários perfis de recursos estão ativos
- [SPARK-49461] [SC-179572][SS] ID de ponto de verificação persistente para confirmar logs e lê-los de volta
- [SPARK-50343] [SC-183119][SPARK-50344][SQL] Adicionar sintaxe de pipe SQL para os operadores DROP e AS
-
[SPARK-50481] [SC-182880][CORE] Melhore a
SortShuffleManager.unregisterShuffle
para ignorar a lógica do arquivo de soma de verificação se a soma de verificação estiver desabilitada -
[SPARK-50498] [SC-183090][PYTHON] Evite chamadas py4j desnecessárias no
listFunctions
-
[SPARK-50489] [SC-183053][SQL][PYTHON] Corrigir auto-junção após
applyInArrow
- [SPARK-49695] [SC-182967][SC-176968][SQL] Corrigir push-down de xor em Postgres
Suporte ao driver ODBC/JDBC do Databricks
O Databricks suporta drivers ODBC/JDBC lançados nos últimos 2 anos. Faça o download dos drivers lançados recentemente e atualize (baixar ODBC, baixar JDBC).
Ambiente do sistema
- Sistema Operacional: Ubuntu 24.04.1 LTS
- Java : Zulu17.54+21-CA
- Scala: 2.12.18
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.3.0
Bibliotecas Python instaladas
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
tipos anotados | 0.7.0 | AstTokens | 2.0.5 | Astunparse | 1.6.3 |
Comando automático | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-armazenamento-ficheiro-lago-de-dados | 12.17.0 | backports.tarfile | 1.2.0 | preto | 24.4.2 |
pisca | 1.7.0 | Boto3 | 1.34.69 | Botocore | 1.34.69 |
Ferramentas de cache | 5.3.3 | certifi | 2024.6.2 | CFFI | 1.16.0 |
Chardet | 4.0.0 | Normalizador de Charset | 2.0.4 | clique em | 8.1.7 |
Cloudpickle | 2.2.1 | Comumunicação | 0.2.1 | contorno | 1.2.0 |
Criptografia | 42.0.5 | ciclista | 0.11.0 | Cython | 3.0.11 |
Databricks-SDK | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
Decorador | 5.1.1 | Preterido | 1.2.14 | Distlib | 0.3.8 |
docstring para markdown | 0.11 | pontos de entrada | 0.4 | execução | 0.8.3 |
facetas-visão geral | 1.1.1 | bloqueio de ficheiro | 3.15.4 | Fonttools | 4.51.0 |
GitDB | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
Google-Auth | 2.35.0 | Google Cloud Core | 2.4.1 | google-nuvem-armazenamento | 2.18.2 |
Google-CRC32C | 1.6.0 | google-media-reutilizável | 2.7.2 | googleapis-common-protos | 1.65.0 |
Grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
Idna | 3.7 | importlib-metadados | 6.0.0 | importlib_resources | 6.4.0 |
flexionar | 7.3.1 | ipyflow-core | 0.0.201 | Ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.contexto | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | Jedi | 0.19.1 | JmesPath | 1.0.1 |
Joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
Kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | Matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
Mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensões | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | OAuthlib | 3.2.2 |
OpenTelemetry-API | 1.27.0 | OpenTelemetry-SDK | 1.27.0 | OpenTelemetria-Semântica-Convenções | 0,48b0 |
embalagem | 24.1 | pandas | 1.5.3 | Parso | 0.8.3 |
PathSpec | 0.10.3 | Patsy | 0.5.6 | pexpect | 4.8.0 |
almofada | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
enredo | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
Proto-Plus | 1.24.0 | Protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | puro-eval | 0.2.2 |
Pyarrow | 15.0.2 | Piasn1 | 0.4.8 | pyasn1-módulos | 0.2.8 |
Pyccolo | 0.0.65 | Pycparser | 2.21 | Pidântico | 2.8.2 |
pydantic_core | 2.20.1 | Pyflakes | 3.2.0 | Pigmentos | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | Pyodbc | 5.0.1 |
Pyparsing | 3.0.9 | Pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-servidor | 1.10.0 | pytoolconfig | 1.2.6 |
Pytz | 2024.1 | PyYAML | 6.0.1 | Pyzmq | 25.1.2 |
pedidos | 2.32.2 | corda | 1.12.0 | RSA | 4.9 |
s3transfer | 0.10.2 | scikit-aprender | 1.4.2 | Scipy | 1.13.1 |
Seaborn | 0.13.2 | Ferramentas de configuração | 74.0.0 | seis | 1.16.0 |
smmap | 5.0.0 | SQLPARSE | 0.5.1 | ssh-import-id | 5.11 |
dados de pilha | 0.2.0 | modelos de estatísticas | 0.14.2 | tenacidade | 8.2.2 |
ThreadPoolCtl | 2.2.0 | tokenize-rt | 4.2.1 | Tomli | 2.0.1 |
tornado | 6.4.1 | traitlets | 5.14.3 | Protetor de Tipografia | 4.3.0 |
tipos-protobuf | 3.20.3 | tipos-psutil | 5.9.0 | tipos-pytz | 2023.3.1.1 |
tipos-PyYAML | 6.0.0 | tipos de pedidos | 2.31.0.0 | tipos-setuptools | 68.0.0.0 |
seis tipos | 1.16.0 | tipos-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
Ujson | 5.10.0 | Atualizações automáticas | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
O que é o patch | 1.0.2 | roda | 0.43.0 | embrulhado | 1.14.1 |
Yapf | 0.33.0 | zipp | | 3.17.0 |
Bibliotecas R Instaladas
As bibliotecas R são instaladas a partir do instantâneo CRAN do Posit Package Manager em 2024-08-04.
Biblioteca | Versão | Biblioteca | Versão | Biblioteca | Versão |
---|---|---|---|---|---|
seta | 16.1.0 | AskPass | 1.2.0 | afirmar que | 0.2.1 |
Retroportações | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
Bitops | 1.0-8 | bloco | 1.2.4 | Bota | 1.3-30 |
cerveja artesanal | 1.0-10 | Brio | 1.1.5 | vassoura | 1.0.6 |
bslib | 0.8.0 | cachem | 1.1.0 | Chamador | 3.7.6 |
Caret | 6.0-94 | Cellranger | 1.1.0 | Chron | 2.3-61 |
Classe | 7.3-22 | CLI | 3.6.3 | Clipr | 0.8.0 |
relógio | 0.7.1 | aglomeração | 2.1.6 | CodeTools | 0.2-20 |
espaço de cores | 2.1-1 | marca comum | 1.9.1 | Compilador | 4.4.0 |
Configuração | 0.3.2 | conflituosos | 1.2.0 | cpp11 | 0.4.7 |
giz de cera | 1.5.3 | Credenciais | 2.0.1 | ondulação | 5.2.1 |
tabela de dados | 1.15.4 | conjuntos de dados | 4.4.0 | DBI | 1.2.3 |
DBPlyr | 2.5.0 | descrição | 1.4.3 | DevTools | 2.4.5 |
diagrama | 1.6.5 | diffobj | 0.3.5 | Resumo | 0.6.36 |
Iluminação reduzida | 0.4.4 | DPLYR | 1.1.4 | DTPlyr | 1.3.1 |
E1071 | 1.7-14 | reticências | 0.3.2 | avaliar | 0.24.0 |
Fãsi | 1.0.6 | Farver | 2.1.2 | mapa rápido | 1.2.0 |
fontawesome | 0.5.2 | condenados | 1.0.0 | para cada elemento | 1.5.2 |
estrangeiro | 0.8-86 | forjar | 0.2.0 | FS | 1.6.4 |
Futuro | 1.34.0 | future.apply | 1.11.2 | gargarejo | 1.5.2 |
Genéricos | 0.1.3 | Gert | 2.1.0 | ggplot2 | 3.5.1 |
GH | 1.4.1 | Git2R | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | Globais | 0.16.3 | cola | 1.7.0 |
GoogleDrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
gráficos | 4.4.0 | grDispositivos | 4.4.0 | grelha | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0.7 | GT | 0.11.0 |
gtable | 0.3.5 | capacete de segurança | 1.4.0 | Refúgio | 2.5.4 |
mais alto | 0.11 | HMS (Navio de Sua Majestade) | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | HTTR | 1.4.7 |
httr2 | 1.0.2 | IDs | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | Isoband | 0.2.7 | iteradores | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | suco suculento | 0.1.0 |
KernSmooth | 2.23-22 | Knitr | 1.48 | rotulagem | 0.4.3 |
mais tarde | 1.3.2 | treliça | 0.22-5 | lava | 1.8.0 |
ciclo de vida | 1.0.4 | ouvir | 0.9.1 | lubridato | 1.9.3 |
Magrittr | 2.0.3 | Marcação | 1.13 | MASSA | 7.3-60.0.1 |
Matriz | 1.6-5 | memorizar | 2.0.1 | Metodologia | 4.4.0 |
mgcv | 1.9-1 | mímica | 0.12 | miniUI | 0.1.1.1 |
Mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
Munsell | 0.5.1 | NLME | 3.1-165 | NNET | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | paralelo | 4.4.0 |
Paralelamente | 1.38.0 | pilar | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | Plyr | 1.8.9 | elogios | 1.0.0 |
unidades bonitas | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
Prodlim | 2024.06.25 | Profvis | 0.3.8 | Progressos | 1.2.3 |
progressr | 0.14.0 | promessas | 1.3.0 | proto | 1.0.0 |
procuração | 0.4-27 | PS | 1.7.7 | ronronar | 1.0.2 |
R6 | 2.5.1 | RAGG | 1.3.2 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reativo | 0.4.4 |
reactR | 0.6.0 | Leitor | 2.1.5 | readxl | 1.4.3 |
receitas | 1.1.0 | revanche | 2.0.0 | revanche2 | 2.1.2 |
Controles remotos | 2.5.0 | Reprex | 2.1.1 | remodelação2 | 1.4.4 |
Rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
oxigénio2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | Rvest | 1.0.4 | Sass | 0.4.9 |
balanças | 1.3.0 | seletor | 0.4-2 | informação de sessão | 1.2.2 |
forma | 1.4.6.1 | brilhante | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | espacial | 7.3-17 | estrias | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | estatísticas | 4.4.0 |
Estatísticas4 | 4.4.0 | stringi | 1.8.4 | stringr | 1.5.1 |
Sobrevivência | 3.6-4 | Gingado | 5.17.14.1 | SYS | 3.4.2 |
fontes do sistema | 1.1.0 | TCLTK | 4.4.0 | testthat | 3.2.1.1 |
formatação de texto | 0.4.0 | Tibble | 3.2.1 | Tidyr | 1.3.1 |
tidyselect | 1.2.1 | Tidyverse | 2.0.0 | mudança de hora | 0.3.0 |
data e hora | 4032.109 | Tinytex | 0.52 | Ferramentas | 4.4.0 |
TZDB | 0.4.0 | verificador de URLs | 1.0.1 | usethis | 3.0.0 |
UTF8 | 1.2.4 | utilitários | 4.4.0 | UUID | 1.2-1 |
V8 | 4.4.2 | VCTRS | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | Waldo | 0.5.2 | bigode | 0.4.1 |
murchar | 3.0.1 | xfun | 0.46 | XML2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
Zeallot | 0.1.0 | zip | 2.3.1 |
Bibliotecas Java e Scala instaladas (versão de cluster Scala 2.12)
ID do grupo | ID do artefato | Versão |
---|---|---|
Antlr | Antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-cliente | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | AWS-Java-SDK-CloudFormation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-aprendizado de máquina | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | AWS-Java-SDK-STS | 1.12.638 |
com.amazonaws | aws-java-sdk-suporte | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-bibliotecas | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | fluxo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2,12 | 0.4.15-10 |
com.esotericsoftware | Kryo-sombreado | 4.0.2 |
com.esotericsoftware | Minlog | 1.3.0 |
com.fasterxml | colega de turma | 1.3.4 |
com.fasterxml.jackson.core | Jackson-Anotações | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-módulo-scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeína | cafeína | 2.9.3 |
com.github.fommil | Jniloader | 1.1 |
com.github.fommil.netlib | native_ref-Java | 1.1 |
com.github.fommil.netlib | native_ref-Java | 1.1-Nativos |
com.github.fommil.netlib | sistema_nativo-Java | 1.1 |
com.github.fommil.netlib | sistema_nativo-Java | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-Nativos |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-Nativos |
com.github.luben | ZSTD-JNI | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | JSR305 | 3.0.0 |
com.google.code.gson | Gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | anotações propensas a erros | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | Goiaba | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | ferramenta de análise de desempenho | 1.1.1 |
com.ibm.icu | ICU4J | 75.1 |
com.jcraft | JSCH | 0.1.55 |
com.jolbox | BONECP | 0.8.0.LANÇAMENTO |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | MSSQL-JDBC | 11.2.2.jre8 |
com.microsoft.sqlserver | MSSQL-JDBC | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | JAXB-CORE | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | Json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | Chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | Configuração | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | analisadores de univocidade | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
coleções commons | coleções commons | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
carregamento-de-ficheiros-comuns | carregamento-de-ficheiros-comuns | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
Commons-Logging | Commons-Logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | ARPACK | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | LAPACK | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compressor de ar | 0.27 |
IO.Delta | delta-partilha-client_2.12 | 1.2.2 |
io.dropwizard.metrics | métricas-anotação | 4.2.19 |
io.dropwizard.metrics | métricas-núcleo | 4.2.19 |
io.dropwizard.metrics | métricas-grafite | 4.2.19 |
io.dropwizard.metrics | métricas e verificações de saúde | 4.2.19 |
io.dropwizard.metrics | métricas-jetty9 | 4.2.19 |
io.dropwizard.metrics | métricas-jmx | 4.2.19 |
io.dropwizard.metrics | métricas-json | 4.2.19 |
io.dropwizard.metrics | métricas JVM | 4.2.19 |
io.dropwizard.metrics | métricas-servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-comum | 4.1.108.Final |
io.netty | netty-manipulador | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | transporte Netty | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-nativo-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-nativo-unix-comum | 4.1.108.Final |
io.prometeu | cliente simples | 0.7.0 |
io.prometeu | simpleclient_common | 0.7.0 |
io.prometeu | simpleclient_dropwizard | 0.7.0 |
io.prometeu | simpleclient_pushgateway | 0.7.0 |
io.prometeu | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | coletor | 0.12.0 |
jacarta.anotação | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validação | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | Jakarta.ws.rs-api | 2.1.6 |
javax.ativação | ativação | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | JDO-API | 3.0.1 |
javax.transaction | JTA | 1.1 |
javax.transaction | API de transação | 1.1 |
javax.xml.bind | JAXB-API | 2.2.11 |
Javolução | Javolução | 5.5.1 |
Jline | Jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | JNA | 5.8.0 |
net.razorvine | conserva | 1.3 |
net.sf.jpam | JPAM | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | Super-CSV | 2.2.0 |
net.floco de neve | Snowflake Ingest SDK | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-tempo de execução | 3.5.2 |
org.antlr | antlr4-tempo de execução | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | formiga | 1.10.11 |
org.apache.ant | ANT-JSCH | 1.10.11 |
org.apache.ant | lançador de formigas | 1.10.11 |
org.apache.arrow | formato de seta | 15.0.0 |
org.apache.arrow | seta-memória-núcleo | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | seta-vetor | 15.0.0 |
org.apache.avro | Avro | 1.11.3 |
org.apache.avro | AVRO-IPC | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | colecções-commons4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-cripto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-texto | 1.10.0 |
org.apache.curador | curador-cliente | 2.13.0 |
org.apache.curador | Curadoria-quadro | 2.13.0 |
org.apache.curador | curadoria de receitas | 2.13.0 |
org.apache.datasketches | Datasketches-Java | 3.1.0 |
org.apache.datasketches | datasketches-memória | 2.0.0 |
org.apache.derby | Dérbi | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | colmeia-abelha | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | Hive-JDBC | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-comum | 2.3.9 |
org.apache.hive | Colmeia-Serde | 2.3.9 |
org.apache.hive | colmeias-calços | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | colmeia-calços-comum | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | Hera | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-protobuf sombreado |
org.apache.orc | orc-mapreduce | 1.9.2-protobuf sombreado |
org.apache.orc | Orc-calços | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-sombreado | 4.23 |
org.apache.yetus | anotações do público | 0.13.0 |
org.apache.zookeeper | tratador de jardins zoológicos | 3.9.2 |
org.apache.zookeeper | tratador-de-animais-juta | 3.9.2 |
org.checkerframework | verificador de qualidade | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | Janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | DataNucleus Core | 4.1.17 |
org.datanucleus | Datanucleus-RDBMS | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-coleções | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | Jetty-Cliente | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Continuação | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Proxy | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-Segurança | 9.4.52.v20230823 |
org.eclipse.jetty | servidor Jetty | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | cais-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | Jetty-XML | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | API WebSocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-cliente | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-Comum | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | servidor websocket | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | Websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | HK2-API | 2.6.1 |
org.glassfish.hk2 | HK2-Localizador | 2.6.1 |
org.glassfish.hk2 | HK2-Utils | 2.6.1 |
org.glassfish.hk2 | OSGI-Localizador de Recursos | 1.0.3 |
org.glassfish.hk2.external | aopalliance-reembalado | 2.6.1 |
org.glassfish.hk2.external | jacarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | Jersey-Comum | 2.40 |
org.glassfish.jersey.core | jersey-servidor | 2.40 |
org.glassfish.jersey.inject | Jersey-HK2 | 2.40 |
org.hibernate.validator | Hibernate-Validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | Javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | anotações | 17.0.0 |
org.joda | joda-converter | 1.7 |
org.jodd | JODD-CORE | 3.5.2 |
org.json4s | JSON4S-ast_2.12 | 4.0.7 |
org.json4s | JSON4S-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson_2,12 | 4.0.7 |
org.json4s | JSON4S-scalap_2.12 | 4.0.7 |
org.lz4 | LZ4-Java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2,12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | PostgreSQL | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | calços | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | Escala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | interface de teste | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatível com scalatest | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-sobre-slf4j | 2.0.7 |
org.slf4j | jul-para-slf4j | 2.0.7 |
org.slf4j | SLF4J-API | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | XZ | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | torre-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | SQLITE-JDBC | 3.42.0.0 |
org.xerial.snappy | Snappy-java | 1.1.10.3 |
org.yaml | Snakeyaml | 2.0 |
ouro | ouro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
Stax | Stax-API | 1.0.1 |