Databricks Runtime 14.0 (EoS)
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 14.0 optimisé par Apache Spark 3.5.0.
Databricks a publié cette version en septembre 2023.
Améliorations et nouvelles fonctionnalités
- Le suivi des lignes est en GA
- Les E/S prédictives pour les mises à jour sont en disponibilité générale
- Les vecteurs de suppression sont en disponibilité générale
- Spark 3.5.0 est en disponibilité générale
- Préversion publique pour les fonctions table définies par l’utilisateur pour Python
- Préversion publique pour l’accès concurrentiel au niveau des lignes
- Le répertoire de travail courant par défaut a changé
- Problème connu avec sparklyr
- Présentation de Spark Connect dans l’architecture de cluster partagé
- Mise à jour de l’API de liste des versions Spark disponibles
Le suivi des lignes est en GA
Le suivi des lignes pour Delta Lake est désormais en disponibilité générale. Consultez Utiliser le suivi des lignes pour les tables Delta.
Les E/S prédictives pour les mises à jour sont en disponibilité générale
Les E/S prédictives pour les mises à jour sont désormais en disponibilité générale. Consultez Qu’est-ce que les E/S prédictives ?.
Les vecteurs de suppression sont en disponibilité générale
Les vecteurs de suppression sont désormais en disponibilité générale. Consultez Que sont les vecteurs de suppression ?.
Spark 3.5.0 est en disponibilité générale
Apache Spark 3.5.0 est désormais en disponibilité générale. Consultez Spark Release 3.5.0.
Préversion publique pour les fonctions table définies par l’utilisateur pour Python
Les fonctions table définies par l’utilisateur (UDTF) vous permettent d’inscrire des fonctions qui retournent des tables plutôt que des valeurs scalaires. Consultez Fonctions de table définies par l’utilisateur (UDTF) Python.
Préversion publique pour l’accès concurrentiel au niveau des lignes
L’accès concurrentiel au niveau des lignes réduit les conflits entre les opérations d’écriture simultanées en détectant les modifications au niveau des lignes et en résolvant automatiquement les modifications concurrentes dans les écritures simultanées qui mettent à jour ou suppriment des lignes différentes dans le même fichier de données. Consultez Conflits d’écriture avec concurrence au niveau des lignes.
Le répertoire de travail courant par défaut a changé
Le répertoire de travail courant (CWD) par défaut pour le code exécuté localement est désormais le répertoire contenant le notebook ou le script en cours d’exécution. Cela inclut le code tel que %sh
et le code Python ou R n’utilisant pas Spark. Consultez Quel est le répertoire de travail actuel par défaut ?.
Problème connu avec sparklyr
La version installée du package sparklyr
(version 1.8.1) n’est pas compatible avec Databricks Runtime 14.0. Pour utiliser sparklyr
, installer la version 1.8.3 ou ultérieure.
Présentation de Spark Connect dans l’architecture de cluster partagé
Avec Databricks Runtime 14.0 et versions ultérieures, les clusters partagés utilisent désormais Spark Connect avec le pilote Spark du REPL Python par défaut. Les API Spark internes ne sont plus accessibles à partir du code utilisateur.
Spark Connect interagit désormais avec le pilote Spark à partir de Read–eval–print loop (REPL), au lieu de l’intégration REPL héritée.
Mise à jour de l’API de liste des versions Spark disponibles
Activez Photon en définissant runtime_engine = PHOTON
, et activez aarch64
en choisissant un type d’instance graviton. Azure Databricks définit la version correcte de Databricks Runtime. Auparavant, l’API de version Spark retournait les runtimes propres à l’implémentation pour chaque version. Consultez GET /api/2.0/clusters/spark-versions dans la référence de l’API REST.
Dernières modifications
Dans Databricks Runtime 14.0 et versions ultérieures, les clusters avec mode d'accès partagé utilisent Spark Connect pour la communication client-serveur. Cela inclut les modifications suivantes.
Pour plus d’informations sur les limitations du mode d’accès partagé, consultez limitations du mode d’accès de calcul pour Unity Catalog.
Python sur clusters avec mode d'accès partagé
sqlContext
n’est pas disponible. Azure Databricks recommande d'utiliser la variablespark
pour l'instanceSparkSession
.- Spark Context (
sc
) n'est plus disponible dans Notebooks ou lors de l'utilisation de Databricks Connect sur un cluster avec mode d'accès partagé. Les fonctionssc
suivantes ne sont plus disponibles :emptyRDD
,range
,init_batched_serializer
,parallelize
,pickleFile
,textFile
,wholeTextFiles
,binaryFiles
,binaryRecords
,sequenceFile
,newAPIHadoopFile
,newAPIHadoopRDD
,hadoopFile
,hadoopRDD
,union
,runJob
,setSystemProperty
,uiWebUrl
,stop
,setJobGroup
,setLocalProperty
,getConf
- La fonctionnalité Informations sur l'ensemble de données n'est plus prise en charge.
- Il n'y a plus de dépendance à la JVM lors de l'interrogation d'Apache Spark et, par conséquent, les API internes liées à la JVM, telles que
_jsc
,_jconf
,_jvm
,_jsparkSession
,_jreader
,_jc
,_jseq
,_jdf
,_jmap
, et_jcols
ne sont plus prises en charge. - Lors de l'accès aux valeurs de configuration à l'aide de
spark.conf
seulement les valeurs de configuration d'exécution dynamique sont accessibles. - Les commandes d'analyse Delta Live Tables ne sont pas encore prises en charge sur les clusters partagés.
Delta sur les clusters avec mode d'accès partagé
- En Python, il n'y a plus de dépendance à la JVM lors de l'interrogation d'Apache Spark. Les API internes liées à JVM, telles que
DeltaTable._jdt
,DeltaTableBuilder._jbuilder
,DeltaMergeBuilder._jbuilder
, etDeltaOptimizeBuilder._jbuilder
ne sont plus prises en charge.
SQL sur clusters avec mode d'accès partagé
- Les commandes
DBCACHE
etDBUNCACHE
ne sont plus prises en charge. - Les cas d’usage rares tels que
cache table db as show databases
ne sont plus pris en charge.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- asttokens de 2.2.1 à 2.0.5
- attrs de 21.4.0 à 22.1.0
- botocore de 1.27.28 à 1.27.96
- certifi de 2022.9.14 à 2022.12.7
- chiffrement de 37.0.1 à 39.0.1
- debugpy de la version 1.6.0 vers la version 1.6.7
- docstring-to-markdown de 0.12 à 0.11
- exécution de 1.2.0 à 0.8.3
- facets-overview de 1.0.3 à 1.1.1
- googleapis-common-protos de 1.56.4 à 1.60.0
- grpcio de 1.48.1 à 1.48.2
- idna de 3.3 à 3.4
- ipykernel de 6.17.1 à 6.25.0
- ipython de 8.10.0 à 8.14.0
- Jinja2 de 2.11.3 à 3.1.2
- jsonschema de 4.16.0 à 4.17.3
- jupyter-core de 4.11.2 à 5.2.0
- kiwisolver de 1.4.2 à 1.4.4
- MarkupSafe de 2.0.1 à 2.1.1
- matplotlib de 3.5.2 à 3.7.0
- nbconvert de 6.4.4 à 6.5.4
- nbformat de 5.5.0 à 5.7.0
- nest-asyncio de 1.5.5 à 1.5.6
- notebook de 6.4.12 à 6.5.2
- numpy de 1.21.5 à 1.23.5
- packaging de 21.3 à 22.0
- pandas de 1.4.4 à 1.5.3
- pathspec de 0.9.0 à 0.10.3
- patsy de 0.5.2 à 0.5.3
- Pillow de 9.2.0 à 9.4.0
- pip de 22.2.2 à 22.3.1
- protobuf de 3.19.4 à 4.24.0
- pytoolconfig de 1.2.2 à 1.2.5
- pytz de 2022.1 à 2022.7
- s3transfer de 0.6.0 à 0.6.1
- seaborn 0.11.2 à 0.12.2
- setuptools de 63.4.1 à 65.6.3
- soupsieve de 2.3.1 à 2.3.2.post1
- stack-data de 0.6.2 à 0.2.0
- statsmodels de 0.13.2 à 0.13.5
- terminado de 0.13.1 à 0.17.1
- traitlets de 5.1.1 à 5.7.1
- typing_extensions de la version 4.3.0 à la version 4.4.0
- urllib3 de 1.26.11 à 1.26.14
- virtualenv de 20.16.3 à 20.16.7
- wheel de 0.37.1 à 0.38.4
- Bibliothèques R mises à niveau :
- flèche de 10.0.1 à 12.0.1
- base de 4.2.2 à 4.3.1
- blob de 1.2.3 à 1.2.4
- broom de 1.0.3 à 1.0.5
- bslib de 0.4.2 à 0.5.0
- cachem la version 1.0.6 à la version 1.0.8
- caret de la version 6.0-93 à la version 6.0-94
- chron de 2.3-59 à 2.3-61
- class de 7.3-21 à 7.3-22
- cli de 3.6.0 à 3.6.1
- horloge de 0.6.1 à 0.7.0
- commonmark de 1.8.1 à 1.9.0
- compiler de 4.2.2 à 4.3.1
- cpp11 de 0.4.3 à 0.4.4
- curl de 5.0.0 à 5.0.1
- data.table de 1.14.6 à 1.14.8
- datasets de 4.2.2 à 4.3.1
- dbplyr de 2.3.0 à 2.3.3
- digest de 0.6.31 à 0.6.33
- downlit de 0.4.2 à 0.4.3
- dplyr de 1.1.0 à 1.1.2
- dtplyr de la version 1.2.2 à la version 1.3.1
- evaluate 0.20 à 0.21
- fastmap de 1.1.0 à 1.1.1
- fontawesome de 0.5.0 à 0.5.1
- fs de 1.6.1 à 1.6.2
- future de 1.31.0 à 1.33.0
- future.apply de 1.10.0 à 1.11.0
- gargle de 1.3.0 à 1.5.1
- ggplot2 de 3.4.0 à 3.4.2
- gh de 1.3.1 à 1.4.0
- glmnet de 4.1-6 à 4.1-7
- googledrive de 2.0.0 à 2.1.1
- googlesheets4 de la version 1.0.1 à la version 1.1.1
- graphics de 4.2.2 à 4.3.1
- grDevices de 4.2.2 à 4.3.1
- grid de 4.2.2 à 4.3.1
- gtable de la version 0.3.1 à la version 0.3.3
- hardhat de la version 1.2.0 à la version 1.3.0
- haven de la version 2.5.1 à la version 2.5.3
- hms de 1.1.2 à 1.1.3
- htmltools de 0.5.4 à 0.5.5
- htmlwidgets de 1.6.1 à 1.6.2
- httpuv de 1.6.8 à 1.6.11
- httr de la version 1.4.4 à la version 1.4.6
- ipred de la version 0.9-13 à la version 0.9-14
- jsonlite de 1.8.4 à 1.8.7
- KernSmooth de 2.23-20 à 2.23-21
- knitr de 1.42 à 1.43
- later de 1.3.0 à 1.3.1
- lattice de 0.20-45 à 0.21-8
- lava de 1.7.1 à 1.7.2.1
- lubridate de 1.9.1 à 1.9.2
- markdown de 1.5 à 1.7
- MASS de 7.3-58.2 à 7.3-60
- Matrix de 1.5-1 à 1.5-4.1
- methods de 4.2.2 à 4.3.1
- mgcv de 1.8-41 à 1.8-42
- modeleur de 0.1.10 à 0.1.11
- nnet de 7.3-18 à 7.3-19
- openssl de 2.0.5 à 2.0.6
- parallel de 4.2.2 à 4.3.1
- parallèlement de 1.34.0 à 1.36.0
- pillar de la version 1.8.1 à la version 1.9.0
- pkgbuild de 1.4.0 à 1.4.2
- pkgload de 1.3.2 à 1.3.2.1
- pROC de 1.18.0 à 1.18.4
- processx de 3.8.0 à 3.8.2
- prodlim de 2019.11.13 à 2023.03.31
- profvis de 0.3.7 à 0.3.8
- ps de 1.7.2 1 à 1.7.5
- Rcpp de 1.0.10 à 1.0.11
- readr de 2.1.3 à 2.1.4
- readxl de 1.4.2 à 1.4.3
- recettes de 1.0.4 à 1.0.6
- rlang de 1.0.6 à 1.1.1
- rmarkdown de 2.20 à 2.23
- Rserve de 1.8-12 à 1.8-11
- RSQLite de 2.2.20 à 2.3.1
- rstudioapi de 0.14 à 0.15.0
- sass de 0.4.5 à 0.4.6
- shiny de 1.7.4 à 1.7.4.1
- sparklyr de 1.7.9 à 1.8.1
- SparkR de 3.4.1 vers 3.5.0
- splines de 4.2.2 à 4.3.1
- stas de 4.2.2 à 4.3.1
- stats4 de 4.2.2 à 4.3.1
- survie de 3.5-3 à 3.5-5
- sys de 3.4.1 à 3.4.2
- tcltk de 4.2.2 à 4.3.1
- testthat de 3.1.6 à 3.1.10
- tibble de la version 3.1.8 vers la version 3.2.1
- tidyverse de 1.3.2 à 2.0.0
- tinytex de 0.44 à 0.45
- tools de 4.2.2 à 4.3.1
- tzdb de 0.3.0 vers 0.4.0
- usethis de 2.1.6 à 2.2.2
- utils de 4.2.2 à 4.3.1
- vctrs de 0.5.2 à 0.6.3
- viridisLite de 0.4.1 à 0.4.2
- vroom de 1.6.1 à 1.6.3
- waldo de 0.4.0 à 0.5.1
- xfun de 0.37 à 0.39
- xml2 de 1.3.3 à 1.3.5
- zip de 2.2.2 à 2.3.0
- Bibliothèques Java mises à niveau :
- com.fasterxml.jackson.core.jackson-annotations de 2.14.2 à 2.15.2
- com.fasterxml.jackson.core.jackson-core de 2.14.2 à 2.15.2
- com.fasterxml.jackson.core.jackson-databind de 2.14.2 à 2.15.2
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.14.2 à 2.15.2
- com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.14.2 à 2.15.2
- com.fasterxml.jackson.datatype.jackson-datatype-jsr310 de 2.13.4 à 2.15.1
- com.fasterxml.jackson.module.jackson-module-paranamer de 2.14.2 à 2.15.2
- com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.14.2 à 2.15.2
- com.github.luben.zstd-jni de 1.5.2-5 à 1.5.5-4
- com.google.code.gson.gson de 2.8.9 à 2.10.1
- com.google.crypto.tink.tink de 1.7.0 à 1.9.0
- commons-codec.commons-codec de 1.15 à 1.16.0
- commons-io.commons-io de 2.11.0 vers 2.13.0
- io.airlift.aircompressor de 0.21 à 0.24
- io.dropwizard.metrics.metrics-core de 4.2.10 à 4.2.19
- io.dropwizard.metrics.metrics-graphite de 4.2.10 à 4.2.19
- io.dropwizard.metrics.metrics-healthchecks de 4.2.10 à 4.2.19
- io.dropwizard.metrics.metrics-jetty9 de 4.2.10 à 4.2.19
- io.dropwizard.metrics.metrics-jmx de 4.2.10 à 4.2.19
- io.dropwizard.metrics.metrics-json de 4.2.10 à 4.2.19
- io.dropwizard.metrics.metrics-jvm de 4.2.10 à 4.2.19
- io.dropwizard.metrics.metrics-servlets de 4.2.10 à 4.2.19
- io.netty.netty-all de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-buffer de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-codec de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-codec-http from 4.1.87.Final à 4.1.93.Final
- io.netty.netty-codec-http2 from 4.1.87.Final à 4.1.93.Final
- io.netty.netty-codec-socks from 4.1.87.Final à 4.1.93.Final
- io.netty.netty-common de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-handler de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-handler-proxy from 4.1.87.Final à 4.1.93.Final
- io.netty.netty-resolver de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-transport de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-transport-classes-epoll de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-transport-classes-kqueue de 4.1.87.Final à 4.1.93.Final
- io.netty.netty-transport-native-epoll from 4.1.87.Final-linux-x86_64 à 4.1.93.Final-linux-x86_64
- io.netty.netty-transport-native-kqueue from 4.1.87.Final-osx-x86_64 à 4.1.93.Final-osx-x86_64
- io.netty.netty-transport-native-unix-common de 4.1.87.Final à 4.1.93.Final
- org.apache.arrow.arrow-format de 11.0.0 à 12.0.1
- org.apache.arrow.arrow-memory-core de 11.0.0 à 12.0.1
- org.apache.arrow.arrow-memory-netty de 11.0.0 à 12.0.1
- org.apache.arrow.arrow-vector de 11.0.0 à 12.0.1
- org.apache.avro.avro de 1.11.1 à 1.11.2
- org.apache.avro.avro-ipc de 1.11.1 à 1.11.2
- org.apache.avro.avro-mapred de 1.11.1 à 1.11.2
- org.apache.commons.commons-compress de 1.21 à 1.23.0
- org.apache.hadoop.hadoop-client-runtime de 3.3.4 à 3.3.6
- org.apache.logging.log4j.log4j-1.2-api de 2.19.0 à 2.20.0
- org.apache.logging.log4j.log4j-api de 2.19.0 à 2.20.0
- org.apache.logging.log4j.log4j-core de 2.19.0 à 2.20.0
- org.apache.logging.log4j.log4j-slf4j2-impl de 2.19.0 à 2.20.0
- org.apache.orc.orc-core de 1.8.4-shaded-protobuf vers 1.9.0-shaded-protobuf
- org.apache.orc.orc-mapreduce de 1.8.4-shaded-protobuf vers 1.9.0-shaded-protobuf
- org.apache.orc.orc-shims de 1.8.4 vers 1.9.0
- org.apache.xbean.xbean-asm9-shaded de 4.22 à 4.23
- org.checkerframework.checker-qual de 3.19.0 à 3.31.0
- org.glassfish.jersey.containers.jersey-container-servlet de la version 2.36 vers la version 2.40
- org.glassfish.jersey.containers.jersey-container-servlet-core de la version 2.36 vers la version 2.40
- org.glassfish.jersey.core.jersey-client de la version 2.36 vers la version 2.40
- org.glassfish.jersey.core.jersey-common de la version 2.36 vers la version 2.40
- org.glassfish.jersey.core.jersey-server de la version 2.36 vers la version 2.40
- org.glassfish.jersey.inject.jersey-hk2 de la version 2.36 vers la version 2.40
- org.javassist.javassist de 3.25.0-GA à 3.29.2-GA
- org.mariadb.jdbc.mariadb-java-client de 2.7.4 à 2.7.9
- org.postgresql.postgresql de 42.3.8 à 42.6.0
- org.roaringbitmap.RoaringBitmap de 0.9.39 vers 0.9.45
- org.roaringbitmap.shims de 0.9.39 à 0.9.45
- org.rocksdb.rocksdbjni de 7.8.3 vers 8.3.2
- org.scala-lang.modules.scala-collection-compat_2.12 de 2.4.3 à 2.9.0
- org.slf4j.jcl-over-slf4j de2.0.6 à 2.0.7
- org.slf4j.jul-to-slf4j de 2.0.6 à 2.0.7
- org.slf4j.slf4j-api de 2.0.6 vers 2.0.7
- org.xerial.snappy.snappy-java de 1.1.10.1 vers 1.1.10.3
- org.yaml.snakeyaml de 1.33 à 2.0
Apache Spark
Databricks Runtime 14.0. Cette version inclut tous les correctifs et améliorations Spark figurant dans Databricks Runtime 13.3 LTS ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-45109] [DBRRM-462] [SC-142247] [SQL] [CONNECT] Corriger les fonctions aes_decrypt et ln dans Connect
- [SPARK-44980] [DBRRM-462] [SC-141024] [PYTHON] [CONNECT] Corriger les tuples nommés pour fonctionner dans createDataFrame
- [SPARK-44795] [DBRRM-462] [SC-139720] [CONNECT] CodeGenerator Cache doit être propre au classloader
- [SPARK-44861] [DBRRM-498][SC-140716][CONNECT] jsonignore SparkListenerConnectOperationStarted.planRequest
- [SPARK-44794] [DBRRM-462] [SC-139767] [CONNECT] Faire fonctionner les requêtes de streaming avec la gestion des artefacts de Connect
- [SPARK-44791] [DBRRM-462] [SC-139623] [CONNECT] Faire fonctionner ArrowDeserializer avec les classes générées par REPL
- [SPARK-44876] [DBRRM-480][SC-140431][PYTHON] Correctif de la fonction UDF Python optimisée pour les flèches sur Spark Connect
- [SPARK-44877] [DBRRM-482][SC-140437][CONNECT][PYTHON] Prise en charge des fonctions protobuf Python pour Spark Connect
- [SPARK-44882] [DBRRM-463][SC-140430][PYTHON][CONNECT] Supprimer la fonction uuid/random/chr de PySpark
- [SPARK-44740] [DBRRM-462][SC-140320][CONNECT][FOLLOW] Correctif des valeurs de métadonnées pour les artefacts
- [SPARK-44822] [DBRRM-464][PYTHON][SQL] Rendre les fonctions définies par l’utilisateur Python par défaut non déterministes
- [SPARK-44836] [DBRRM-468][SC-140228][PYTHON] Refactorisation de la flèche Python UDTF
- [SPARK-44738] [DBRRM-462][SC-139347][PYTHON][CONNECT] Ajouter des métadonnées client manquantes aux appels
- [SPARK-44722] [DBRRM-462][SC-139306][CONNECT] ExecutePlanResponseReattachableIterator._call_iter : AttributeError : l’objet ’NoneType’ n’a pas d’attribut ’message’
- [SPARK-44625] [DBRRM-396][SC-139535][CONNECT] SparkConnectExecutionManager pour suivre toutes les exécutions
- [SPARK-44663] [SC-139020][DBRRM-420][PYTHON] Désactiver l’optimisation des flèches par défaut pour les fonctions définies par l’utilisateur Python
- [SPARK-44709] [DBRRM-396][SC-139250][CONNECT] Exécuter ExecuteGrpcResponseSender dans l’exécution réattachable dans un nouveau thread pour corriger le contrôle de flux
- [SPARK-44656] [DBRRM-396][SC-138924][CONNECT] Rendre tous les itérateurs CloseableIterators
- [SPARK-44671] [DBRRM-396][SC-138929][PYTHON][CONNECT] Nouvelle tentative ExecutePlan au cas où la requête initiale n’atteignait pas le serveur dans le client Python
- [SPARK-44624] [DBRRM-396][SC-138919][CONNECT] Nouvelle tentative ExecutePlan au cas où la requête initiale n’atteignait pas le serveur
- [SPARK-44574] [DBRRM-396][SC-138288][SQL][CONNECT] Les erreurs déplacées dans sq/api doivent également utiliser AnalysisException
- [SPARK-44613] [DBRRM-396][SC-138473][CONNECT] Ajouter un objet Encodeurs
- [SPARK-44626] [DBRRM-396][SC-138828][SS][CONNECT] Suivi de l’arrêt de requête de diffuser en continu lorsque la session cliente a expiré pour Spark Connect
- [SPARK-44642] [DBRRM-396][SC-138882][CONNECT] ReleaseExecute in ExecutePlanResponseReattachableIterator après l’erreur du serveur
- [SPARK-41400] [DBRRM-396][SC-138287][CONNECT] Supprimer la dépendance de Connect Client Catalyst
- [SPARK-44664] [DBRRM-396][PYTHON][CONNECT] Mise en production de l’exécution lors de la fermeture de l’itérateur dans le client Python
- [SPARK-44631] [DBRRM-396][SC-138823][CONNECT][CORE][14.0.0] Supprimer le répertoire basé sur la session lorsque le cache de session isolé est supprimé
- [SPARK-42941] [DBRRM-396][SC-138389][SS][CONNECT] Python StreamingQueryListener
- [SPARK-44636] [DBRRM-396][SC-138570][CONNECT] Ne laissez aucun itérateur non actif
- [SPARK-44424] [DBRRM-396][CONNECT][PYTHON][14.0.0] Client Python pour le rattachement à une exécution existante dans Spark Connect
- [SPARK-44637] [SC-138571] Synchroniser les accès à ExecuteResponseObserver
- [SPARK-44538] [SC-138178][CONNECT][SQL] Rétablir Row.jsonValue et amis
- [SPARK-44421] [SC-138434][SPARK-44423][CONNECT] Exécution rattachable dans Spark Connect
- [SPARK-44418] [SC-136807][PYTHON][CONNECT] Mettre à niveau protobuf de 3.19.5 vers 3.20.3
- [SPARK-44587] [SC-138315][SQL][CONNECT] Augmenter la limite de récursivité du marshaleur protobuf
- [SPARK-44591] [SC-138292][CONNECT][SQL] Ajouter des jobTags à SparkListenerSQLExecutionStart
- [SPARK-44610] [SC-138368][SQL] DeduplicateRelations doit conserver les métadonnées d’alias lors de la création d’un nouveau instance
- [SPARK-44542] [SC-138323][CORE] Chargement rapide de la classe SparkExitCode dans le gestionnaire d’exceptions
- [SPARK-44264] [SC-138143][PYTHON]E2E Test pour Deepspeed
- [SPARK-43997] [SC-138347][CONNECT] Ajout de la prise en charge des fonctions définies par l’utilisateur Java
- [SPARK-44507] [SQL][CONNECT][14.x][14.0] Déplacer AnalysisException vers sql/api
- [SPARK-44453] [SC-137013][PYTHON] Utiliser difflib pour afficher les erreurs dans assertDataFrameEqual
- [SPARK-44394] [SC-138291][CONNECT][WEBUI][14.0] Ajouter une page d’interface utilisateur Spark pour Spark Connect
- [SPARK-44611] [SC-138415][CONNECT] Ne pas exclure scala-xml
- [SPARK-44531] [SC-138044][CONNECT][SQL][14.x][14.0] Déplacer l’inférence de l’encodeur vers sql/api
- [SPARK-43744] [SC-138289][CONNECT][14.x][14.0] Correctif du problème de chargement de classe…
- [SPARK-44590] [SC-138296][SQL][CONNECT] Supprimer la limite d’enregistrements de lots de flèches pour SqlCommandResult
- [SPARK-43968] [SC-138115][PYTHON] Améliorer les messages d’erreur pour les fonctions définies par l’utilisateur Python avec un nombre de sorties incorrect
- [SPARK-44432] [SC-138293][SS][CONNECT] Arrêter les requêtes de diffusion en continu lorsqu’une session expire dans Spark Connect
- [SPARK-44584] [SC-138295][CONNECT] Définir client_type informations pour AddArtifactsRequest et ArtifactStatusesRequest dans le client Scala
- [SPARK-44552] [14.0][SC-138176][SQL] Supprimer la
private object ParseState
définition deIntervalUtils
- [SPARK-43660] [SC-136183][CONNECT][PS] Activer
resample
avec Spark Connect - [SPARK-44287] [SC-136223][SQL] Utiliser l’API PartitionEvaluator dans les opérateurs SQL RowToColumnarExec et ColumnarToRowExec.
- [SPARK-39634] [SC-137566][SQL] Autoriser le fractionnement de fichiers en combinaison avec la génération d’index de ligne
- [SPARK-44533] [SC-138058][PYTHON] Ajout de la prise en charge de l’accumulateur, de la diffusion et des fichiers Spark dans l’analyse de Python UDTF
- [SPARK-44479] [SC-138146][PYTHON] Correctif d’ArrowStreamPandasUDFSerializer pour accepter le DataFrame pandas sans colonne
- [SPARK-44425] [SC-138177][CONNECT] Vérifier que sessionId fourni par l’utilisateur est un UUID
- [SPARK-44535] [SC-138038][CONNECT][SQL] Déplacer l’API de diffuser en continu requise vers sql/api
- [SPARK-44264] [SC-136523][ML][PYTHON] Écrire une classe Deepspeed Distributed Learning DeepspeedTorchDistributor
- [SPARK-42098] [SC-138164][SQL] Correctif resolveInlineTables ne peut pas gérer avec l’expression RuntimeReplaceable
- [SPARK-44060] [SC-135693][SQL] Code-gen pour la jointure hachée aléatoire externe côté build
- [SPARK-44496] [SC-137682][SQL][CONNECT] Déplacer les interfaces requises par SCSC vers sql/api
- [SPARK-44532] [SC-137893][CONNECT][SQL] Déplacer ArrowUtils vers sql/api
- [SPARK-44413] [SC-137019][PYTHON] Clarification de l’erreur pour le type de données arg non pris en charge dans assertDataFrameEqual
- [SPARK-44530] [SC-138036][CORE][CONNECT] Déplacer SparkBuildInfo vers common/util
- [SPARK-36612] [SC-133071][SQL] Prise en charge de la build de jointure externe gauche ou droite de la build de jointure externe gauche ou droite dans la jointure hachée aléatoire
- [SPARK-44519] [SC-137728][CONNECT] SparkConnectServerUtils a généré des paramètres incorrects pour les fichiers jar
- [SPARK-44449] [SC-137818][CONNECT] Upcasting pour Arrow direct Désérialisation
- [SPARK-44131] [SC-136346][SQL] Ajouter call_function et déprécier call_udf pour l’API Scala
- [SPARK-44541] [SQL] Supprimer la fonction
hasRangeExprAgainstEventTimeCol
inutile deUnsupportedOperationChecker
- [SPARK-44523] [SC-137859][SQL] MaxRows/maxRowsPerPartition du filtre est 0 si la condition est FalseLiteral
- [SPARK-44540] [SC-137873][UI] Supprimer les fichiers javascript et de feuille de style inutilisés de jsonFormatter
- [SPARK-44466] [SC-137856][SQL] Exclure les configurations commençant par
SPARK_DRIVER_PREFIX
etSPARK_EXECUTOR_PREFIX
à partir de modifiedConfigs - [SPARK-44477] [SC-137508][SQL] Traiter TYPE_CHECK_FAILURE_WITH_HINT comme une sous-classe d’erreur
- [SPARK-44509] [SC-137855][PYTHON][CONNECT] Ajouter un ensemble d’API d’annulation de travail dans le client Python Spark Connect
- [SPARK-44059] [SC-137023] Ajout de la prise en charge de l’analyseur d’arguments nommés pour les fonctions intégrées
- [SPARK-38476] [SC-136448][CORE] Utiliser la classe d’erreur dans org.apache.spark.storage
- [SPARK-44486] [SC-137817][PYTHON][CONNECT] Implémenter la fonctionnalité PyArrow
self_destruct
pourtoPandas
- [SPARK-44361] [SC-137200][SQL] Utiliser l’API PartitionEvaluator dans MapInBatchExec
- [SPARK-44510] [SC-137652][UI] Mettre à jour dataTables vers la version 1.13.5 et supprimer certains fichiers png non atteints
- [SPARK-44503] [SC-137808][SQL] Ajout de la grammaire SQL pour les clauses PARTITION BY et ORDER BY après les arguments TABLE pour les appels TVF
- [SPARK-38477] [SC-136319][CORE] Utiliser la classe d’erreur dans org.apache.spark.shuffle
- [SPARK-44299] [SC-136088][SQL] Attribuer des noms à la classe d’erreur _LEGACY_ERROR_TEMP_227[4-6,8]
- [SPARK-44422] [SC-137567][CONNECT] Interruption fine de Spark Connect
- [SPARK-44380] [SC-137415][SQL][PYTHON] Prise en charge de l’UDTF Python à analyser dans Python
- [SPARK-43923] [SC-137020][CONNECT] Postuler les événements de l’auditeur pendant…
- [SPARK-44303] [SC-136108][SQL] Attribuer des noms à la classe d’erreur LEGACY_ERROR_TEMP[2320-2324]
- [SPARK-44294] [SC-135885][UI] Correctif de l’affichage inattendu de la colonne HeapHistogram avec select-all-box
- [SPARK-44409] [SC-136975][SQL] Gérer char/varchar dans Dataset.to pour rester cohérent avec les autres
- [SPARK-44334] [SC-136576][SQL][UI] L’état dans la réponse de l’API REST pour un DDL/DML ayant échoué sans travaux doit être FAILED plutôt que COMPLETED
- [SPARK-42309] [SC-136703][SQL] Introduction de
INCOMPATIBLE_DATA_TO_TABLE
et des sous-classes. - [SPARK-44367] [SC-137418][SQL][UI] Afficher un message d’erreur sur l’interface utilisateur pour chaque requête ayant échoué
- [SPARK-44474] [SC-137195][CONNECT] Réactivation de la « réponse d’observation de test » sur SparkConnectServiceSuite
- [SPARK-44320] [SC-136446][SQL] Attribuer des noms à la classe d’erreur LEGACY_ERROR_TEMP[1067,1150,1220,1265,1277]
- [SPARK-44310] [SC-136055][CONNECT] Le journal de start-up du serveur Connect doit afficher le nom d’hôte et le port
- [SPARK-44309] [SC-136193][UI] Afficher l’heure d’ajout/suppression des exécuteurs sous l’onglet Exécuteurs
- [SPARK-42898] [SC-137556][SQL] Marquer que les cast de chaînes/de dates n’ont pas besoin de l’ID de fuseau horaire
- [SPARK-44475] [SC-137422][SQL][CONNECT] Déplacement de DataType et de l’analyseur vers sql/api
- [SPARK-44484] [SC-137562][SS]Ajouter batchDuration à la méthode json StreamingQueryProgress
- [SPARK-43966] [SC-137559][SQL][PYTHON] Prise en charge des Fonctions table non déterministes
- [SPARK-44439] [SC-136973][CONNECT][SS]Correctif de la listeListeners pour envoyer uniquement des ID au client
- [SPARK-44341] [SC-137054][SQL][PYTHON] Définir la logique de calcul via l’API PartitionEvaluator et l’utiliser dans WindowExec et WindowInPandasExec
- [SPARK-43839] [SC-132680][SQL] Convertir
_LEGACY_ERROR_TEMP_1337
enUNSUPPORTED_FEATURE.TIME_TRAVEL
- [SPARK-44244] [SC-135703][SQL] Attribuer des noms à la classe d’erreur LEGACY_ERROR_TEMP[2305-2309]
- [SPARK-44201] [SC-136778][CONNECT][SS]Ajout de la prise en charge de l’écouteur de diffusion en continu dans Scala pour Spark Connect
- [SPARK-44260] [SC-135618][SQL] Affecter des noms à la classe d’erreur LEGACY_ERROR_TEMP[1215-1245-2329] et utiliser checkError() pour vérifier Exception dans _CharVarchar_Suite
- [SPARK-42454] [SC-136913][SQL] SPJ : encapsuler tous les paramètres liés à SPJ dans BatchScanExec
- [SPARK-44292] [SC-135844][SQL] Attribuer des noms à la classe d’erreur LEGACY_ERROR_TEMP[2315-2319]
- [SPARK-44396] [SC-137221][Connect] Désérialisation directe des flèches
- [SPARK-44324] [SC-137172][SQL][CONNECT] Déplacer CaseInsensitiveMap vers sql/api
- [SPARK-44395] [SC-136744][SQL] Ajout de test à StreamingTableSuite
- [SPARK-44481] [SC-137401][CONNECT][PYTHON] Créer pyspark.sql.is_remote une API
- [SPARK-44278] [SC-137400][CONNECT] Implémenter un intercepteur de serveur GRPC qui nettoie les propriétés locales du thread
- [SPARK-44264] [SC-137211][ML][PYTHON] Prise en charge de la formation distribuée de fonctions à l’aide de Deepspeed
- [SPARK-44430] [SC-136970][SQL] Ajouter une cause à
AnalysisException
quand l’option n’est pas valide - [SPARK-44264] [SC-137167][ML][PYTHON] Incorporation de FunctionPickler dans TorchDistributor
- [SPARK-44216] [SC-137046] [PYTHON] Rendre l’API assertSchemaEqual publique
- [SPARK-44398] [SC-136720][CONNECT] API scala foreachBatch
- [SPARK-43203] [SC-134528][SQL] Déplacer tout le cas drop table vers DataSource V2
- [SPARK-43755] [SC-137171][CONNECT][MINOR] Ouvrir
AdaptiveSparkPlanHelper.allChildren
au lieu d’utiliser la copie dansMetricGenerator
- [SPARK-44264] [SC-137187][ML][PYTHON] Refactorisation de TorchDistributor pour autoriser le pointeur de fonction « run_training_on_file » personnalisé
- [SPARK-43755] [SC-136838][CONNECT] Déplacer l’exécution hors de SparkExecutePlanStreamHandler et vers un autre thread
- [SPARK-44411] [SC-137198][SQL] Utiliser l’API PartitionEvaluator dans ArrowEvalPythonExec et BatchEvalPythonExec
- [SPARK-44375] [SC-137197][SQL] Utiliser l’API PartitionEvaluator dans DebugExec
- [SPARK-43967] [SC-137057][PYTHON] Prise en charge des fonctions définies par l’utilisateur Python standard avec des valeurs renvoyées vides
- [SPARK-43915] [SC-134766][SQL] Attribuer des noms à la classe d’erreur LEGACY_ERROR_TEMP[2438-2445]
- [SPARK-43965] [SC-136929][PYTHON][CONNECT] Prise en charge de Python UDTF dans Spark Connect
- [SPARK-44154] [SC-137050][SQL] Ajout de tests unitaires à BitmapExpressionUtilsSuite et améliorations mineures apportées aux expressions d’agrégation bitmap
- [SPARK-44169] [SC-135497][SQL] Attribuer des noms à la classe d’erreur LEGACY_ERROR_TEMP[2300-2304]
- [SPARK-44353] [SC-136578][CONNECT][SQL] Supprimer StructType.toAttributes
- [SPARK-43964] [SC-136676][SQL][PYTHON] Prise en charge des fonctions définies par l’utilisateur Python optimisées pour les flèches
- [SPARK-44321] [SC-136308][CONNECT] Dissocier ParseException d’AnalysisException
- [SPARK-44348] [SAS-1910][SC-136644][CORE][CONNECT][PYTHON] Réactiver test_artifact avec les modifications pertinentes
- [SPARK-44145] [SC-136698][SQL] Rappel quand il est prêt pour l’exécution
- [SPARK-43983] [SC-136404][PYTHON][ML][CONNECT] Activer le test de l’estimateur de validateur croisé
- [SPARK-44399] [SC-136669][PYHTON][CONNECT] Importer SparkSession dans la fonction UDF Python uniquement lorsque useArrow a la valeur None
- [SPARK-43631] [SC-135300][CONNECT][PS] Activer Series.interpolate avec Spark Connect
- [SPARK-44374] [SC-136544][PYTHON][ML] Ajouter un exemple de code pour le ML distribué pour Spark Connect
- [SPARK-44282] [SC-135948][CONNECT] Préparer l’analyse DataType pour une utilisation dans le client Scala Spark Connect
- [SPARK-44052] [SC-134469][CONNECT][PS] Ajouter un utilitaire pour obtenir la classe Column ou DataFrame appropriée pour Spark Connect.
- [SPARK-43983] [SC-136404][PYTHON][ML][CONNECT] Implémenter l’estimateur de validateur croisé
- [SPARK-44290] [SC-136300][CONNECT] Fichiers et archives basés sur une session dans Spark Connect
- [SPARK-43710] [SC-134860][PS][CONNECT] Prise en charge
functions.date_part
de Spark Connect - [SPARK-44036] [SC-134036][CONNECT][PS] Nettoyer et consolider les tickets pour simplifier les tâches.
- [SPARK-44150] [SC-135790][PYTHON][CONNECT] Cast explicite d’Arrow pour un type de retour non concordant dans l’UDF Arrow Python
- [SPARK-43903] [SC-134754][PYTHON][CONNECT] Améliorer la prise en charge des entrées ArrayType dans la fonction UDF Python de flèche
- [SPARK-44250] [SC-135819][ML][PYTHON][CONNECT] Implémenter l’évaluateur de classification
- [SPARK-44255] [SC-135704][SQL] Déplacement de StorageLevel vers common/utils
- [SPARK-42169] [SC-135735] [SQL] Implémenter la génération de code pour to_csv fonction (StructsToCsv)
- [SPARK-44249] [SC-135719][SQL][PYTHON] Refactoriser PythonUDTFRunner pour envoyer son type de retour séparément
- [SPARK-43353] [SC-132734][PYTHON] Migrer les erreurs de session restantes dans la classe d’erreur
- [SPARK-44133] [SC-134795][PYTHON] Mettre à niveau MyPy de 0,920 à 0,982
- [SPARK-42941] [SC-134707][SS][CONNECT][1/2] StreamingQueryListener – Événement Serde au format JSON
- [SPARK-43353] Rétablir sur « [SC-132734][ES-729763][PYTHON] Migrer les erreurs de session restantes dans la classe d’erreur »
- [SPARK-44100] [SC-134576][ML][CONNECT][PYTHON] Déplacer l’espace de noms de
pyspark.mlv2
verspyspark.ml.connect
- [SPARK-44220] [SC-135484][SQL] Déplacer StringConcat vers sql/api
- [SPARK-43992] [SC-133645][SQL][PYTHON][CONNECT] Ajouter un modèle facultatif pour Catalog.listFunctions
- [SPARK-43982] [SC-134529][ML][PYTHON][CONNECT] Implémenter l’estimateur de pipeline pour ML sur Spark Connect
- [SPARK-43888] [SC-132893][CORE] Déplacer la journalisation vers common/utils
- [SPARK-42941] Rétablir « [SC-134707][SS][CONNECT][1/2] StreamingQueryListener – Event Serde in JSON format »
- [SPARK-43624] [SC-134557][PS][CONNECT] Ajouter
EWM
à SparkConnectPlanner. - [SPARK-43981] [SC-134137][PYTHON][ML] Implémentation d’enregistrement/chargement de base pour ML sur spark connect
- [SPARK-43205] [SC-133371][SQL] correctif de SQLQueryTestSuite
- [SPARK-43376] Rétablir « [SC-130433][SQL] Améliorer la sous-requête de réutilisation avec le cache de table »
- [SPARK-44040] [SC-134366][SQL] Correctif les statistiques de calcul lorsque le nœud AggregateExec se place au-dessus de QueryStageExec
- [SPARK-43919] [SC-133374][SQL] Extraire les fonctionnalités JSON de ligne
- [SPARK-42618] [SC-134433][PYTHON][PS] Avertissement pour les changements de comportement liés à pandas dans la prochaine version majeure
- [SPARK-43893] [SC-133381][PYTHON][CONNECT] Prise en charge des types de données non atomiques dans la fonction UDF Python optimisée pour les flèches
- [SPARK-43627] [SC-134290][SPARK-43626][PS][CONNECT] Activer
pyspark.pandas.spark.functions.{kurt, skew}
dans Spark Connect. - [SPARK-43798] [SC-133990][SQL][PYTHON] Prise en charge des fonctions de table définies par l’utilisateur Python
- [SPARK-43616] [SC-133849][PS][CONNECT] Activer
pyspark.pandas.spark.functions.mode
dans Spark Connect - [SPARK-43133] [SC-133728] Prise en charge de Scala Client DataStreamWriter Foreach
- [SPARK-43684] [SC-134107][SPARK-43685][SPARK-43686][SPARK-43691][CONNECT][PS] Correctif
(NullOps|NumOps).(eq|ne)
pour Spark Connect. - [SPARK-43645] [SC-134151][SPARK-43622][PS][CONNECT] Activer
pyspark.pandas.spark.functions.{var, stddev}
dans Spark Connect - [SPARK-43617] [SC-133893][PS][CONNECT] Activer
pyspark.pandas.spark.functions.product
dans Spark Connect - [SPARK-43610] [SC-133832][CONNECT][PS] Activer
InternalFrame.attach_distributed_column
dans Spark Connect. - [SPARK-43621] [SC-133852][PS][CONNECT] Activer
pyspark.pandas.spark.functions.repeat
dans Spark Connect - [SPARK-43921] [SC-133461][PROTOBUF] Générer des fichiers de descripteur Protobuf au moment de la génération
- [SPARK-43613] [SC-133727][PS][CONNECT] Activer
pyspark.pandas.spark.functions.covar
dans Spark Connect - [SPARK-43376] [SC-130433][SQL] Améliorer la sous-requête de réutilisation avec le cache de table
- [SPARK-43612] [SC-132011][CONNECT][PYTHON] Implémenter SparkSession.addArtifact(s) dans le client Python
- [SPARK-43920] [SC-133611][SQL][CONNECT] Créer un module sql/api
- [SPARK-43097] [SC-133372][ML] Nouvel estimateur de régression logistique pyspark ML implémenté sur le serveur de distribution
- [SPARK-43783] [SC-133240][SPARK-43784][SPARK-43788][ML] Make MLv2 (ML on spark connect) supports pandas >= 2.0
- [SPARK-43024] [SC-132716][PYTHON] Mettre à niveau pandas vers la version 2.0.0
- [SPARK-43881] [SC-133140][SQL][PYTHON][CONNECT] Ajouter un modèle facultatif pour Catalog.listDatabases
- [SPARK-39281] [SC-131422][SQL] Accélérer l’inférence de type Horodatage avec le format hérité dans la source de données JSON/CSV
- [SPARK-43792] [SC-132887][SQL][PYTHON][CONNECT] Ajouter un modèle facultatif pour Catalog.listCatalogs
- [SPARK-43132] [SC-131623] [SS] [CONNECT] API Python Client DataStreamWriter foreach()
- [SPARK-43545] [SC-132378][SQL][PYTHON] Prise en charge du type de timestamp imbriqué
- [SPARK-43353] [SC-132734][PYTHON] Migrer les erreurs de session restantes dans la classe d’erreur
- [SPARK-43304] [SC-129969][CONNECT][PYTHON] Migrer vers
NotImplementedError
PySparkNotImplementedError
- [SPARK-43516] [SC-132202][ML][PYTHON][CONNECT] Interfaces de base de sparkML pour spark3.5 : estimateur/transformateur/modèle/évaluateur
- [SPARK-43128] Rétablir « [SC-131628][CONNECT][SS] Rendre
recentProgress
etlastProgress
retournerStreamingQueryProgress
cohérents avec l’API Scala native » - [SPARK-43543] [SC-131839][PYTHON] Correctif du comportement mapType imbriqué dans la fonction UDF Pandas
- [SPARK-38469] [SC-131425][CORE] Utiliser la classe d’erreur dans org.apache.spark.shuffle
- [SPARK-43309] [SC-129746][SPARK-38461][CORE] Étendre INTERNAL_ERROR avec des catégories et ajouter la classe d’erreur INTERNAL_ERROR_BROADCAST
- [SPARK-43265] [SC-129653] Déplacer l’infrastructure d’erreur vers un module utils commun
- [SPARK-43440] [SC-131229][PYTHON][CONNECT] Prise en charge de l’inscription d’une fonction UDF Python optimisée pour les flèches
- [SPARK-43528] [SC-131531][SQL][PYTHON] Prise en charge des noms de champs dupliqués dans createDataFrame avec pandas DataFrame
- [SPARK-43412] [SC-130990][PYTHON][CONNECT] Introduction
SQL_ARROW_BATCHED_UDF
d’EvalType pour les fonctions définies par l’utilisateur Python optimisées pour les flèches - [SPARK-40912] [SC-130986][CORE]Surcharge des exceptions dans KryoDeserializationStream
- [SPARK-39280] [SC-131206][SQL] Accélérer l’inférence de type timestamp avec le format fourni par l’utilisateur dans la source de données JSON/CSV
- [SPARK-43473] [SC-131372][PYTHON] Prise en charge du type struct dans createDataFrame à partir du DataFrame pandas
- [SPARK-43443] [SC-131024][SQL] Ajouter un point de référence pour l’inférence de type Timestamp en cas d’utilisation d’une valeur non valide
- [SPARK-41532] [SC-130523][CONNECT][CLIENT] Ajouter des vérifications pour les opérations impliquant plusieurs trames de données
- [SPARK-43296] [SC-130627][CONNECT][PYTHON] Migrer les erreurs de session Spark Connect dans la classe d’erreur
- [SPARK-43324] [SC-130455][SQL] Gérer les commandes UPDATE pour les sources delta
- [SPARK-43347] [SC-130148][PYTHON] Suppression de la prise en charge de Python 3.7
- [SPARK-43292] [SC-130525][CORE][CONNECT] Passer
ExecutorClassLoader
aucore
module et simplifierExecutor#addReplClassLoaderIfNeeded
- [SPARK-43081] [SC-129900] [ML] [CONNECT] Ajout d’un chargeur de données de distribution de torche qui charge des données de partition Spark
- [SPARK-43331] [SC-130061][CONNECT] Ajouter Spark Connect SparkSession.interruptAll
- [SPARK-43306] [SC-130320][PYTHON] Migrer des
ValueError
types Spark SQL vers la classe d’erreur - [SPARK-43261] [SC-129674][SQL] Migrer des
TypeError
types Spark SQL vers la classe d’erreur. - [SPARK-42992] [SC-129465][PYTHON] Présentation de PySparkRuntimeError
- [SPARK-16484] [SC-129975][SQL] Ajout de la prise en charge de Datasketches HllSketch
- [SPARK-43165] [SC-128823][SQL] Déplacer canWrite à DataTypeUtils
- [SPARK-43082] [SC-129112][CONNECT][PYTHON] Fonctions définies par l’utilisateur Python optimisées pour les flèches dans Spark Connect
- [SPARK-43084] [SC-128654] [SS] Ajout de la prise en charge de applyInPandasWithState pour spark connect
- [SPARK-42657] [SC-128621][CONNECT] Prise en charge de la recherche et du transfert des fichiers de classes read–eval–print loop (REPL) côté client vers le serveur en tant qu’artefacts
- [SPARK-43098] [SC-77059][SQL] Correctif du bogue COUNT lorsque la sous-requête scalaire a une clause group by
- [SPARK-42884] [SC-126662][CONNECT] Ajout de l’intégration REPL Ammonite
- [SPARK-42994] [SC-128333][ML][CONNECT] Le serveur de distribution PyTorch prend en charge le mode local
- [SPARK-41498] [SC-125343]Rétablir « Propager des métadonnées par le biais d’Union »
- [SPARK-42993] [SC-127829][ML][CONNECT] Rendre le serveur de distribution PyTorch compatible avec Spark Connect
- [SPARK-42683] [LC-75] Renommer automatiquement les colonnes de métadonnées en conflit
- [SPARK-42874] [SC-126442][SQL] Activer la nouvelle infrastructure de test de fichier doré pour l’analyse de tous les fichiers d’entrée
- [SPARK-42779] [SC-126042][SQL] Autoriser les écritures V2 à indiquer la taille de partition aléatoire
- [SPARK-42891] [SC-126458][CONNECT][PYTHON] Implémenter l’API de carte cogroupée
- [SPARK-42791] [SC-126134][SQL] Créer une infrastructure de test de fichier doré pour l’analyse
- [SPARK-42615] [SC-124237][CONNECT][PYTHON] Refactoriser le RPC AnalyzePlan et ajouter
session.version
- [SPARK-41302] Rétablir « [ALL TESTS][SC-122423][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1185 »
- [SPARK-40770] [SC-122652][PYTHON] Messages d’erreur améliorés pour applyInPandas en cas d’incompatibilité de schéma
- [SPARK-40770] Rétablir « [ALL TESTS][SC-122652][PYTHON] Messages d’erreur améliorés pour applyInPandas en cas d’incompatibilité de schéma »
- [SPARK-42398] [SC-123500][SQL] Affiner la valeur de colonne par défaut de l’interface DS v2
- [SPARK-40770] [ALL TESTS][SC-122652][PYTHON] Messages d’erreur améliorés pour applyInPandas en cas d’incompatibilité de schéma
- [SPARK-40770] Rétablir « [SC-122652][PYTHON] Messages d’erreur améliorés pour applyInPandas en cas d’incompatibilité de schéma »
- [SPARK-40770] [SC-122652][PYTHON] Messages d’erreur améliorés pour applyInPandas en cas d’incompatibilité de schéma
- [SPARK-42038] [ALL TESTS] Rétablir « Rétablir « [SC-122533][SQL] SPJ : Prise en charge de la distribution partiellement en cluster » »
- [SPARK-42038] Rétablir « [SC-122533][SQL] SPJ : Prise en charge de la distribution partiellement en cluster »
- [SPARK-42038] [SC-122533][SQL] SPJ : Prise en charge de la distribution partiellement en cluster
- [SPARK-40550] [SC-120989][SQL] DataSource V2 : gérer les commandes DELETE pour les sources basées sur delta
- [SPARK-40770] Rétablir « [SC-122652][PYTHON] Messages d’erreur améliorés pour applyInPandas en cas d’incompatibilité de schéma »
- [SPARK-40770] [SC-122652][PYTHON] Messages d’erreur améliorés pour applyInPandas en cas d’incompatibilité de schéma
- [SPARK-41302] Rétablir « [SC-122423][SQL] Attribuer un nom à _LEGACY_ERROR_TEMP_1185 »
- [SPARK-40550] Rétablir « [SC-120989][SQL] DataSource V2 : gérer les commandes DELETE pour les sources basées sur delta »
- [SPARK-42123] Rétablir « [SC-121453][SQL] Inclure les valeurs par défaut de colonne dans la sortie DESCRIBE et SHOW CREATE TABLE »
- [SPARK-42146] [SC-121172][CORE] Refactoriser
Utils#setStringField
pour faire passer maven build quand le module sql utilise cette méthode - [SPARK-42119] Rétablir « [SC-121342][SQL] Ajouter des fonctions table intégrées inline et inline_outer »
Points essentiels
- Correction des fonctions
aes_decryp
t etln
dans Connect SPARK-45109 - Correction des tuples nommés hérités pour qu’ils puissent être utilisés dans createDataFrame SPARK-44980
- CodeGenerator Cache est désormais spécifique au chargeur de classe [SPARK-44795]
- Ajout de
SparkListenerConnectOperationStarted.planRequest
[SPARK-44861] - Faire fonctionner les requêtes de streaming avec la gestion des artefacts de Connect [SPARK-44794]
- ArrowDeserializer fonctionne avec les classes générées REPL [SPARK-44791]
- Correction de la fonction UDF Python optimisée pour Arrow sur Spark Connect [SPARK-44876]
- Prise en charge du client Scala et Go dans Spark Connect SPARK-42554 SPARK-43351
- Prise en charge du ML distribué basé sur PyTorch pour Spark Connect SPARK-42471
- Prise en charge de Structured Streaming pour Spark Connect en Python et Scala SPARK-42938
- Prise en charge de l’API Pandas pour le client Python Spark Connect SPARK-42497
- Introduction des fonctions UDF Python Arrow SPARK-40307
- Prise en charge des fonctions table définies par l’utilisateur Python SPARK-43798
- Migrer les erreurs PySpark vers les classes d’erreur SPARK-42986
- Framework de test PySpark SPARK-44042
- Ajout de la prise en charge de Datasketches HllSketch SPARK-16484
- Amélioration de fonction SQL intégrée SPARK-41231
- Clause IDENTFIER SPARK-43205
- Ajout de fonctions SQL dans l’API R, Scala et Python SPARK-43907
- Ajout de la prise en charge des arguments nommés pour les fonctions SQL SPARK-43922
- Éviter la réexécution inutile de la tâche sur l’exécuteur mis hors service en cas de migration de données aléatoires SPARK-41469
- ML distribué <> spark connect SPARK-42471
- Serveur de distribution DeepSpeed SPARK-44264
- Implémentation des points de contrôle du journal des modifications pour le magasin d’état RocksDB SPARK-43421
- Introduction de la propagation des filigranes parmi les opérateurs SPARK-42376
- Introduction de dropDuplicatesWithinWatermark SPARK-42931
- Améliorations de la gestion de la mémoire du fournisseur de magasin d’état RocksDB SPARK-43311
Spark Connect
- Refactorisation du module sql dans sql et sql-api pour produire un ensemble minimal de dépendances qui peuvent être partagées entre le client Scala Spark Connect et Spark, et évite d’extraire toutes les dépendances transitives Spark. SPARK-44273
- Introduction du client Scala pour Spark Connect SPARK-42554
- Prise en charge de l’API Pandas pour le client Python Spark Connect SPARK-42497
- Prise en charge du ML distribué basé sur PyTorch pour Spark Connect SPARK-42471
- Prise en charge de Structured Streaming pour Spark Connect en Python et Scala SPARK-42938
- Version initiale du client Go SPARK-43351
- Nombreuses améliorations de compatibilité entre les clients Spark Connect et Spark natifs en Python et Scala
- Amélioration de la capacité de débogage et de la gestion des requêtes pour les applications clientes (traitement asynchrone, nouvelles tentatives, requêtes de longue durée)
Spark SQL
Fonctionnalités
- Ajout du début et de la longueur du bloc de fichiers de colonne de métadonnées SPARK-42423
- Prise en charge des paramètres positionnels en Scala/Java SPARK-44066
- Ajout de la prise en charge des paramètres nommés dans l’analyseur pour les appels de fonction SPARK-43922
- Prise en charge de SELECT DEFAULT avec ORDER BY, LIMIT, OFFSET pour la relation source INSERT SPARK-43071
- Ajout de la grammaire SQL pour les clauses PARTITION BY et ORDER BY après les arguments TABLE pour les appels TVF SPARK-44503
- Inclusion des valeurs par défaut des colonnes dans la sortie DESCRIBE et SHOW CREATE TABLE SPARK-42123
- Ajout d’un modèle facultatif pour Catalog.listCatalogs SPARK-43792
- Ajout d’un modèle facultatif pour Catalog.listDatabases SPARK-43881
- Rappel quand prêt pour l’exécution SPARK-44145
- Prise en charge de l’instruction Insert By Name SPARK-42750
- Ajout de call_function pour l’API Scala SPARK-44131
- Alias de colonne dérivée stables SPARK-40822
- Prise en charge des expressions constantes générales en tant que valeurs CREATE/REPLACE TABLE OPTIONS SPARK-43529
- Prise en charge des sous-requêtes avec corrélation via INTERSECT/EXCEPT SPARK-36124
- Clause IDENTFIER SPARK-43205
- MODE ANSI : Conv doit retourner une erreur si la conversion interne déborde SPARK-42427
Functions
- Ajout de la prise en charge de Datasketches HllSketch SPARK-16484
- Prise en charge du mode CBC par aes_encrypt()/aes_decrypt() SPARK-43038
- Prise en charge de la règle d’analyseur d’argument TABLE pour TableValuedFunction SPARK-44200
- Implémentation de fonctions bitmap SPARK-44154
- Ajout de la fonction try_aes_decrypt() SPARK-42701
- array_insert doit échouer avec index 0 SPARK-43011
- Ajout de l’alias to_varchar pour to_char SPARK-43815
- Fonction d’ordre élevé : implémentation d’array_compact SPARK-41235
- Ajout de la prise en charge des arguments nommés par l’analyseur pour les fonctions intégrées SPARK-44059
- Ajout des valeurs NULL pour INSERT avec des listes spécifiées par l’utilisateur de moins de colonnes que la table cible SPARK-42521
- Ajout de la prise en charge des aes_encrypt IV et AAD SPARK-43290
- La fonction DECODE retourne des résultats incorrects lors de la transmission de la valeur NULL SPARK-41668
- Prise en charge d’udf « luhn_check » SPARK-42191
- Prise en charge de la résolution d’alias de colonne latérale implicite sur l’agrégation SPARK-41631
- Prise en charge de la résolution d’alias de colonne latérale dans les requêtes avec Window SPARK-42217
- Ajout d’alias de fonction à trois arguments DATE_ADD et DATE_DIFF SPARK-43492
Data Sources (Sources de données)
- Prise en charge Char/Varchar pour le catalogue JDBC SPARK-42904
- Prise en charge de l’obtention dynamique de mots clés SQL via l’API JDBC et TVF SPARK-43119
- DataSource V2 : gestion des commandes MERGE pour les sources delta SPARK-43885
- DataSource V2 : gestion des commandes MERGE pour les sources basées sur des groupes SPARK-43963
- DataSource V2 : gestion des commandes UPDATE pour les sources basées sur des groupes SPARK-43975
- DataSource V2 : autorisation de la représentation des mises à jour sous forme de suppressions et d’insertions SPARK-43775
- Autoriser les dialectes JDBC à remplacer la requête utilisée pour créer une table SPARK-41516
- SPJ : prise en charge de la distribution partiellement en cluster SPARK-42038
- DSv2 permet à CTAS/RTAS de réserver la possibilité de valeur nulle du schéma SPARK-43390
- Ajout de spark.sql.files.maxPartitionNum SPARK-44021
- Gestion des commandes UPDATE pour les sources delta SPARK-43324
- Autoriser les écritures V2 à indiquer la taille de partition aléatoire SPARK-42779
- Prise en charge du codec de compression lz4raw pour Parquet SPARK-43273
- Avro : écriture d’unions complexes SPARK-25050
- Accélération de l’inférence de type timestamp avec le format fourni par l’utilisateur dans la source de données JSON/CSV SPARK-39280
- Avro pour prendre en charge le type décimal personnalisé soutenu par Long SPARK-43901
- Éviter la lecture aléatoire dans Storage-Partitioned Join lorsque les clés de partition ne correspondent pas, mais que les expressions de jointure sont compatibles SPARK-41413
- Modification du fichier binaire en dataType non pris en charge au format CSV SPARK-42237
- Autoriser Avro à convertir le type d’union en SQL avec un nom de champ stable avec type SPARK-43333
- Accélération de l’inférence de type Horodatage avec le format hérité dans la source de données JSON/CSV SPARK-39281
Optimisation des requêtes
- L’élimination des sous-expressions prend en charge l’expression de raccourci SPARK-42815
- Amélioration de l’estimation des statistiques de jointure si un côté peut conserver l’unicité SPARK-39851
- Introduction de la limite de groupe de Window pour le filtre basé sur le classement afin d’optimiser le calcul top-k SPARK-37099
- Correction du comportement de IN Null (liste vide) dans les règles d’optimisation SPARK-44431
- Inférence et envoi (push) de la limite de fenêtre par le biais de la fenêtre si partitionSpec est vide SPARK-41171
- Suppression de la jointure externe si toutes les fonctions d’agrégation sont distinctes SPARK-42583
- Réduction de deux fenêtres adjacentes avec la même partition/ordre dans la sous-requête SPARK-42525
- Poussée de la limite via les UDF Python SPARK-42115
- Optimisation de l’ordre des prédicats de filtrage SPARK-40045
Génération de code et exécution des requêtes
- Le filtre d’exécution doit prendre en charge le côté de jointure aléatoire à plusieurs niveaux en tant que côté création de filtre SPARK-41674
- Prise en charge de Codegen pour HiveSimpleUDF SPARK-42052
- Prise en charge de Codegen pour HiveGenericUDF SPARK-42051
- Prise en charge de Codegen pour la jointure hachée aléatoire externe côté build SPARK-44060
- Implémentation de la génération de code pour la fonction to_csv (StructsToCsv) SPARK-42169
- Prise en charge d’InMemoryTableScanExec par AQE SPARK-42101
- Prise en charge de la build gauche de jointure externe gauche ou de la build droite de jointure externe droite dans la jointure hachée aléatoire SPARK-36612
- Respect de RequiresDistributionAndOrdering dans CTAS/RTAS SPARK-43088
- Compartiments coalesce dans la jointure appliqués côté flux de jointure de diffusion SPARK-43107
- Définition correcte de la possibilité d’accepter la valeur Null sur une clé de jointure fusionnée dans une jointure externe complète USING SPARK-44251
- Correction de la possibilité d’accepter la valeur Null ListQuery de sous-requête IN SPARK-43413
Autres changements notables
- Définition correcte de la possibilité d’accepter la valeur Null pour les clés dans les jointures USING SPARK-43718
- Correction de COUNT(*) est un bogue Null dans la sous-requête scalaire corrélée SPARK-43156
- La jointure externe Dataframe.joinWith doit retourner une valeur Null pour une ligne sans correspondance SPARK-37829
- Modification automatique des noms des colonnes de métadonnées en conflit SPARK-42683
- Documentation des classes d’erreur Spark SQL dans la documentation orientée utilisateur SPARK-42706
PySpark
Fonctionnalités
- Prise en charge des paramètres positionnels en Python sql() SPARK-44140
- Prise en charge de SQL paramétrisé par sql() SPARK-41666
- Prise en charge des fonctions table définies par l’utilisateur Python SPARK-43797
- Prise en charge de la définition de l’exécutable Python pour les API de fonction UDF et Pandas dans les Workers pendant l’exécution SPARK-43574
- Ajout de DataFrame.offset à PySpark SPARK-43213
- Implémentation de dir() dans pyspark.sql.dataframe.DataFrame pour inclure des colonnes SPARK-43270
- Ajout d’une option pour utiliser des vecteurs de grande largeur variable pour les opérations UDF d’Arrow SPARK-39979
- Prise en charge par mapInPandas / mapInArrow de l’exécution en mode barrière SPARK-42896
- Ajout des API JobTag à PySpark SparkContext SPARK-44194
- Prise en charge de l’UDTF Python pour l’analyse en Python SPARK-44380
- Exposition de TimestampNTZType dans pyspark.sql.types SPARK-43759
- Prise en charge du type d’horodatage imbriqué SPARK-43545
- Prise en charge de UserDefinedType dans createDataFrame à partir de DataFrame Pandas et toPandas [SPARK-43817][SPARK-43702]https://issues.apache.org/jira/browse/SPARK-43702)
- Ajout d’une option binaire de descripteur à l’API Pyspark Protobuf SPARK-43799
- Acceptation des tuples génériques comme indicateurs de saisie des fonctions UDF Pandas SPARK-43886
- Ajout de la fonction array_prepend SPARK-41233
- Ajout de la fonction util assertDataFrameEqual SPARK-44061
- Prise en charge des fonctions UDTF Python optimisées pour Arrow SPARK-43964
- Autorisation de la précision personnalisée pour l’égalité approximative fp SPARK-44217
- Rendre l’API assertSchemaEqual publique SPARK-44216
- Prise en charge de fill_value pour ps.Series SPARK-42094
- Prise en charge du type struct dans createDataFrame à partir de DataFrame Pandas SPARK-43473
Autres changements notables
- Ajout de la prise en charge de l’autocomplétion pour df[|] dans pyspark.sql.dataframe.DataFrame [SPARK-43892]
- Déprécier et supprimer les API qui seront supprimées dans Pandas 2.0 [SPARK-42593]
- Python est désormais le premier onglet pour les exemples de code - Guide de jeux de données, Spark SQL et DataFrames SPARK-42493
- Mise à jour des exemples de code de documentation Spark restants pour afficher Python par défaut SPARK-42642
- Utilisation de noms de champs dédupliqués lors de la création d’Arrow RecordBatch [SPARK-41971]
- Prise en charge des noms de champs dupliqués dans createDataFrame avec DataFrame Pandas [SPARK-43528]
- Autorisation du paramètre de colonnes lors de la création d’un DataFrame avec Series [SPARK-42194]
Core
- Planification de mergeFinalize pendant une nouvelle tentative de fusion par poussée shuffleMapStage sans exécution de tâche SPARK-40082
- Introduction de PartitionEvaluator pour l’exécution de l’opérateur SQL SPARK-43061
- Autoriser ShuffleDriverComponent à déclarer si les données aléatoires sont stockées de manière fiable SPARK-42689
- Ajout d’une limitation maximale du nombre de tentatives pour les étapes afin d’éviter le risque de nouvelles tentatives infinies SPARK-42577
- Prise en charge de la configuration au niveau du journal avec une configuration Spark statique SPARK-43782
- Optimisation de percentileHeap SPARK-42528
- Ajout d’un argument de motif à TaskScheduler.cancelTasks SPARK-42602
- Éviter la réexécution inutile de la tâche sur l’exécuteur mis hors service en cas de migration de données aléatoires SPARK-41469
- Correction du sous-dénombrement d’accumulateurs dans le cas de la tâche de nouvelle tentative avec cache rdd SPARK-41497
- Utilisation de RocksDB pour spark.history.store.hybridStore.diskBackend par défaut SPARK-42277
- Wrapper NonFateSharingCache pour Guava Cache SPARK-43300
- Amélioration des performances de MapOutputTracker.updateMapOutput SPARK-43043
- Autoriser les applications à contrôler si leurs métadonnées sont enregistrées dans la base de données par le service aléatoire externe SPARK-43179
- Ajout de la variable d’environnement SPARK_DRIVER_POD_IP aux pods d’exécuteur SPARK-42769
- Montage du ConfigMap hadoop sur le pod d’exécuteur SPARK-43504
Structured Streaming
- Ajout de la prise en charge du suivi de l’utilisation de la mémoire des blocs épinglés pour le magasin d’état RocksDB SPARK-43120
- Ajout d’améliorations de la gestion de la mémoire du fournisseur de magasin d’état RocksDB SPARK-43311
- Introduction de dropDuplicatesWithinWatermark SPARK-42931
- Introduction d’un nouveau rappel onQueryIdle dans StreamingQueryListener SPARK-43183
- Ajout de l’option pour ignorer le coordinateur de validation dans le cadre de l’API StreamingWrite pour les sources/récepteurs DSv2 SPARK-42968
- Introduction d’un nouveau rappel « onQueryIdle » dans StreamingQueryListener SPARK-43183
- Implémentation de points de contrôle basés sur le journal des modifications pour le fournisseur de magasin d’état RocksDB SPARK-43421
- Ajout de la prise en charge de WRITE_FLUSH_BYTES pour RocksDB utilisé dans les opérateurs avec état de streaming SPARK-42792
- Ajout de la prise en charge de la définition de max_write_buffer_number et de write_buffer_size pour RocksDB utilisé dans le streaming SPARK-42819
- L’acquisition de verrou StateStore RocksDB doit se produire après l’obtention d’un itérateur d’entrée à partir d’inputRDD SPARK-42566
- Introduction de la propagation des filigranes parmi les opérateurs SPARK-42376
- Nettoyage des fichiers journaux et fichiers sst orphelins dans le répertoire de points de contrôle RocksDB SPARK-42353
- Développement de QueryTerminatedEvent de façon à contenir la classe d’erreur si elle existe dans l’exception SPARK-43482
ML
- Prise en charge de l’entraînement distribué des fonctions à l’aide de Deepspeed SPARK-44264
- Interfaces de base de sparkML pour spark3.5 : estimateur/transformateur/modèle/évaluateur SPARK-43516
- Prise en charge par MLv2 (ML sur Spark Connect) de Pandas >= 2.0 SPARK-43783
- Mise à jour des interfaces MLv2 Transformer SPARK-43516
- Nouvel estimateur de régression logistique pyspark ML implémenté sur le serveur de distribution SPARK-43097
- Rajout de Classifier.getNumClasses SPARK-42526
- Écriture d’une classe Deepspeed Distributed Learning DeepspeedTorchDistributor SPARK-44264
- Implémentation d’enregistrement/chargement de base pour ML sur Spark Connect SPARK-43981
- Amélioration de l’enregistrement du modèle de régression logistique SPARK-43097
- Implémentation de l’estimateur de pipeline pour ML sur Spark Connect SPARK-43982
- Implémentation de l’estimateur de validateur croisé SPARK-43983
- Implémentation de l’évaluateur de classification SPARK-44250
- Compatibilité du serveur de distribution PyTorch avec Spark Connect SPARK-42993
UI
- Ajout d’une page d’interface utilisateur Spark pour Spark Connect SPARK-44394
- Prise en charge de la colonne d’histogramme du tas sous l’onglet Exécuteurs SPARK-44153
- Affichage d’un message d’erreur sur l’interface utilisateur pour chaque requête ayant échoué SPARK-44367
- Affichage de l’heure d’ajout/suppression des exécuteurs sous l’onglet Exécuteurs SPARK-44309
Build et autres
- Suppression de la prise en charge de Python 3.7 SPARK-43347
- La version minimale d’Increate PyArrow est désormais la version 4.0.0 SPARK-44183
- Prise en charge de R 4.3.1 SPARK-43447 SPARK-44192
- Ajout des API JobTag à SparkR SparkContext SPARK-44195
- Ajout de fonctions mathématiques à SparkR SPARK-44349
- Mise à niveau de Parquet vers 1.13.1 SPARK-43519
- Mise à niveau d’ASM vers 9.5 SPARK-43537 SPARK-43588
- Mise à niveau de rochesdbjni vers 8.3.2 SPARK-41569 SPARK-42718 SPARK-43007 SPARK-43436 SPARK-44256
- Mise à niveau de Netty vers 4.1.93 SPARK-42218 SPARK-42417 SPARK-42487 SPARK-43609 SPARK-44128
- Mise à niveau de zstd-jni vers 1.5.5-5 SPARK-42409 SPARK-42625 SPARK-43080 SPARK-43294 SPARK-43737 SPARK-43994 SPARK-44465
- Mise à niveau des métriques dropwizard vers 4.2.19 SPARK-42654 SPARK-43738 SPARK-44296
- Mise à niveau de gcs-connector vers 2.2.14 SPARK-42888 SPARK-43842
- Mise à niveau de commons-crypto vers 1.2.0 SPARK-42488
- Mise à niveau de scala-parser-combinators de 2.1.1 vers 2.2.0 SPARK-42489
- Mise à niveau de protobuf-java vers 3.23.4 SPARK-41711 SPARK-42490 SPARK-42798 SPARK-43899 SPARK-44382
- Mise à niveau de commons-codec vers 1.16.0 SPARK-44151
- Mise à niveau d’Apache Kafka vers 3.4.1 SPARK-42396 SPARK-44181
- Mise à niveau de RoaringBitmap vers 0.9.45 SPARK-42385 SPARK-43495 SPARK-44221
- Mise à jour d’ORC vers 1.9.0 SPARK-42820 SPARK-44053 SPARK-44231
- Mise à niveau vers Avro 1.11.2 SPARK-44277
- Mise à niveau de commons-compress vers 1.23.0 SPARK-43102
- Mise à niveau de joda-time de 2.12.2 vers 2.12.5 SPARK-43008
- Mise à niveau de snappy-java vers 1.1.10.3 SPARK-42242 SPARK-43758 SPARK-44070 SPARK-44415 SPARK-44513
- Mise à niveau de mysql-connector-java de 8.0.31 vers 8.0.32 SPARK-42717
- Mise à niveau d’Apache Arrow vers 12.0.1 SPARK-42161 SPARK-43446 SPARK-44094
- Mise à niveau de commons-io vers 2.12.0 SPARK-43739
- Mise à niveau d’Apache commons-io vers 2.13.0 SPARK-43739 SPARK-44028
- Mise à niveau de FasterXML jackson vers 2.15.2 SPARK-42354 SPARK-43774 SPARK-43904
- Mise à niveau de log4j2 vers 2.20.0 SPARK-42536
- Mise à niveau de slf4j vers 2.0.7 SPARK-42871
- Mise à niveau de NumPy et Pandas dans la version Dockerfile SPARK-42524
- Mise à niveau de Jersey vers 2.40 SPARK-44316
- Mise à niveau de H2 de 2.1.214 vers 2.2.220 SPARK-44393
- Mise à niveau d’optionator vers ^0.9.3 SPARK-44279
- Mise à niveau de bcprov-jdk15on et bcpkix-jdk15on vers 1.70 SPARK-44441
- Mise à niveau de mlflow vers 2.3.1 SPARK-43344
- Mise à niveau de Tink vers 1.9.0 SPARK-42780
- Mise à niveau de silencer vers 1.7.13 SPARK-41787 SPARK-44031
- Mise à niveau d’Ammonite vers 2.5.9 SPARK-44041
- Mise à niveau de Scala vers 2.12.18 SPARK-43832
- Mise à niveau d’scalatestplus:selenium-4-4 vers org.scalatestplus:selenium-4-7 SPARK-41587
- Mise à niveau de minimatch vers 3.1.2 SPARK-41634
- Mise à niveau de sbt-assembly de 2.0.0 vers 2.1.0 SPARK-41704
- Mise à jour de maven-checkstyle-plugin de 3.1.2 vers 3.2.0 SPARK-41714
- Mise à jour de dev.ludovic.netlib vers 3.0.3 (SPARK-41750)
- Mise à niveau de hive-storage-api vers 2.8.1 SPARK-41798
- Mise à niveau de Apache httpcore vers 4.4.16 SPARK-41802
- Mise à niveau de jetty vers 9.4.52.v20230823 SPARK-45052
- Mise à niveau de compress-lzf vers 1.1.2 SPARK-42274
Suppressions, modifications de comportement et dépréciations
Suppression à venir
Les fonctionnalités suivantes seront supprimées dans la prochaine version majeure de Spark
- Prise en charge de Java 8 et Java 11, et la version Java minimale prise en charge sera Java 17
- Prise en charge de Scala 2.12, et la version Scala minimale prise en charge sera 2.13
Guides de migration
- Spark Core :
- SQL, jeux de données et DataFrame
- Structured Streaming
- MLlib (Machine Learning)
- PySpark (Python sur Spark)
- SparkR (R sur Spark)
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Veuillez télécharger les pilotes récemment publiés et mettre à niveau (téléchargez ODBC, téléchargez JDBC).
Environnement du système
- Système d’exploitation : Ubuntu 22.04.3 LTS
- Java : Zulu 8.70.0.23-CA-linux64
- Scala : 2.12.15
- Python : 3.10.12
- R : 4.3.1
- Delta Lake : 2.4.0
Bibliothèques Python installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
anyio | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttokens | 2.0.5 | attrs | 22.1.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.96 |
certifi | 2022.12.7 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | click | 8.0.4 | comm | 0.1.2 |
contourpy | 1.0.5 | chiffrement | 39.0.1 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.1.6 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.7 | docstring-to-markdown | 0.11 | entrypoints | 0,4 |
en cours d’exécution | 0.8.3 | facets-overview | 1.1.1 | fastjsonschema | 2.18.0 |
filelock | 3.12.2 | fonttools | 4.25.0 | Bibliothèque d'exécution Cloud de la communauté du secteur public | 1.10.0 |
googleapis-common-protos | 1.60.0 | grpcio | 1.48.2 | grpcio-status | 1.48.1 |
httplib2 | 0.20.2 | idna | 3.4 | importlib-metadata | 4.6.4 |
ipykernel | 6.25.0 | ipython | 8.14.0 | ipython-genutils | 0.2.0 |
ipywidgets | 7.7.2 | jedi | 0.18.1 | jeepney | 0.7.1 |
Jinja2 | 3.1.2 | jmespath | 0.10.0 | joblib | 1.2.0 |
jsonschema | 4.17.3 | jupyter-client | 7.3.4 | jupyter-server | 1.23.4 |
jupyter_core | 5.2.0 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
keyring | 23.5.0 | kiwisolver | 1.4.4 | launchpadlib | 1.10.16 |
lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 | lxml | 4.9.1 |
MarkupSafe | 2.1.1 | matplotlib | 3.7.0 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclassic | 0.5.2 | nbclient | 0.5.13 |
nbconvert | 6.5.4 | nbformat | 5.7.0 | nest-asyncio | 1.5.6 |
nodeenv | 1.8.0 | notebook | 6.5.2 | notebook_shim | 0.2.2 |
numpy | 1.23.5 | oauthlib | 3.2.0 | empaquetage | 22.0 |
pandas | 1.5.3 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.10.3 | patsy | 0.5.3 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.4.0 | pip | 22.3.1 |
platformdirs | 2.5.2 | plotly | 5.9.0 | pluggy | 1.0.0 |
prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 | protobuf | 4.24.0 |
psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 8.0.0 | pycparser | 2.21 |
pydantic | 1.10.6 | pyflakes | 3.0.1 | Pygments | 2.11.2 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.32 |
pyparsing | 3.0.9 | pyright | 1.1.294 | pyrsistent | 0.18.0 |
python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 |
pytoolconfig | 1.2.5 | pytz | 2022.7 | pyzmq | 23.2.0 |
requêtes | 2.28.1 | rope | 1.7.0 | s3transfer | 0.6.1 |
scikit-learn | 1.1.1 | seaborn | 0.12.2 | SecretStorage | 3.3.1 |
Send2Trash | 1.8.0 | setuptools | 65.6.3 | six | 1.16.0 |
sniffio | 1.2.0 | soupsieve | 2.3.2.post1 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.13.5 | tenacity | 8.1.0 |
terminado | 0.17.1 | threadpoolctl | 2.2.0 | tinycss2 | 1.2.1 |
tokenize-rt | 4.2.1 | tomli | 2.0.1 | tornado | 6.1 |
traitlets | 5.7.1 | typing_extensions | 4.4.0 | ujson | 5.4.0 |
unattended-upgrades | 0.1 | urllib3 | 1.26.14 | virtualenv | 20.16.7 |
wadllib | 1.3.6 | wcwidth | 0.2.5 | webencodings | 0.5.1 |
websocket-client | 0.58.0 | whatthepatch | 1.0.2 | wheel | 0.38.4 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de package Posit le 13-07-2023.
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
flèche | 12.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.1 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | objet BLOB | 1.2.4 |
boot | 1.3-28 | brew | 1,0-8 | brio | 1.1.3 |
broom | 1.0.5 | bslib | 0.5.0 | cachem | 1.0.8 |
callr | 3.7.3 | caret | 6.0-94 | cellranger | 1.1.0 |
chron | 2.3-61 | class | 7.3-22 | cli | 3.6.1 |
clipr | 0.8.0 | horloge | 0.7.0 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.9.0 |
compiler | 4.3.1 | config | 0.3.1 | conflicted | 1.2.0 |
cpp11 | 0.4.4 | crayon | 1.5.2 | credentials | 1.3.2 |
curl | 5.0.1 | data.table | 1.14.8 | jeux de données | 4.3.1 |
DBI | 1.1.3 | dbplyr | 2.3.3 | desc | 1.4.2 |
devtools | 2.4.5 | diagramme | 1.6.5 | diffobj | 0.3.5 |
digest | 0.6.33 | downlit | 0.4.3 | dplyr | 1.1.2 |
dtplyr | 1.3.1 | e1071 | 1.7-13 | ellipsis | 0.3.2 |
evaluate | 0,21 | fansi | 1.0.4 | farver | 2.1.1 |
fastmap | 1.1.1 | fontawesome | 0.5.1 | forcats | 1.0.0 |
foreach | 1.5.2 | foreign | 0.8-82 | forge | 0.2.0 |
fs | 1.6.2 | future | 1.33.0 | future.apply | 1.11.0 |
gargle | 1.5.1 | generics | 0.1.3 | gert | 1.9.2 |
ggplot2 | 3.4.2 | gh | 1.4.0 | gitcreds | 0.1.2 |
glmnet | 4.1-7 | globals | 0.16.2 | glue | 1.6.2 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
graphics | 4.3.1 | grDevices | 4.3.1 | grid | 4.3.1 |
gridExtra | 2.3 | gsubfn | 0.7 | gtable | 0.3.3 |
hardhat | 1.3.0 | haven | 2.5.3 | highr | 0.10 |
hms | 1.1.3 | htmltools | 0.5.5 | htmlwidgets | 1.6.2 |
httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-14 |
isoband | 0.2.7 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.7 | KernSmooth | 2.23-21 | knitr | 1,43 |
labeling | 0.4.2 | later | 1.3.1 | lattice | 0.21-8 |
lava | 1.7.2.1 | cycle de vie | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.2 | magrittr | 2.0.3 | markdown | 1.7 |
MASS | 7.3-60 | Matrice | 1.5-4.1 | memoise | 2.0.1 |
méthodes | 4.3.1 | mgcv | 1.8-42 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.0.6 | parallel | 4.3.1 |
parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.2 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.4 | processx | 3.8.2 |
prodlim | 2023.03.31 | profvis | 0.3.8 | progress | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.5 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.4 | readxl | 1.4.3 | recipes | 1.0.6 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
rmarkdown | 2,23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.3.1 | rstudioapi | 0.15.0 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.6 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.4.1 | sourcetools | 0.1.7-1 | sparklyr | 1.8.1 |
SparkR | 3.5.0 | spatial | 7.3-15 | splines | 4.3.1 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.1 |
stats4 | 4.3.1 | stringi | 1.7.12 | stringr | 1.5.0 |
survival | 3.5-5 | sys | 3.4.2 | systemfonts | 1.0.4 |
tcltk | 4.3.1 | testthat | 3.1.10 | textshaping | 0.3.6 |
tibble | 3.2.1 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 2.0.0 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0,45 | tools | 4.3.1 | tzdb | 0.4.0 |
urlchecker | 1.0.1 | usethis | 2.2.2 | utf8 | 1.2.3 |
utils | 4.3.1 | uuid | 1.1-0 | vctrs | 0.6.3 |
viridisLite | 0.4.2 | vroom | 1.6.3 | waldo | 0.5.1 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0.39 |
xml2 | 1.3.5 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.3.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
ID de groupe | ID d’artefact | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | flux | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.2.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.15.1 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 natifs |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 natifs |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.24 |
io.delta | delta-sharing-spark_2.12 | 0.7.1 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.93.Final |
io.netty | netty-buffer | 4.1.93.Final |
io.netty | netty-codec | 4.1.93.Final |
io.netty | netty-codec-http | 4.1.93.Final |
io.netty | netty-codec-http2 | 4.1.93.Final |
io.netty | netty-codec-socks | 4.1.93.Final |
io.netty | netty-common | 4.1.93.Final |
io.netty | netty-handler | 4.1.93.Final |
io.netty | netty-handler-proxy | 4.1.93.Final |
io.netty | netty-resolver | 4.1.93.Final |
io.netty | netty-transport | 4.1.93.Final |
io.netty | netty-transport-classes-epoll | 4.1.93.Final |
io.netty | netty-transport-classes-kqueue | 4.1.93.Final |
io.netty | netty-transport-native-epoll | 4.1.93.Final |
io.netty | netty-transport-native-epoll | 4.1.93.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.93.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.93.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.93.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.93.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collecteur | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.29 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | arrow-format | 12.0.1 |
org.apache.arrow | arrow-memory-core | 12.0.1 |
org.apache.arrow | arrow-memory-netty | 12.0.1 |
org.apache.arrow | arrow-vector | 12.0.1 |
org.apache.avro | avro | 1.11.2 |
org.apache.avro | avro-ipc | 1.11.2 |
org.apache.avro | avro-mapred | 1.11.2 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
org.apache.logging.log4j | log4j-api | 2.20.0 |
org.apache.logging.log4j | log4j-core | 2.20.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.9.0-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.0-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.0 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-continuation | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-http | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-io | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-jndi | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-plus | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-proxy | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-security | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-server | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlet | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-servlets | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-util-ajax | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-webapp | 9.4.51.v20230217 |
org.eclipse.jetty | jetty-xml | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-api | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-client | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-common | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-server | 9.4.51.v20230217 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.51.v20230217 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.9 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.0 |
org.roaringbitmap | RoaringBitmap | 0.9.45 |
org.roaringbitmap | shims | 0.9.45 |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.9.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |