Databricks Runtime 15.3
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 15.3 avec Apache Spark 3.5.0.
Databricks a publié cette version en juin 2024.
Conseil
Pour afficher les notes de publication des versions de Databricks Runtime qui ont atteint la fin du support (EoS), consultez Fin de support des notes de publication des versions de Databricks Runtime. Les versions EoS de Databricks Runtime ont été supprimées et peuvent ne pas être mises à jour.
Améliorations et nouvelles fonctionnalités
PySpark DataSources prend désormais en charge la lecture et l’écriture de flux
PySpark DataSources, qui permet la lecture à partir de sources de données personnalisées et l’écriture dans des récepteurs de données personnalisés, prend désormais en charge la lecture et l’écriture de flux. Consultez Sources de données personnalisées de PySpark.
Désactiver le mappage de colonnes avec la commande Drop Feature
Vous pouvez désormais utiliser DROP FEATURE
pour désactiver le mappage de colonnes sur les tables Delta et passer à une version antérieure du protocole de table. Consultez Désactiver le mappage de colonnes.
Syntaxe et fonctions de types de variantes dans la préversion publique
Prise en charge native d’Apache Spark pour l’utilisation de données semi-structurées comme type VARIANT
est désormais disponible dans DataFrames Spark et SQL. Consultez les données de variante de requête.
Prise en charge des types de variantes pour Delta Lake en préversion publique
Vous pouvez désormais utiliser VARIANT
pour stocker des données semi-structurées dans des tables soutenues par Delta Lake. Consultez Prise en charge des variantes dans Delta Lake.
Prise en charge des différents modes d’évolution du schéma dans les vues
CREATE VIEW et ALTER VIEW vous permettent désormais de définir un mode de liaison de schéma, ce qui améliore la façon dont les vues gèrent les modifications de schéma dans les objets sous-jacents. Cette fonctionnalité permet aux vues de tolérer ou d’adapter les modifications de schéma dans les objets sous-jacents. Elle traite les modifications apportées au schéma de requête résultant des modifications apportées aux définitions d’objets.
Prise en charge des méthodes observe()
ajoutées au client Scala Spark Connect
Le client Scala Spark Connect prend désormais en charge les méthodes Dataset.observe()
. La prise en charge de ces méthodes vous permet de définir des métriques à observer sur un objet Dataset
à l’aide des méthodes ds.observe("name", metrics...)
ou ds.observe(observationObject, metrics...)
.
Latence de redémarrage de flux améliorée pour le chargeur automatique
Cette version inclut une modification qui améliore la latence de redémarrage de flux pour le chargeur automatique. Cette amélioration est implémentée en rendant asynchrone le chargement de l’état par le magasin d’états RocksDB. Avec cette modification, vous devez voir une amélioration des heures de début pour les flux avec des états volumineux, par exemple, des flux avec un grand nombre de fichiers déjà ingérés.
Retourner un DataFrame en tant que pyarrow.Table
Pour prendre en charge l’écriture d’un DataFrame directement dans un objet Apache Arrow pyarrow.Table
, cette version inclut la fonction DataFrame.toArrow()
. Pour en savoir plus sur l’utilisation de Arrow dans PySpark, consultez Apache Arrow dans PySpark.
Amélioration des performances de certaines fonctions de la fenêtre
Cette version inclut une modification qui améliore les performances de certaines fonctions de fenêtre Spark, en particulier les fonctions qui n’incluent pas de clause ORDER BY
ou un paramètre window_frame
. Dans ces cas, le système peut réécrire la requête pour l’exécuter à l’aide d’une fonction d’agrégation. Cette modification permet d’accélérer l’exécution de la requête en utilisant l’agrégation partielle et en évitant les surcharges liées à l’exécution des fonctions de fenêtre. Le paramètre de configuration Spark spark.databricks.optimizer.replaceWindowsWithAggregates.enabled
contrôle cette optimisation et est défini sur true
par défaut. Pour désactiver cette optimisation, définissez spark.databricks.optimizer.replaceWindowsWithAggregates.enabled
sur false
.
Prise en charge de la fonction try_mod
ajoutée
Cette version ajoute la prise en charge de la fonction PySpark try_mod()
. Cette fonction prend en charge le calcul compatible ANSI SQL du reste entier résultant de la division de deux valeurs numériques. Si l’argument diviseur est 0, la fonction try_mod()
retourne null au lieu de lever une exception. Vous pouvez utiliser la fonction try_mod()
au lieu de mod
ou de %
, qui lève une exception si l’argument de division est 0 et si ANSI SQL est activé.
Prise en charge d’un paramètre facultatif d’étendue dans le list_secrets()
Cette version vous permet de limiter les résultats de la fonction de table list_secrets() à une étendue spécifique.
Résolution des bogues
Les métriques WriteIntoDeltaCommand
dans l’interface utilisateur Spark s’affichent désormais correctement
Cette version inclut un correctif des métriques affichées sous l’onglet SQL de l’interface utilisateur Spark pour le nœud Execute WriteIntoDeltaCommand
. Auparavant, les métriques indiquées pour ce nœud étaient toutes nulles.
La fonction groupby()
de l’API Pandas a ignoré l’argument as_index=False
Cette version inclut un correctif pour un problème lié à la fonction groupby()
dans l’API Pandas sur Spark. Avant ce correctif, une groupby()
avec ré-étiquetage des colonnes d’agrégation et l’argument as_index=False
n’incluait pas de clés de groupe dans le DataFrame obtenu.
Erreur d’analyse avec des fonctions à fenêtres multiples qui font référence à la sortie des autres fonctions
Cette version corrige un problème qui peut survenir lorsqu’une requête Spark a plusieurs fonctions de fenêtre consécutives, où les fonctions de fenêtre font référence à la sortie des autres fonctions de fenêtre. Dans de rares cas, le système peut exclure l’une des références, ce qui entraîne des erreurs lors de l’évaluation de la requête. Ce correctif projette ces références pour garantir l’évaluation de la requête. Cette modification est contrôlée par le paramètre de configuration Spark spark.databricks.optimizer.collapseWindows.projectReferences
, qui est défini sur true
par défaut. Pour désactiver cette modification, définissez spark.databricks.optimizer.collapseWindows.projectReferences
sur false
.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- filelock de 3.13.1 vers 3.13.4
- Bibliothèques R mises à niveau :
- Bibliothèques Java mises à niveau :
- org.rocksdb.rocksdbjni de 8.3.2 vers 8.11.4
Apache Spark
Databricks Runtime 15.3 comprend Apache Spark 3.5.0. Cette version comprend l’ensemble des correctifs et améliorations Spark figurant dans Databricks Runtime 15.2 ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-48211] [DBRRM-1041][15.x][15.3] Rétablissement de « [SC-165552][SQL] DB2 : Lecture de SMALLINT en tant que Sho...
- [SPARK-47904] [DBRRM-1040][SE COMPORTER-33][SC-163409] Rétablir SPARK-47904 : Conserver le cas dans le schéma Avro lors de l’utilisation d’enableStableIdentifiersForUnionType
- [SPARK-48288] [SC-166141] Ajouter un type de données source pour une expression connector cast
- [SPARK-48175] [SC-166341][SQL][PYTHON] Stocker les informations de classement dans les métadonnées et non dans le type pour SER/DE
- [SPARK-48172] [SC-166078][SQL] Résoudre les problèmes d’échappement dans JDBCDialects
- [SPARK-48186] [SC-165544][SQL] Ajouter la prise en charge d’AbstractMapType
- [SPARK-48031] [SC-166523] Exclure les vues héritées de SCHEMA BINDING
- [SPARK-48369] [SC-166566][SQL][PYTHON][CONNECT] Ajouter une fonction
timestamp_add
- [SPARK-48330] [SC-166458][SS][PYTHON] Résoudre le problème de délai d’expiration de la source de données de diffusion en continu Python pour un intervalle de déclencheur important
- [SPARK-48369] Rétablir « [SC-166494][SQL][PYTHON][CONNECT] Ajouter une fonction
timestamp_add
» - [SPARK-48336] [SC-166495][PS][CONNECT] Implémenter
ps.sql
dans Spark Connect - [SPARK-48369] [SC-166494][SQL][PYTHON][CONNECT] Ajouter une fonction
timestamp_add
- [SPARK-47354] [SC-165546][SQL] Ajouter la prise en charge des classements pour les expressions de variantes
- [SPARK-48161] [SC-165325][SQL] Corriger la demande de tirage rétablie – Ajouter prise en charge du classement pour les expressions JSON
- [SPARK-48031] [SC-166391] Décomposer la configuration viewSchemaMode, ajouter la prise en charge de SHOW CREATE TABLE
- [SPARK-48268] [SC-166217][CORE] Ajouter une configuration pour SparkContext.setCheckpointDir
- [SPARK-48312] [ES-1076198][SQL] Améliorer les performances alias.removeNonInheritableMetadata
- [SPARK-48294] [SC-166205][SQL] Gérer les minuscules dans nestedTypeMissingElementTypeError
- [SPARK-47254] [SC-158847][SQL] Attribuer des noms aux classes d’erreur _LEGACY_ERROR_TEMP_325[1-9]
- [SPARK-47255] [SC-158749][SQL] Attribuer des noms aux classes d’erreur _LEGACY_ERROR_TEMP_323[6-7] et _LEGACY_ERROR_TEMP_324[7-9]
- [SPARK-48310] [SC-166239][PYTHON][CONNECT] Les propriétés mises en cache doivent retourner des copies
- [SPARK-48308] [SC-166152][Core] Unifier l’obtention du schéma de données sans colonnes de partition dans FileSourceStrategy
- [SPARK-48301] [SC-166143][SQL] Renommer
CREATE_FUNC_WITH_IF_NOT_EXISTS_AND_REPLACE
CREATE_ROUTINE_WITH_IF_NOT_EXISTS_AND_REPLACE
- [SPARK-48287] [SC-166139][PS][CONNECT] Appliquer la méthode
timestamp_diff
intégrée - [SPARK-47607] [SC-166129] Ajouter de la documentation pour le framework de journalisation structurée
- [SPARK-48297] [SC-166136][SQL] Corriger une clause TRANSFORM de régression avec char/varchar
- [SPARK-47045] [SC-156808][SQL] Remplacer
IllegalArgumentException
parSparkIllegalArgumentException
danssql/api
- [SPARK-46991] [SC-156399][SQL] Remplacer
IllegalArgumentException
parSparkIllegalArgumentException
danscatalyst
- [SPARK-48031] [SC-165805][SQL] Prendre en charge de l’affichage de l’évolution du schéma
- [SPARK-48276] [SC-166116][PYTHON][CONNECT] Ajouter la méthode
__repr__
manquante pourSQLExpression
- [SPARK-48278] [SC-166071][PYTHON][CONNECT] Affiner la représentation sous forme de chaîne de
Cast
- [SPARK-48272] [SC-166069][SQL][PYTHON][CONNECT] Ajouter une fonction
timestamp_diff
- [SPARK-47798] [SC-162492][SQL] Enrichir le message d’erreur pour les échecs de lecture des valeurs décimales
- [SPARK-47158] [SC-158078][SQL] Attribuer un nom approprié et
sqlState
à_LEGACY_ERROR_TEMP_(2134|2231)
- [SPARK-48218] [SC-166082][CORE] TransportClientFactory.createClient peut entraîner une exception de pointeur null et provoquer FetchFailedException
- [SPARK-48277] [SC-166066] Améliorer le message d’erreur pour ErrorClassesJsonReader.getErrorMessage
- [SPARK-47545] [SC-165444][CONNECT] Prise en charge du jeu de données
observe
pour le client Scala - [SPARK-48954] [SC-171672][SQL] Ajouter la fonction
try_mod
- [SPARK-43258] [SC-158151][SQL] Attribuer des noms à l’erreur _LEGACY_ERROR_TEMP_202[3,5]
- [SPARK-48267] [SC-165903][SS] Test de régression e2e avec SPARK-47305
- [SPARK-48263] [SC-165925] Prise en charge de la fonction collate pour les chaînes non UTF8_BINARY
- [SPARK-48260] [SC-165883][SQL] Désactiver la coordination du validateur de sortie dans un test de ParquetIOSuite
- [SPARK-47834] [SC-165645][SQL][CONNECT] Marquer les fonctions déconseillées avec
@deprecated
dansSQLImplicits
- [SPARK-48011] [SC-164061][Core] Stocker le nom LogKey comme valeur pour éviter de générer des instances de chaîne
- [SPARK-48074] [SC-164647][Core] Améliorer la lisibilité des journaux JSON
- [SPARK-44953] [SC-165866][CORE] Consigner un avertissement lorsque le suivi aléatoire est activé le long d’un autre mécanisme pris en charge par DA
- [SPARK-48266] [SC-165897][CONNECT] Déplacer l’objet de package
org.apache.spark.sql.connect.dsl
vers le répertoire de test - [SPARK-47847] [SC-165651][CORE] Déconseiller
spark.network.remoteReadNioBufferConversion
- [SPARK-48171] [SC-165178][CORE] Nettoyer l’utilisation des constructeurs déconseillés de
o.rocksdb.Logger
- [SPARK-48235] [SC-165669][SQL] Transmettre directement la jointure au lieu de tous les arguments pour getBroadcastBuildSide et getShuffleHashJoinBuildSide
- [SPARK-48224] [SC-165648][SQL] Interdire aux clés de carte d’être de type Variant
- [SPARK-48248] [SC-165791][PYTHON] Corriger un tableau imbriqué pour respecter la configuration héritée d’inferArrayTypeFromFirstElement
- [SPARK-47409] [SC-165568][SQL] Ajouter la prise en charge du classement pour le type StringTrim de fonctions/d’expressions (pour UTF8_BINARY et LCASE)
- [SPARK-48143] [ES-1095638][SQL] Utiliser des exceptions légères pour le flux de contrôle entre UnivocityParser et FailureSafeParser
- [SPARK-48146] [SC-165668][SQL] Corriger la fonction d’agrégation dans l’assertion enfant d’expression With
- [SPARK-48161] Rétablir « [SC-165325][SQL] Ajouter la prise en charge du classement pour les expressions JSON »
- [SPARK-47963] [CORE] Rendre l’écosystème Spark externe peut utiliser des mécanismes de journalisation structurés
- [SPARK-48180] [SC-165632][SQL] Améliorer l’erreur lorsque l’appel UDTF avec l’argument TABLE oublie les parenthèses autour de plusieurs expressions PARTITION/ORDER BY
- [SPARK-48002] [SC-164132][PYTHON][SS] Ajouter un test pour les métriques observées dans PySpark StreamingQueryListener
- [SPARK-47421] [SC-165548][SQL] Ajouter la prise en charge du classement pour les expressions d’URL
- [SPARK-48161] [SC-165325][SQL] Ajouter la prise en charge du classement pour les expressions JSON
- [SPARK-47359] [SC-164328][SQL] Prendre en charge la fonction TRANSLATE pour utiliser des chaînes classées
- [SPARK-47365] [SC-165643][PYTHON] Ajouter la méthode DataFrame toArrow() à PySpark
- [SPARK-48228] [SC-165649][PYTHON][CONNECT] Implémenter la validation de fonction manquante dans ApplyInXXX
- [SPARK-47986] [SC-165549][CONNECT][PYTHON] Impossible de créer une session lorsque la session par défaut est fermée par le serveur
- [SPARK-47963] Rétablir « [CORE] Rendre l’écosystème Spark externe capable d’utiliser des mécanismes de journalisation structurés »
- [SPARK-47963] [CORE] Rendre l’écosystème Spark externe peut utiliser des mécanismes de journalisation structurés
- [SPARK-48208] [SC-165547][SS] Ignorer la fourniture de métriques d’utilisation de la mémoire à partir de RocksDB si l’utilisation de la mémoire limitée est activée
- [SPARK-47566] [SC-164314][SQL] Prise en charge de la fonction SubstringIndex pour utiliser des chaînes classées
- [SPARK-47589] [SC-162127][SQL] Hive-Thriftserver : Migrer logError avec des variables vers un framework de journalisation structurée
- [SPARK-48205] [SC-165501][PYTHON] Supprimer le modificateur private[sql] pour les sources de données Python
- [SPARK-48173] [SC-165181][SQL] CheckAnalysis doit voir l’intégralité du plan de requête
- [SPARK-48197] [SC-165520][SQL] Éviter l’erreur d’assertion pour une fonction lambda non valide
- [SPARK-47318] [SC-162573][CORE] Ajouter l’arrondi HKDF à la dérivation de clé AuthEngine pour suivre les pratiques KEX standard
- [SPARK-48184] [SC-165335][PYTHON][CONNECT] Toujours définir la valeur initiale de
Dataframe.sample
côté client - [SPARK-48128] [SC-165004][SQL] Pour l’expression BitwiseCount / bit_count, corriger l’erreur de syntaxe codegen pour les entrées de type booléen
- [SPARK-48147] [SC-165144][SS][CONNECT] Supprimer les écouteurs côté client lorsque la session Spark locale est supprimée
- [SPARK-48045] [SC-165299][PYTHON] groupBy d’API Pandas avec multi-agg-relabel ignore as_index=False
- [SPARK-48191] [SC-165323][SQL] Prise en charge d’UTF-32 pour le codage et le décodage de chaînes
- [SPARK-45352] [SC-137627][SQL] Éliminer les partitions de fenêtre pliables
- [SPARK-47297] [SC-165179][SQL] Ajouter la prise en charge du classement pour les expressions de format
- [SPARK-47267] [SC-165170][SQL] Ajouter la prise en charge du classement pour les expressions de hachage
- [SPARK-47965] [SC-163822][CORE] Éviter orNull dans TypedConfigBuilder et OptionalConfigEntry
- [SPARK-48166] [SQL] Éviter d’utiliser BadRecordException comme erreur orientée utilisateur dans VariantExpressionEvalUtils
- [SPARK-48105] [SC-165132][SS] Corriger la condition de concurrence entre le déchargement du magasin d’état et la capture instantanée
- [SPARK-47922] [SC-163997][SQL] Implémenter l’expression try_parse_json
- [SPARK-47719] [SC-161909][SQL] Modifier spark.sql.legacy.timeParse…
- [SPARK-48035] [SC-165136][SQL] Corriger try_add/try_multiply étant sémantiquement égal à ajouter/multiplier
- [SPARK-48107] [SC-164878][PYTHON] Exclure les tests de la distribution Python
- [SPARK-46894] [SC-164447][PYTHON] Déplacer des conditions d’erreur PySpark dans un fichier JSON autonome
- [SPARK-47583] [SC-163825][CORE] SQL Core : Migrer logError avec des variables vers un framework de journalisation structurée
- [SPARK-48064] Rétablir « [SC-164697][SQL] Mettre à jour les messages d’erreur pour les classes d’erreur liées à la routine »
- [SPARK-48048] [SC-164846][CONNECT][SS] Ajout de la prise en charge de l’écouteur côté client pour Scala
- [SPARK-48064] [SC-164697][SQL] Mettre à jour les messages d’erreur pour les classes d’erreur liées à la routine
- [SPARK-48056] [SC-164715][CONNECT][PYTHON] Réexécuter le plan si une erreur SESSION_NOT_FOUND est déclenchée et qu’aucune réponse partielle n’a été reçue
- [SPARK-48124] [SC-165009][CORE] Désactiver la journalisation structurée pour Connect-Repl par défaut
- [SPARK-47922] Rétablir « [SC-163997][SQL] Implémenter l’expression try_parse_json »
- [SPARK-48065] [SC-164817][SQL] SPJ : allowJoinKeysSubsetOfPartitionKeys est trop strict
- [SPARK-48114] [SC-164956][CORE] Précompiler l’expression régulière de modèle pour éviter tout travail inutile
- [SPARK-48067] [SC-164773][SQL] Corriger les colonnes par défaut de variante
- [SPARK-47922] [SC-163997][SQL] Implémenter l’expression try_parse_json
- [SPARK-48075] [SC-164709][SS] Ajouter la vérification de type pour les fonctions PySpark avro
- [SPARK-47793] [SC-164324][SS][PYTHON] Implémenter SimpleDataSourceStreamReader pour la source de données de diffusion en continu Python
- [SPARK-48081] [SC-164719] Corriger ClassCastException dans NTile.checkInputDataTypes() lorsque l’argument n’est pas pliable ou de type incorrect
- [SPARK-48102] [SC-164853][SS] Suivre la durée de l’acquisition des métriques source/récepteur lors de la création de rapports sur la progression des requêtes de diffusion en continu
- [SPARK-47671] [SC-164854][Core] Activer la journalisation structurée dans log4j2.properties.template et mettre à jour les documents
- [SPARK-47904] [SC-163409][SQL] Conserver la casse dans le schéma Avro lors de l’utilisation d’enableStableIdentifiersForUnionType
- [SPARK-48058] [SC-164695][SPARK-43727][PYTHON][CONNECT]
UserDefinedFunction.returnType
analyse la chaîne DDL - [SPARK-46922] [SC-156102][CORE][SQL] Ne pas encapsuler les erreurs liées au runtime
- [SPARK-48047] [SC-164576][SQL] Réduire la sollicitation de la mémoire des balises TreeNode vides
- [SPARK-47934] [SC-164648][CORE] Vérifier les barres obliques de fin dans les redirections d’URL
HistoryServer
- [SPARK-47921] [SC-163826][CONNECT] Corriger la création d’ExecuteJobTag dans ExecuteHolder
- [SPARK-48014] [SC-164150][SQL] Modifier l’erreur makeFromJava dans EvaluatePython en une erreur indiquée à l’utilisateur
- [SPARK-47903] [SC-163424][PYTHON] Ajouter la prise en charge des types scalaires restants dans la bibliothèque Variant PySpark
- [SPARK-48068] [SC-164579][PYTHON]
mypy
doit avoir un paramètre--python-executable
- [SPARK-47846] [SC-163074][SQL] Ajouter la prise en charge du type Variant dans l’expression from_json
- [SPARK-48050] [SC-164322][SS] Journaliser le plan logique au début de la requête
- [SPARK-47810] [SC-163076][SQL] Remplacer l’expression équivalente par <=> dans la condition de jointure
- [SPARK-47741] [SC-164290] Ajout de la gestion du dépassement de capacité de pile dans l’analyseur
- [SPARK-48053] [SC-164309][PYTHON][CONNECT] SparkSession.createDataFrame doit avertir en indiquant les options non prises en charge
- [SPARK-47939] [SC-164171][SQL] Implémenter une nouvelle règle Analyzer pour déplacer ParameterizedQuery dans ExplainCommand et DescribeQueryCommand
- [SPARK-48063] [SC-164432][CORE] Activer
spark.stage.ignoreDecommissionFetchFailure
par défaut - [SPARK-48016] [SC-164280][SQL] Corriger un bogue dans la fonction try_divide lorsque la valeur est décimale
- [SPARK-48033] [SC-164291][SQL] Corriger les expressions
RuntimeReplaceable
utilisées dans les colonnes par défaut - [SPARK-48010] [SC-164051][SQL][ES-1109148] Éviter les appels répétés à conf.resolver dans resolveExpression
- [SPARK-48003] [SC-164323][SQL] Ajouter la prise en charge du classement pour l’agrégation hll sketch
- [SPARK-47994] [SC-164175][SQL] Corriger un bogue de casse avec le filtre de colonne dans SQLServer
- [SPARK-47984] [SC-163837][ML][SQL] Remplacer
MetricsAggregate/V2Aggregator#serialize/deserialize
pour appelerSparkSerDeUtils#serialize/deserialize
- [SPARK-48042] [SC-164202][SQL] Utiliser un formateur d’horodatage avec un fuseau horaire au niveau de la classe au lieu d’effectuer des copies au niveau de la méthode
- [SPARK-47596] [SPARK-47600][SPARK-47604][SPARK-47804] Migrations de journaux structurés
- [SPARK-47594] [SPARK-47590][SPARK-47588][SPARK-47584] Migrations de journaux structurés
- [SPARK-47567] [SC-164172][SQL] Prendre en charge de la fonction LOCATE pour utiliser des chaînes classées
- [SPARK-47764] [SC-163820][CORE][SQL] Nettoyer les dépendances aléatoires basées sur ShuffleCleanupMode
- [SPARK-48039] [SC-164174][PYTHON][CONNECT] Mettre à jour la classe d’erreur pour
group.apply
- [SPARK-47414] [SC-163831][SQL] Prise en charge du classement en minuscules pour les expressions regexp
- [SPARK-47418] [SC-163818][SQL] Ajouter des implémentations manuelles pour les contenus unicode en minuscules, startsWith et endsWith et optimiser UTF8_BINARY_LCASE
- [SPARK-47580] [SC-163834][SQL] Catalyseur SQL : éliminer les variables non nommées dans les journaux d’erreurs
- [SPARK-47351] [SC-164008][SQL] Ajouter la prise en charge du classement pour les expressions de chaîne StringToMap et Mask
- [SPARK-47292] [SC-164151][SS] safeMapToJValue doit prendre en compte les valeurs de type Null
- [SPARK-47476] [SC-164014][SQL] Prendre en charge la fonction REPLACE pour utiliser des chaînes classées
- [SPARK-47408] [SC-164104][SQL] Corriger les mathExpressions qui utilisent StringType
- [SPARK-47350] [SC-164006][SQL] Ajouter la prise en charge du classement pour l’expression de chaîne SplitPart
- [SPARK-47692] [SC-163819][SQL] Corriger la signification StringType par défaut dans le cast implicite
- [SPARK-47094] [SC-161957][SQL] SPJ : rééquilibrer dynamiquement le nombre de compartiments lorsqu’ils ne sont pas égaux
- [SPARK-48001] [SC-164000][CORE] Supprimer
private implicit def arrayToArrayWritable
non utilisé dansSparkContext
- [SPARK-47986] [SC-163999][CONNECT][PYTHON] Impossible de créer une session lorsque la session par défaut est fermée par le serveur
- [SPARK-48019] [SC-164121] Corriger un comportement incorrect dans ColumnVector/ColumnarArray avec dictionnaire et null
- [SPARK-47743] [SPARK-47592][SPARK-47589][SPARK-47581][SPARK-47586][SPARK-47593][SPARK-47595][SPARK-47587][SPARK-47603] Migrations de journaux structurés
- [SPARK-47999] [SC-163998][SS] Améliorer la journalisation autour de la création d’instantanés et l’ajout/la suppression d’entrées dans le mappage du cache d’état dans le fournisseur de magasin d’états sauvegardé HDFS
- [SPARK-47417] [SC-162872][SQL] Prise en charge du classement : Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences
- [SPARK-47712] [SC-161871][CONNECT] Autoriser les plug-ins de connexion à créer et traiter des jeux de données
- [SPARK-47411] [SC-163351][SQL] Prendre en charge des fonctions StringInstr et FindInSet pour utiliser des chaînes classées
- [SPARK-47360] [SC-163014][SQL] Prise en charge du classement : Overlay, FormatString, Length, BitLength, OctetLength, SoundEx, Luhncheck
- [SPARK-47413] [SC-163323][SQL] Ajouter la prise en charge à substr/left/right pour les classements
- [SPARK-47983] [SC-163835][SQL] Abaisser spark.sql.pyspark.legacy.inferArrayTypeFromFirstElement.enabled en interne
- [SPARK-47964] [SC-163816][PYTHON][CONNECT] Masquer SQLContext et HiveContext dans pyspark-connect
- [SPARK-47985] [SC-163841][PYTHON] Simplifier les fonctions avec
lit
- [SPARK-47633] [SC-163453][SQL] Inclure la sortie du plan de droite dans
LateralJoin#allAttributes
pour une canonicalisation plus cohérente - [SPARK-47909] Rétablir « [PYTHON][CONNECT] Classe DataFrame parent f...
- [SPARK-47767] [SC-163096][SQL] Afficher la valeur de décalage dans TakeOrderedAndProjectExec
- [SPARK-47822] [SC-162968][SQL] Empêcher les expressions de hachage de hacher le type de données Variant
- [SPARK-47490] [SC-160494][SS] Corriger l’utilisation du constructeur d’enregistreur d’événements RocksDB pour éviter l’avertissement de dépréciation
- [SPARK-47417] Rétablir la prise en charge du classement « [SC-162872][SQL] : Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences »
- [SPARK-47352] [SC-163460][SQL] Corriger la prise en charge du classement Upper, Lower, InitCap
- [SPARK-47909] [PYTHON][CONNECT] Classe DataFrame parent pour Spark Connect et Spark Classic
- [SPARK-47417] [SC-162872][SQL] Prise en charge du classement : Ascii, Chr, Base64, UnBase64, Decode, StringDecode, Encode, ToBinary, FormatNumber, Sentences
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Veuillez télécharger les pilotes récemment publiés et mettre à niveau (téléchargez ODBC, téléchargez JDBC).
Consultez les mises à jour de maintenance databricks Runtime 15.3.
Environnement du système
- Système d’exploitation : Ubuntu 22.04.4 LTS
- Java : Zulu 8.78.0.19-CA-linux64
- Scala : 2.12.18
- Python : 3.11.0
- R : 4.3.2
- Delta Lake : 3.2.0
Bibliothèques Python installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
contourpy | 1.0.5 | chiffrement | 41.0.3 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | distlib | 0.3.8 |
entrypoints | 0,4 | en cours d’exécution | 0.8.3 | facets-overview | 1.1.1 |
filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | empaquetage | 23,2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
requests | 2.31.0 | rsa | 4,9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | six | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wheel | 0.38.4 | zipp | 3.11.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du gestionnaire de package Posit.
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
flèche | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | boot | 1.3-28 |
brew | 1.0-10 | brio | 1.1.4 | broom | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
horloge | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compiler | 4.3.2 |
config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | jeux de données | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
diagramme | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | ellipsis | 0.3.2 | evaluate | 0.23 |
fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
future | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
generics | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.2 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
graphics | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
highr | 0.10 | hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1,45 | labeling | 0.4.3 |
later | 1.3.2 | lattice | 0.21-8 | lava | 1.7.3 |
cycle de vie | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
Matrice | 1.5-4.1 | memoise | 2.0.1 | méthodes | 4.3.2 |
mgcv | 1.8-42 | mime | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
parallelly | 1.36.0 | pillar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | progress | 1.2.3 |
progressr | 0.14.0 | promises | 1.2.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
recipes | 1.0.9 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
shape | 1.4.6 | shiny | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | spatial | 7.3-15 | splines | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
survival | 3.5-5 | fichier Swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0,49 | tools | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
ID de groupe | ID d’artefact | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | flux | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 natifs |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 natifs |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1 natifs |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1 natifs |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collecteur | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | arrow-format | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | arrow-vector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatible | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |