Databricks Runtime 16.2 (bêta)
Essentiel
Databricks Runtime 16.2 est en version Bêta. Le contenu des environnements pris en charge peut changer pendant la version bêta. Les modifications peuvent inclure la liste des packages ou des versions de packages installés.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 16.2, alimentées par Apache Spark 3.5.0.
Conseil / Astuce
Pour voir les notes de publication des versions de Databricks Runtime dont la prise en charge a été arrêtée, consultez Notes de publication de Databricks Runtime en fin de prise en charge. Les versions Databricks Runtime dont la prise en charge a été arrêtée ont été mises hors service et risquent de ne pas pouvoir être mises à jour.
Changements de comportement
Dans le partage Delta, l’historique des tables est activé par défaut
Les partages créés à l’aide de la commande SQL ALTER SHARE <share> ADD TABLE <table>
ont désormais le partage d’historique (WITH HISTORY
) activé par défaut. Consultez ALTER SHARE.
Les instructions SQL d’informations d’identification retournent une erreur lorsqu’il existe une incompatibilité de type d’informations d’identification
Avec cette version, si le type d’informations d’identification spécifié dans une instruction DROP CREDENTIAL
ne correspond pas au type des informations d’identification à supprimer, une erreur est retournée et l’instruction n’est pas exécutée. Par exemple, pour l’instruction DROP STORAGE CREDENTIAL 'credential-name'
, si credential-name
n’est pas une information d’identification de stockage, l’instruction échoue avec une erreur.
Cette modification est apportée pour empêcher les erreurs utilisateur. Auparavant, l’instruction DROP CREDENTIAL
s’exécuterait correctement, même si des informations d’identification ont été passées qui ne correspondent pas au type d’informations d’identification spécifié. Par exemple, avant cette modification, l’instruction suivante supprime correctement storage-credential
: DROP SERVICE CREDENTIAL storage-credential
.
Consultez DROP CREDENTIAL dans la référence SQL.
Améliorations et nouvelles fonctionnalités
L'accès géré par Unity Catalog aux services cloud externes à l'aide des accréditations de service est désormais en disponibilité générale.
Les informations d’identification du service permettent une authentification simple et sécurisée avec les services de votre locataire cloud à partir d’Azure Databricks. Avec Databricks Runtime 16.2, les informations d’identification du service sont généralement disponibles et prennent désormais en charge les kits SDK Scala, en plus du SDK Python pris en charge dans la préversion publique. Consultez Gérer l’accès aux services cloud externes à l’aide des informations d’identification de service.
Les notebooks sont pris en charge en tant que fichiers d’espace de travail
Dans Databricks Runtime 16.2 et plus, les carnets de notes sont pris en charge en tant que fichiers d'espace de travail. Vous pouvez désormais écrire, lire et supprimer des blocs-notes comme n’importe quel autre fichier. Cela permet une interaction programmatique avec les blocs-notes partout où le système de fichiers de l'espace de travail est accessible. Pour plus d’informations, consultez Notebooks en tant que fichiers d’espace de travail.
Utiliser le timestampdiff
& timestampadd
dans les expressions de colonne générées
Dans Databricks Runtime 16.2 et versions ultérieures, vous pouvez utiliser les fonctions timestampdiff et timestampadd dans les expressions de colonne générées par Delta Lake. Consultez les colonnes générées par Delta Lake.
Prise en charge de la syntaxe des pipelines SQL
Dans Databricks Runtime 16.2 et ultérieur, vous pouvez composer des pipelines SQL. Un pipeline SQL structure une requête standard, telle que SELECT c2 FROM T WHERE c1 = 5
, dans une séquence pas à pas, comme illustré dans l’exemple suivant :
FROM T
|> SELECT c2
|> WHERE c1 = 5
Pour en savoir plus sur la syntaxe prise en charge pour les pipelines SQL, consultez Syntaxe des pipelines SQL.
Pour plus d'informations sur cette extension inter-industries, consultez SQL a des problèmes. Nous pouvons les corriger : syntaxe en pipe dans SQL (par Google Research).
La mise à jour vers DESCRIBE TABLE
retourne des métadonnées en tant que JSON structuré
Dans Databricks Runtime 16.2 et versions ultérieures, vous pouvez utiliser la commande DESCRIBE TABLE AS JSON
pour retourner les métadonnées de table en tant que document JSON. La sortie JSON est plus structurée que le rapport lisible par l’homme par défaut et peut être utilisée pour interpréter par programmation le schéma d’une table. Pour plus d’informations, consultez DESCRIBE TABLEAS JSON.
Classements non sensibles à la présence d’espaces de fin
Databricks Runtime 16.2 ajoute la prise en charge des classements non sensibles à la présence d’espaces de fin, en plus de la prise en charge du classement ajoutée dans Databricks Runtime 16.1. Par exemple, ces collations traitent 'Hello'
et 'Hello '
comme identiques. Pour plus d’informations, consultez Classement RTRIM.
Convertir des tables Iceberg avec partitionnement de compartiments en tables Delta nonpartitionées
Les instructions CONVERT TO DELTA et CREATE TABLE CLONE prennent désormais en charge la conversion d'une table Iceberg avec partitionnement en compartiments en une table Delta non partitionnée.
Corrections de bogues
Amélioration du traitement du clone incrémentiel
Cette version inclut un correctif pour un cas limite où un CLONE
incrémentiel pourrait recopier des fichiers déjà transférés d'une table source vers une table cible. Consultez Cloner une table sur Azure Databricks.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- Bibliothèques R mises à niveau :
- Bibliothèques Java mises à niveau :
- org.json4s.json4s-ast_2.12 de 3.7.0-M11 à 4.0.7
- org.json4s.json4s-core_2.12 de 3.7.0-M11 à 4.0.7
- org.json4s.json4s-jackson_2.12 de 3.7.0-M11 à 4.0.7
- org.json4s.json4s-scalap_2.12 de 3.7.0-M11 à 4.0.7
Apache Spark
Databricks Runtime 16.2 comprend Apache Spark 3.5.0. Cette version comprend l’ensemble des correctifs et améliorations Spark figurant dans Databricks Runtime 16.1 ainsi que les correctifs de bogues et améliorations supplémentaires suivants apportés à Spark :
- [SPARK-50596] [DBRRM-1507] Annuler « [SC-184060][PYTHON] Mettre à niveau Py4J de 0.10.9.7 à 0.10.9.8 »
- [SPARK-50904] [SC-186976][SQL] Correction de l’exécution de la requête walker d’expression de classement
- [SPARK-49666] [SQL] Activer les tests de découpage pour l’expression InSet
- [SPARK-50669] [SC-184566][ES-1327450][SQL] Modifier la signature de l’expression TimestampAdd
- [SPARK-50795] [16.x][SC-186719][SQL] Enregistrer l'horodatage comme type
long
dans le LinkedHashMapdescribe
- [SPARK-50596] [SC-184060][PYTHON] Mettre à niveau Py4J de 0.10.9.7 à 0.10.9.8
- [SPARK-50818] Rétablir « Rétablir « Rétablir « [SC-186458][PYTHON] Remplacer
has_numpy
parhave_numpy
» » » - [SPARK-50870] [SC-186950][SQL] Ajouter le fuseau horaire lors de la conversion en horodatage dans V2ScanRelationPushDown
- [SPARK-50735] [SC-186944][CONNECT] Échec dans ExecuteResponseObserver entraîne une rattachement infini des requêtes
- [SPARK-50522] [SC-186500][SQL] Prise en charge du classement indéterminé
- [SPARK-50525] [SC-186058][SQL] Define InsertMapSortInRepartitionExpressions Optimizer Rule
- [SPARK-50679] [SC-184572][SQL] Les expressions courantes dupliquées dans différentes With ne doivent être projetées qu’une seule fois
- [SPARK-50847] [SC-186916] [SQL] Empêcher ApplyCharTypePadding de s’appliquer sur des expressions In spécifiques
- [SPARK-50714] [SC-186786][SQL][SS] Activer l’évolution du schéma pour TransformWithState lorsque l’encodage Avro est utilisé
- [SPARK-50818] Annulation de « Annulation de « [SC-186458][PYTHON] Remplacement de
has_numpy
parhave_numpy
» » - [SPARK-50795] [SC-186390][SQL] Afficher toutes les dates DESCRIBE AS JSON au format ISO-8601 et les types en tant que
dataType.simpleString
- [SPARK-50561] [SC-185924][SQL] DBR 16.x cherrypick : Amélioration la vérification des contraintes de type et des limites pour la fonction UNIFORM SQL
- [SPARK-50700] [SC-184845][SQL]
spark.sql.catalog.spark_catalog
prend en chargebuiltin
valeur magique - [SPARK-50831] [SC-186736][BEHAVE-222][SQL] Activation du classement par défaut avec troncature
- [SPARK-50263] [SC-186793][PS][CONNECT] Remplacer
System.currentTimeMillis
parSystem.nanoTime
- [SPARK-50818] Annulation de « [SC-186458][PYTHON] Remplacement de
has_numpy
parhave_numpy
» » - [SPARK-48730] [SC-184926][SQL] Implémenter CreateSQLFunctionCommand pour les fonctions scalaires et de table SQL
- [SPARK-50830] [SC-186718] [SQL] Renvoyer un résultat d'analyse en une seule passe comme résultat d'analyse à double passe
- [SPARK-50707] [SC-186098][SQL] Activer la conversion vers/à partir de char/varchar
- [SPARK-49490] [SC-182137][SQL] Ajouter des benchmarks pour initCap
- [SPARK-50529] [SC-184535][SQL] Modifier le comportement char/varchar sous la configuration
spark.sql.preserveCharVarcharTypeInfo
- [SPARK-49632] [SC-184179][SQL] Supprimer la suggestion de configuration ANSI dans CANNOT_PARSE_TIMESTAMP
- [SPARK-50815] [SC-186487][PYTHON][SQL] Correction d'un bogue où le passage de Null Variants dans createDataFrame provoque un échec, et ajout de la prise en charge des Variants dans createDataFrame dans Spark Connect.
- [SPARK-50828] [SC-186493][PYTHON][ML][CONNECT]
pyspark.ml.connect
déconseillé - [SPARK-50600] [SC-186057][CONNECT][SQL] Définir l'analyse en cas d'échec de l'analyse
- [SPARK-50824] [SC-186472][PYTHON] Éviter d’importer des packages Python facultatifs pour la vérification
- [SPARK-50818] [SC-186458][PYTHON] Remplacement de
has_numpy
parhave_numpy
- [SPARK-50722] [SC-185523][SQL] Détecter les nœuds WITH autonomes
- [SPARK-50755] [SC-185521][SQL] Affichage esthétique du plan pour InsertIntoHiveTable
- [SPARK-50756] [SC-185552] Revenir à « [SQL] Use error class for exceptions in SparkConf.validateSettings »
- [SPARK-50789] [SC-186312][CONNECT] Les entrées pour les agrégations typées doivent être analysées
- [SPARK-50791] [SC-185867][SC-186338][SQL] Correction de NPE dans la gestion des erreurs du magasin d’états
- [SPARK-50801] [SC-186365] [SQL] Améliorer
PlanLogger.logPlanResolution
afin qu’il affiche uniquement les plans non résolus et résolus - [SPARK-50749] [SC-185925][SQL] Correction du bogue de classement dans la méthode CommutativeExpression.gatherCommutative
- [SPARK-50783] [SC-186347] Canonicaliser le nom de fichier et la disposition des résultats du profiler JVM sur DFS
- [SPARK-50790] [SC-186354][PYTHON] Implémenter l’analyse json dans pyspark
- [SPARK-50738] [SC-184856][PYTHON] Mise à niveau de black vers 23.12.1
- [SPARK-50764] [SC-185930][PYTHON] Affiner le docstring des méthodes associées à XPath
- [SPARK-50798] [SC-186277][SQL] Amélioration de
NormalizePlan
- [SPARK-49883] [SC-183787][SS] Structure du point de contrôle du magasin d'État V2 Intégration avec RocksDB et RocksDBFileManager
- [SPARK-50779] [SC-186062][SQL] Ajout d’un indicateur de fonctionnalité pour les classements au niveau de l’objet
- [SPARK-50778] [SC-186183][PYTHON] Ajouter metadataColumn à PySpark DataFrame
- [SPARK-49565] [SC-186056][SQL] DBR 16.x cherrypick : Améliorer les alias d’expression générés automatiquement avec des opérateurs SQL pipe
- [SPARK-50541] [16.x][SC-184937] Décrire la table en tant que JSON
- [SPARK-50772] [SC-185923][SQL] DBR 16.x cherrypick : Conserver les alias de table après les opérateurs EXTEND, DROP et SET
- [SPARK-50769] [SC-185919][SQL] Fix ClassCastException in HistogramNumeric
- [SPARK-49025] [SC-174667] Synchroniser la différence de code Delta avec DBR
- [SPARK-50752] [SC-185547][PYTHON][SQL] Introduire des configurations pour l’optimisation de la fonction UDF Python sans flèche
- [SPARK-50705] [SC-185944][SQL] Rendre le système
QueryPlan
sans verrou - [SPARK-50690] [16.x][SC-184640][BEHAVE-211][SQL] Corriger l’écart dans DESCRIBE TABLE afficher les colonnes de sortie de requête entre guillemets
- [SPARK-50746] [SC-184932][SQL] Remplacez l’un ou l’autre par VariantPathSegment.
- [SPARK-50715] [SC-185546][PYTHON][CONNECT]
SparkSession.Builder
définit les configurations par lots - [SPARK-50480] [SC-183359][SQL] Étendre CharType et VarcharType à partir de StringType
- [SPARK-50675] [SC-184539][SQL] Prise en charge des classements au niveau des tables et des vues
- [SPARK-50409] [BEHAVE-194][SC-184516][SQL] Corriger l'instruction set pour ignorer
;
à la fin deSET;
,SET -v;
etSET key;
- [SPARK-50743] [SC-185528][SQL] Normalize CTERelationDef et CTERelationRef IDs
- [SPARK-50756] [SC-185520] [SQL] Use error class for exceptions in SparkConf.validateSettings
- [SPARK-50693] [SC-184684][CONNECT] Les entrées pour TypedScalaUdf devraient être analysées
- [SPARK-50744] [SC-184929][SQL] Ajouter un cas de test pour la priorité de résolution de noms de vue/CTE
- [SPARK-50710] [SC-184767][CONNECT] Ajouter la prise en charge de la reconnexion facultative du client aux sessions après la publication
- [SPARK-50703] [SC-184843][PYTHON] Affiner la chaîne de documentation de regexp_replace, de regexp_substr et de regexp_instr
- [SPARK-50716] [SC-184823][CORE] Corriger la logique de nettoyage des liens symboliques dans
JavaUtils.deleteRecursivelyUsingJavaIO
méthode - [SPARK-50630] [SC-184443][SQL] Correction GROUP BY prise en charge ordinale pour les opérateurs d’agrégation SQL de pipeline
- [SPARK-50614] [SC-184729][SQL] Ajouter la prise en charge du déchiquetage variant pour Parquet
- [SPARK-50661] [SASP-4936] Ajouter une compatibilité descendante pour l’ancien client FEB.
- [SPARK-50676] [SC-184641][SQL] Suppression de
private lazy val mapValueContainsNull
inutilisée deElementAt
- [SPARK-50515] [SC-183813][CORE] Ajouter une interface en lecture seule à
SparkConf
- [SPARK-50697] [SC-184702][SQL] Activer la récursivité de la fin dans la mesure du possible
- [SPARK-50642] [SC-184726][SC-183517][CONNECT][SS][2/N][16.x]Corriger le schéma d’état pour FlatMapGroupsWithState dans Spark Connect lorsqu’il n’y a pas d’état initial
- [SPARK-50701] [SC-184704][PYTHON] Faire en sorte que la création de graphiques nécessite la version minimale de Plotly
- [SPARK-50702] [SC-184727][PYTHON] Affiner le docstring de regexp_count, regexp_extract et regexp_extract_all
- [SPARK-50499] [SC-184177][PYTHON] Exposer les métriques de BasePythonRunner
- [SPARK-50692] [SC-184705][16.x] Ajout de la prise en charge du pushdown RPAD
- [SPARK-50682] [SC-184579][SQL] L’alias interne doit être canonique
- [SPARK-50699] [SC-184695][PYTHON] Analyser et générer une chaîne DDL avec une session spécifiée
- [SPARK-50573] [SC-184568][SS] Ajout de l’ID de schéma d’état aux lignes d’état à l’évolution du schéma
- [SPARK-50661] [SC-184639][CONNECT][SS][SASP-4936] Fix Spark Connect Scala foreachBatch impl. pour prendre en charge le jeu de données[T].
- [SPARK-50689] [SC-184591][SQL] Appliquer l’ordre déterministe dans les listes de projets LCA
- [SPARK-50696] [SC-184667][PYTHON] Optimiser l’appel Py4J pour la méthode d’analyse DDL
- [SPARK-49670] [SC-182902][SQL] Activer le classement de découpage pour toutes les expressions pas à pas
- [SPARK-50673] [SC-184565][ML] Éviter de parcourir les coefficients de modèle deux fois dans
Word2VecModel
constructeur - [SPARK-50310] [SC-184663]Rétablir « [CONNECT][PYTHON] Appeler
with_origin_to_class
lors de l’initialisation duColumn
» - [SPARK-50687] [SC-184588][PYTHON] Optimiser la logique pour obtenir des traces de pile pour DataFrameQueryContext
- [SPARK-50681] [SC-184662][PYTHON][CONNECT] Cachez le schéma analysé pour MapInXXX et ApplyInXXX
- [SPARK-50674] [SC-184589][PYTHON] Corriger la vérification de l'existence de la méthode « terminate » dans l’évaluation UDTF
- [SPARK-50684] [SC-184582][PYTHON] Améliorer les performances Py4J dans DataFrameQueryContext
- [SPARK-50578] [DBR16.x][SC-184559][PYTHON][SS] Ajouter la prise en charge de la nouvelle version des métadonnées d’état pour TransformWithStateInPandas
- [SPARK-50602] [SC-184439][SQL] Corriger la transpose pour afficher un message d’erreur approprié lorsque des colonnes d’index non valides sont spécifiées
- [SPARK-50650] [SC-184532][SQL] Améliorer la journalisation dans l’analyseur à passe unique
- [SPARK-50665] [SC-184533][SQL] Remplacer LocalRelation par ComparableLocalRelation dans NormalizePlan
- [SPARK-50644] [SC-184486][SQL] Lire le struct variant dans le lecteur Parquet.
- [SPARK-49636] [SC-184089][SQL] Supprimer la suggestion de configuration ANSI dans INVALID_ARRAY_INDEX et INVALID_ARRAY_INDEX_IN_ELEMENT_AT
- [SPARK-50659] [SC-184514][SQL] Refactoriser le calcul de sortie Union pour le réutiliser dans l’analyseur à passe unique
- [SPARK-50659] [SC-184512][SQL] Déplacer des erreurs liées à l’union vers QueryCompilationErrors
- [SPARK-50530] [SC-183419][SQL] Corriger le calcul incorrect de contexte de type chaîne implicite
- [SPARK-50546] [SC-183807][SQL] Ajouter la prise en charge de la conversion de sous-requête à la coercion de type de collation
- [SPARK-50405] [SC-182889][SQL] Gérer correctement la coercition du type de collation des types de données complexes
- [SPARK-50637] [SC-184434][SQL] Corriger le style de code pour l’analyseur à passe unique
- [SPARK-50638] [SC-184435][SQL] Refactoriser la résolution de vue dans le fichier distinct pour le réutiliser dans l’analyseur à passe unique
- [SPARK-50615] [SC-184298][SQL] Pousser la variante dans le scan.
- [SPARK-50619] [SC-184210][SQL] Refactoriser VariantGet.cast pour empaqueter les arguments de cast
- [SPARK-50599] [SC-184058][SQL] Créer la caractéristique DataEncoder qui permet l’encodage Avro et UnsafeRow
- [SPARK-50076] [SC-183809] Correction des touches de journalisation
- [SPARK-50597] [SC-183972][SQL] Refactoriser la construction de lots dans Optimizer.scala et SparkOptimizer.scala
- [SPARK-50339] [SC-183063][SPARK-50360][SS] Activer le journal des modifications pour stocker les informations de traçabilité
- [SPARK-50526] [SC-183811][SS] Ajouter une configuration de format d'encodage de stockage dans le journal de décalage et bloquer les opérateurs avec état non pris en charge d'utiliser Avro
- [SPARK-50540] [SC-183810][PYTHON][SS] Correction du schéma de chaîne pour StatefulProcessorHandle
- [SPARK-50157] [SC-183789][SQL] À l’aide de SQLConf fourni par SparkSession en premier.
- [SPARK-48898] [SC-183793][SQL] Définir la nullabilité correctement dans le schéma Variant
- [SPARK-50559] [SC-183814][SQL] Stocker les résultats de Except, Intersect et Union en tant que valeurs paresseuses
- [SPARK-48416] [SC-183643][SQL] Prise en charge des expressions CTE imbriquées et corrélées
- [SPARK-50428] [SC-183566][SS][PYTHON] Prise en charge de TransformWithStateInPandas dans les requêtes par lots
- [SPARK-50063] [SC-183350][SQL][CONNECT] Ajouter la prise en charge de Variant dans le client Scala Spark Connect
- [SPARK-50544] [SC-183569][PYTHON][CONNECT] Implémentation de
StructType.toDDL
- [SPARK-50443] [SC-182590][SS] Correction des erreurs de build Maven introduites par le cache Guava dans RocksDBStateStoreProvider
- [SPARK-50491] [SC-183434][SQL] Corriger le bogue qui fait que les blocs BEGIN END vides provoquent une erreur
- [SPARK-50536] [SC-183443][CORE] Consigner la taille des fichiers archive téléchargés dans
SparkContext
etExecutor
- [SPARK-45891] [SC-183439][SQL] Reconstruire le binaire de variante à partir des données fragmentées.
- [SPARK-49565] [SC-183465][SQL] Ajouter une syntaxe de canal SQL pour le FROM opérateur
- [SPARK-50497] [SC-183338][SQL] Échec des requêtes avec un message approprié si MultiAlias contient une fonction non-génératrice
- [SPARK-50460] [SC-183375][PYTHON][CONNECT] Généraliser et simplifier la gestion des exceptions Connect
- [SPARK-50537] [SC-183452][CONNECT][PYTHON] Correction de l’option de compression remplacée dans
df.write.parquet
- [SPARK-50329] [SC-183358][SQL] Correction de InSet$toString
- [SPARK-50524] [SC-183364][SQL] Réduire le message d’avertissement
RowBasedKeyValueBatch.spill
au niveau de débogage - [SPARK-50528] [SC-183385][CONNECT] Déplacer
InvalidCommandInput
vers un module commun - [SPARK-50017] [SC-182438][SS] Prise en charge de l’encodage Avro pour l’opérateur TransformWithState
- [SPARK-50310] [SC-182660][PYTHON] Ajouter
spark.python.sql.dataFrameDebugging.enabled
à la liste verte - [SPARK-50463] [SC-182833][SQL] Correction
ConstantColumnVector
avec la conversion de format en colonnes vers lignes - [SPARK-50235] [SC-180786][SQL] Nettoyer la ressource ColumnVector après avoir traité toutes les lignes dans ColumnarToRowExec
- [SPARK-50310] [SC-182660][PYTHON] Ajouter un indicateur pour désactiver DataFrameQueryContext pour PySpark
- [SPARK-50516] [SC-183279][SS][MINOR] Corriger le test lié à l’état init pour utiliser StreamManualClock
- [SPARK-50478] [SC-183188][SQL] Correction de la correspondance StringType
- [SPARK-50492] [SC-183177][SS] Correction de java.util.NoSuchElementException lorsque la colonne de temps d'événement est supprimée lors de l'utilisation de dropDuplicatesWithinWatermark
- [SPARK-49566] [SC-182589][SQL] Ajouter une syntaxe de canal SQL pour l’opérateur SET
- [SPARK-50449] [SC-183178][SQL] Corriger la grammaire de script SQL autorisant des corps vides pour les boucles, IF et CASE
- [SPARK-50251] [SC-180970][PYTHON] Ajouter
getSystemProperty
à PySparkSparkContext
- [SPARK-50421] [SC-183091][CORE] Correction de la configuration de mémoire associée à l’exécuteur incorrecte lorsque plusieurs profils de ressources ont fonctionné
- [SPARK-49461] [SC-179572][SS] ID de point de contrôle persistant pour valider les journaux et les lire
- [SPARK-50343] [SC-183119][SPARK-50344][SQL] Ajouter une syntaxe de canal SQL pour les opérateurs DROP et AS
- [SPARK-50481] [SC-182880][CORE] Améliorer
SortShuffleManager.unregisterShuffle
pour ignorer la logique du fichier de somme de contrôle si la somme de contrôle est désactivée - [SPARK-50498] [SC-183090][PYTHON] Éviter les appels inutiles à py4j dans
listFunctions
- [SPARK-50489] [SC-183053][SQL][PYTHON] Correction de l’auto-jointure après
applyInArrow
- [SPARK-49695] [SC-182967][SC-176968][BEHAVE-198][SQL] Postgres fix xor push-down
Prise en charge du pilote ODBC/JDBC Databricks
Databricks prend en charge les pilotes ODBC/JDBC publiés au cours des 2 dernières années. Téléchargez les pilotes récemment publiés et mettez-les à niveau (Télécharger ODBC, Télécharger JDBC).
Environnement système
- Système d’exploitation: Ubuntu 24.04.1 LTS
- Java : Zulu17.54+21-CA
- Scala : 2.12.18
- Python : 3.12.3
- R : 4.4.0
- Delta Lake: 3.3.0
Bibliothèques Python installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
autocommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | black | 24.4.2 |
blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
chardet | 4.0.0 | charset-normalizer | 2.0.4 | click | 8.1.7 |
cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
chiffrement | 42.0.5 | cycler | 0.11.0 | Cython | 3.0.11 |
databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
decorator | 5.1.1 | Déconseillé | 1.2.14 | distlib | 0.3.8 |
docstring-to-markdown | 0.11 | entrypoints | 0.4 | en cours d’exécution | 0.8.3 |
aperçu des facettes | 1.1.1 | verrouillage de fichier | 3.15.4 | fonttools | 4.51.0 |
gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
google-auth | 2.35.0 | google-cloud-core | 2.4.1 | Google Cloud Storage | 2.18.2 |
google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
inflect | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
empaquetage | 24.1 | pandas | 1.5.3 | parso | 0.8.3 |
pathspec | 0.10.3 | patsy | 0.5.6 | pexpect | 4.8.0 |
pillow | 10.3.0 | pip | 24,2 | platformdirs | 3.10.0 |
plotly | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
requêtes | 2.32.2 | rope | 1.12.0 | rsa | 4,9 |
s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
seaborn | 0.13.2 | setuptools | 74.0.0 | six | 1.16.0 |
smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.14.2 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
types-PyYAML | 6.0.0 | types de requêtes | 2.31.0.0 | types-setuptools | 68.0.0.0 |
types-six | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
ujson | 5.10.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
whatthepatch | 1.0.2 | wheel | 0.43.0 | wrapt | 1.14.1 |
yapf | 0.33.0 | zipp | 3.17.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané CRAN du Gestionnaire de package Posit le 04-08-2024.
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
flèche | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.5.0 | base | 4.4.0 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1,0-8 | objet BLOB | 1.2.4 | boot | 1.3-30 |
brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
horloge | 0.7.1 | cluster | 2.1.6 | codetools | 0.2-20 |
colorspace | 2.1-1 | commonmark | 1.9.1 | compiler | 4.4.0 |
config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.3 | credentials | 2.0.1 | curl | 5.2.1 |
data.table | 1.15.4 | jeux de données | 4.4.0 | DBI | 1.2.3 |
dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
diagramme | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.36 |
downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | ellipsis | 0.3.2 | evaluate | 0.24.0 |
fansi | 1.0.6 | farver | 2.1.2 | carte rapide | 1.2.0 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.4 |
future | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
generics | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.3 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
graphics | 4.4.0 | grDevices | 4.4.0 | grid | 4.4.0 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.11.0 |
gtable | 0.3.5 | hardhat | 1.4.0 | haven | 2.5.4 |
highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-22 | knitr | 1,48 | labeling | 0.4.3 |
later | 1.3.2 | lattice | 0.22-5 | lava | 1.8.0 |
cycle de vie | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
Matrix | 1.6-5 | memoise | 2.0.1 | methods | 4.4.0 |
mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
parallelly | 1.38.0 | pillar | 1.9.0 | pkgbuild | 1.4.4 |
pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
plogr | 0.2.0 | plyr | 1.8.9 | louange | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
prodlim | 2024.06.25 | profvis | 0.3.8 | progress | 1.2.3 |
progressr | 0.14.0 | promises | 1.3.0 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.7 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.3.2 | randomForest (algorithme d'apprentissage machine) | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | réactif | 0.4.4 |
reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
recipes | 1.1.0 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
rlang | 1.1.4 | rmarkdown | 2,27 | RODBC | 1.3-23 |
roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
écailles | 1.3.0 | selectr | 0.4-2 | informations de session | 1.2.2 |
shape | 1.4.6.1 | shiny | 1.9.1 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.6 | spatial | 7.3-17 | splines | 4.4.0 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistiques | 4.4.0 |
stats4 | 4.4.0 | stringi | 1.8.4 | stringr | 1.5.1 |
survival | 3.6-4 | fichier Swagger | 5.17.14.1 | sys | 3.4.2 |
systemfonts | 1.1.0 | tcltk | 4.4.0 | testthat | 3.2.1.1 |
mise en forme du texte | 0.4.0 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.1 | tidyverse | 2.0.0 | changement d'heure | 0.3.0 |
timeDate | 4032.109 | tinytex | 0.52 | outils | 4.4.0 |
tzdb | 0.4.0 | vérificateur d'URL | 1.0.1 | usethis | 3.0.0 |
utf8 | 1.2.4 | utils | 4.4.0 | identifiant unique universel (UUID) | 1.2-1 |
V8 | 4.4.2 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.1 | xfun | 0.46 | xml2 | 1.3.6 |
xopen | 1.0.1 | xtable | 1.8-4 | yaml | 2.3.10 |
zeallot | 0.1.0 | zip | 2.3.1 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
ID de groupe | ID d’artefact | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
com.amazonaws | aws-java-sdk-config | 1.12.638 |
com.amazonaws | aws-java-sdk-core | 1.12.638 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
com.amazonaws | aws-java-sdk-directory | 1.12.638 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
com.amazonaws | aws-java-sdk-efs | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
com.amazonaws | aws-java-sdk-emr | 1.12.638 |
com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
com.amazonaws | aws-java-sdk-glue | 1.12.638 |
com.amazonaws | aws-java-sdk-iam | 1.12.638 |
com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
com.amazonaws | aws-java-sdk-kms | 1.12.638 |
com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
com.amazonaws | aws-java-sdk-logs | 1.12.638 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
com.amazonaws | aws-java-sdk-rds | 1.12.638 |
com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
com.amazonaws | aws-java-sdk-ses | 1.12.638 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
com.amazonaws | aws-java-sdk-sns | 1.12.638 |
com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
com.amazonaws | aws-java-sdk-sts | 1.12.638 |
com.amazonaws | aws-java-sdk-support | 1.12.638 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
com.amazonaws | jmespath-java | 1.12.638 |
com.clearspring.analytics | flux | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | caffeine | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | système_natif-java | 1.1 |
com.github.fommil.netlib | système_natif-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 3.25.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | compresseur d'air | 0,27 |
io.delta | delta-sharing-client_2.12 | 1.2.2 |
io.dropwizard.metrics | annotation des métriques | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | métriques-vérifications de santé | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.108.Final |
io.netty | netty-buffer | 4.1.108.Final |
io.netty | netty-codec | 4.1.108.Final |
io.netty | netty-codec-http | 4.1.108.Final |
io.netty | netty-codec-http2 | 4.1.108.Final |
io.netty | netty-codec-socks | 4.1.108.Final |
io.netty | netty-common | 4.1.108.Final |
io.netty | netty-handler | 4.1.108.Final |
io.netty | netty-handler-proxy | 4.1.108.Final |
io.netty | netty-resolver | 4.1.108.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.108.Final |
io.netty | netty-transport-classes-epoll | 4.1.108.Final |
io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.108.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collecteur | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | arrow-format | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | arrow-vector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.2 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | gardien de zoo | 3.9.2 |
org.apache.zookeeper | zookeeper-jute | 3.9.2 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 4.0.7 |
org.json4s | json4s-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson-core_2.12 | 4.0.7 |
org.json4s | json4s-jackson_2.12 | 4.0.7 |
org.json4s | json4s-scalap_2.12 | 4.0.7 |
org.lz4 | lz4-java | 1.8.0-databricks-1 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 9.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.16 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatible avec scalatest | 3.2.16 |
org.scalatest | scalatest-core_2.12 | 3.2.16 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
org.scalatest | scalatest_2.12 | 3.2.16 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly.openssl | 1.1.3.Finale |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
stax | stax-api | 1.0.1 |