Databricks Runtime 11.0 (EoS)
Remarque
La prise en charge de cette version databricks Runtime a pris fin. Pour connaître la date de fin de support, consultez l’historique de fin de support. Pour toutes les versions prises en charge de Databricks Runtime, consultez Notes de publication sur les versions et la compatibilité de Databricks Runtime.
Les notes de publication suivantes fournissent des informations sur Databricks Runtime 11.0, avec Apache Spark 3.3.0. Databricks a publié cette version en juin 2022.
Améliorations et nouvelles fonctionnalités
- Nouvelle version de Apache Spark
- Les notebooks Python utilisent désormais le noyau IPython
- Prise en charge des ipywidgets
- Le connecteur Synapse écrit désormais les données Parquet en mode non hérité
- Le schéma HTTPS est désormais appliqué lorsque le client ABFS utilise un jeton SAS
- SQL :
DESC
est maintenant un alias pourDESCRIBE
- SQL : La nouvelle fonction
current_version
génère les détails de la version - La suppression d’une contrainte de table Delta manquante déclenche désormais une erreur
- SQL : La nouvelle clause
EXCEPT
dans l’instructionSELECT
exclut les colonnes de la sélection - Prise en charge de la suppression de colonnes dans les tables Delta (préversion publique)
COPY INTO
AméliorationsCONVERT TO DELTA
est désormais pris en charge dans les environnements compatibles avec le catalogue Unity (préversion publique)
Nouvelle version d’Apache Spark
Databricks Runtime 11.0 et Databricks Runtime 11.0 Photon incluent Apache Spark 3.3.0. Pour plus d’informations, consultez Apache Spark.
Les notebooks Python utilisent désormais le noyau IPython
Dans Databricks Runtime 11.0 et versions ultérieures, les notebooks Python utilisent le noyau IPython pour exécuter le code Python. Consultez Noyau IPython.
Prise en charge des ipywidgets
Vous pouvez désormais utiliser des ipywidgets pour rendre vos notebooks Python Databricks interactifs. Consultez ipywidgets.
Le connecteur Synapse écrit désormais les données Parquet en mode non hérité
Le connecteur Azure Synapse écrit désormais les données Parquet en mode non hérité. Il conserve le format d’horodatage INT96
quand PolyBase et les commandes COPY
sont utilisées pour les charges de travail de traitement par lots et de streaming.
Le schéma HTTPS est désormais appliqué lorsque le client ABFS utilise un jeton SAS
Lorsque le client ABFS (Azure Blob File System) utilise un jeton SAP (Shared Access Signature), le schéma HTTPS est désormais appliqué.
SQL : DESC
est maintenant un alias pour DESCRIBE
Vous pouvez désormais utiliser DESC
comme alias pour DESCRIBE
lorsque vous décrivez des emplacements externes ou des informations d’identification de stockage. Par exemple :
-- Describe an external location.
DESC EXTERNAL LOCATION location_name;
-- Describe a storage credential.
DESC STORAGE CREDENTIAL credential_name;
SQL : La nouvelle fonction current_version
génère les détails de la version
La nouvelle fonction current_version
génère la version actuelle de Databricks Runtime si elle est disponible, la version actuelle de Databricks SQL si elle est disponible ainsi que d’autres détails de version connexes. Utilisez cette nouvelle fonction pour demander des informations relatives à la version. Consultez Fonction current_version.
La suppression d’une contrainte de table Delta manquante déclenche désormais une erreur
Si vous essayez à présent de supprimer une contrainte de table Delta par nom et que cette contrainte n’existe pas, vous obtenez une erreur. Pour revenir à l’ancien comportement, qui ne génère pas d’erreur si la contrainte n’existe pas, vous devez maintenant utiliser l’instruction IF EXISTS
. Consultez ALTER TABLE.
SQL : La nouvelle clause EXCEPT
dans l’instruction SELECT
exclut les colonnes de la sélection
Les instructions SELECT
prennent désormais en charge la clause EXCEPT
pour exclure les colonnes de la sélection. Par exemple, SELECT * EXCEPT (x) FROM table
retourne toutes les colonnes de table
à l’exception de x
. Les colonnes imbriquées sont également autorisées. Par exemple, SELECT * EXCEPT (x.a) FROM table
retourne toutes les colonnes de table
, mais omet le champ a
du struct x
.
Prise en charge de la suppression de colonnes dans les tables Delta (préversion publique)
Vous pouvez utiliser ALTER TABLE <table-name> DROP COLUMN [IF EXISTS] <column-name>
ou ALTER TABLE <table-name> DROP COLUMNS [IF EXISTS] (<column-name>, *)
pour supprimer une colonne ou une liste de colonnes, respectivement, d’une table Delta sous la forme d’une opération de métadonnées uniquement. Les colonnes sont en fait « supprimées de manière réversible », car elles se trouvent toujours dans les fichiers Parquet sous-jacents, mais ne sont plus visibles dans la table Delta.
Vous pouvez utiliser REORG TABLE <table-name> APPLY (PURGE)
pour déclencher une réécriture de fichier sur les fichiers qui contiennent des données supprimées de manière réversible, telles que des colonnes supprimées.
Vous pouvez utiliser VACUUM
pour supprimer les fichiers supprimés du stockage physique, y compris les anciens fichiers qui contiennent des colonnes supprimées et qui ont été réécrits par REORG TABLE
.
Améliorations COPY INTO
Vous pouvez créer des tables Delta d’espace réservé vides afin que le schéma soit déduit ultérieurement lors d’une commande COPY INTO
:
CREATE TABLE IF NOT EXISTS my_table
[COMMENT <table-description>]
[TBLPROPERTIES (<table-properties>)];
COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('mergeSchema' = 'true')
COPY_OPTIONS ('mergeSchema' = 'true');
L’instruction SQL précédente est idempotente et peut être planifiée pour s’exécuter de manière à ingérer des données exactement une fois dans une table Delta.
Notes
La table Delta vide n’est pas utilisable en dehors de COPY INTO
. Vous ne pouvez pas utiliser INSERT INTO
et MERGE INTO
pour écrire des données dans des tables Delta sans schéma. Une fois les données insérées dans la table avec COPY INTO
, la table est interrogeable.
Si les données que vous ingérez ne peuvent pas être lues en raison d’un problème d’altération, vous pouvez ignorer les fichiers endommagés en définissant ignoreCorruptFiles
sur true
dans la commande FORMAT_OPTIONS
:
COPY INTO my_table
FROM '/path/to/files'
FILEFORMAT = <format>
FORMAT_OPTIONS ('ignoreCorruptFiles' = 'true')
La commande COPY INTO
retourne le nombre de fichiers ignorés en raison d’une altération dans la colonne num_skipped_corrupt_files
. Cette métrique s’affiche également dans la colonne operationMetrics
sous numSkippedCorruptFiles
après l’exécution de DESCRIBE HISTORY
sur la table Delta.
Les fichiers corrompus ne sont pas suivis par COPY INTO
. Ils peuvent donc être rechargés dans une exécution ultérieure si la corruption est corrigée. Vous pouvez voir quels fichiers sont endommagés en exécutant COPY INTO
en mode VALIDATE
.
CONVERT TO DELTA
est désormais pris en charge dans les environnements compatibles avec le catalogue Unity (préversion publique)
Dans les environnements Unity-Catalog, avec CONVERT TO DELTA
, vous pouvez désormais :
- Convertir des fichiers Parquet dans des emplacements externes en Delta Lake.
- Convertir des tables externes Parquet en tables Delta.
Changements de comportement
- SQL : les fonctions
lpad
etrpad
prennent désormais en charge les séquences d’octets - Le format de chaîne dans
format_string
etprintf
n’autorise plus%0$
- Les valeurs Null dans les fichiers CSV sont désormais écrites sous forme de chaînes vides sans guillemets par défaut
- La propriété de table
external
est désormais réservée - Log4j est mis à niveau de Log4j 1 vers Log4j 2
- Les bibliothèques installées depuis Maven sont désormais résolues dans votre plan de calcul par défaut
SQL : Les fonctions lpad
et rpad
prennent désormais en charge les séquences d’octets
Les fonctions lpad et rpad ont été mises à jour pour ajouter la prise en charge des séquences d’octets en plus des chaînes.
Le format de chaîne dans format_string
et printf
n’autorise plus %0$
La spécification du format %0$
dans les fonctions format_string
et printf
génère désormais une erreur par défaut. Cette modification vise à conserver le comportement attendu avec les versions précédentes de Databricks Runtime et les bases de données tierces courantes. Le premier argument doit toujours référencer %1$
lorsque vous utilisez un index d’arguments pour indiquer la position de l’argument dans la liste d’arguments.
Les valeurs Null dans les fichiers CSV sont désormais écrites sous forme de chaînes vides sans guillemets par défaut
Les valeurs Null dans les fichiers CSV étaient auparavant écrites sous forme de chaînes vides entre guillemets. Avec cette version, les valeurs Null dans les fichiers CSV sont désormais écrites sous forme de chaînes vides sans guillemets par défaut. Pour revenir au comportement précédent, définissez l’option nullValue
sur ""
pour les opérations d’écriture.
La propriété de table external
est désormais réservée
La propriété external
est désormais une propriété de table réservée par défaut. Des exceptions sont désormais générées quand vous utilisez la propriété external
avec les clauses CREATE TABLE ... TBLPROPERTIES
et ALTER TABLE ... SET TBLPROPERTIES
.
Log4j est mis à niveau de Log4j 1 vers Log4j 2
Log4j 1 est mis à niveau vers Log4j 2. Les dépendances Log4j 1 héritées sont supprimées.
Si vous dépendez des classes Log4j 1 qui ont été incluses précédemment dans Databricks Runtime, ces classes n’existent plus. Vous devez mettre à niveau vos dépendances vers Log4j 2.
Si vous avez des plug-ins personnalisés ou des fichiers de configuration qui dépendent de Log4j 2, ils se peut qu’ils ne fonctionnent plus avec la version de Log4j 2 dans cette version. Pour obtenir de l’assistance, contactez l’équipe de votre compte Azure Databricks.
Les bibliothèques installées depuis Maven sont désormais résolues dans votre plan de calcul par défaut
Les bibliothèques Maven sont désormais résolues dans votre plan de calcul par défaut lorsque vous installez des bibliothèques sur un cluster. Votre cluster doit avoir accès à Maven Central. Vous pouvez également revenir au comportement précédent en définissant la propriété de configuration Spark :
spark.databricks.libraries.enableMavenResolution false
Résolution des bogues
- La compatibilité binaire pour
LeafNode
,UnaryNode
etBinaryNode
entre Apache Spark et Databricks Runtime a été corrigée et les classes sont désormais compatibles avec Apache Spark 3.3.0 et versions ultérieures. Si vous rencontrez le message suivant ou similaire lors de l’utilisation d’un package tiers avec le runtime Databricks, régénérez le package avec Apache Spark 3.3.0 ou version supérieure :Found interface org.apache.spark.sql.catalyst.plans.logical.UnaryNode, but class was expected
.
Mises à niveau de la bibliothèque
- Bibliothèques Python mises à niveau :
- platformdirs de 2.5.1 vers 2.5.2
- protobuf de 3.20.0 vers 3.20.1
- Bibliothèques R mises à niveau :
- blob de 1.2.2 vers 1.2.3
- broom de 0.7.12 vers 0.8.0
- caret de 6.0-91 vers 6.0-92
- cli de 3.2.0 vers 3.3.0
- dplyr de 1.0.8 vers 1.0.9
- future de 1.24.0 vers 1.25.0
- future.apply de 1.8.1 vers 1.9.0
- gert de 1.5.0 vers 1.6.0
- ggplot2 de 3.3.5 vers 3.3.6
- glmnet de 4.1-3 vers 4.1-4
- haven de 2.4.3 vers 2.5.0
- httr de 1.4.2 vers 1.4.3
- knitr de 1.38 vers 1.39
- magrittr de 2.0.2 vers 2.0.3
- parrallelly de 1.30.0 vers 1.31.1
- ps de 1.6.0 vers 1.7.0
- RColorBrewer de 1.1-2 vers 1.1-3
- RcppEigen de 0.3.3.9.1 vers 0.3.3.9.2
- readxl de 1.3.1 vers 1.4.0
- rmarkdown de 2.13 vers 2.14
- rprojroot de 2.0.2 vers 2.0.3
- RSQLite de 2.2.11 vers 2.2.13
- scales de 1.1.1 vers 1.2.0
- testthat de 3.1.2 vers 3.1.4
- tibble de 3.1.6 vers 3.1.7
- tinytex de 0.37 vers 0.38
- tzdb de 0.2.0 vers 0.3.0
- uuid de 1.0-4 vers 1.1-0
- vctrs de 0.3.8 vers 0.4.1
- Bibliothèques Java mises à niveau :
- com.fasterxml.jackson.core.jackson-annotations de 2.13.0 à 2.13.3
- com.fasterxml.jackson.core.jackson-core de 2.13.0 à 2.13.3
- com.fasterxml.jackson.core.jackson-databind de 2.13.0 à 2.13.3
- com.fasterxml.jackson.dataformat.jackson-dataformat-cbor de 2.13.0 à 2.13.3
- com.fasterxml.jackson.datatype.jackson-datatype-joda de 2.13.0 à 2.13.3
- com.fasterxml.jackson.module.jackson-module-paranamer de 2.13.0 à 2.13.3
- com.fasterxml.jackson.module.jackson-module-scala_2.12 de 2.13.0 à 2.13.3
- com.google.crypto.tink.tink de 1.6.0 vers 1.6.1
- com.ning.compress-lzf de 1.0.3 vers 1.1
- dev.ludovic.netlib.arpack de 2.2.0 à 2.2.1
- dev.ludovic.netlib.blas de 2.2.0 à 2.2.1
- dev.ludovic.netlib.lapack de 2.2.0 à 2.2.1
- io.netty.netty-all de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-buffer de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-codec de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-common de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-handler de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-resolver de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-tcnative-classes de 2.0.46.Final vers 2.0.48.Final
- io.netty.netty-transport de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-transport-classes-epoll de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-transport-classes-kqueue de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-transport-native-epoll-linux-aarch_64 de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-transport-native-epoll-linux-x86_64 de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-transport-native-kqueue-osx-aarch_64 de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-transport-native-kqueue-osx-x86_64 de 4.1.73.Final vers 4.1.74.Final
- io.netty.netty-transport-native-unix-common de 4.1.73.Final vers 4.1.74.Final
- joda-time.joda-time de 2.10.12 à 2.10.13
- org.apache.commons.commons-math3 de 3.4.1 à 3.6.1
- org.apache.httpcomponents.httpcore de 4.4.12 à 4.4.14
- org.apache.orc.orc-core de 1.7.3 vers 1.7.4
- org.apache.orc.orc-mapreduce de 1.7.3 vers 1.7.4
- org.apache.orc.orc-shims de 1.7.3 vers 1.7.4
- org.eclipse.jetty.jetty-client de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-continuation de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-http de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-io de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-jndi de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-plus de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-proxy de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-security de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-server de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-servlet de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-servlets de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-util de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-util-ajax de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-webapp de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.jetty-xml de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-api de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-client de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-client de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-server de 9.4.43.v20210629 à 9.4.46.v20220331
- org.eclipse.jetty.websocket.websocket-servlet de 9.4.43.v20210629 à 9.4.46.v20220331
- org.mariadb.jdbc.mariadb-java-client de 2.2.5 à 2.7.4
- org.postgresql.postgresql de 42.2.19 à 42.3.3
- org.roaringbitmap.RoaringBitmap de 0.9.23 vers 0.9.25
- org.roaringbitmap.shims de 0.9.23 vers 0.9.25
- org.rocksdb.rocksdbjni de 6.20.3 vers 6.24.2
- org.slf4j.jcl-over-slf4j de1.7.32 à 1.7.36
- org.slf4j.jul-to-slf4j de 1.7.32 à 1.7.36
- org.slf4j.slf4j-api de 1.7.30 vers 1.7.36
Apache Spark
Databricks Runtime 11.0 comprend Apache Spark 3.3.0.
Dans cette section :
Spark SQL et Core
Mode ANSI
- Nouvelles règles de syntaxe de cast explicite (SPARK-33354)
- Elt () doit retourner la valeur null si l’index est null en mode ANSI (SPARK-38304)
- Retourne éventuellement un résultat null si l’élément n’existe pas dans le tableau/le mappage (SPARK-37750)
- Autorisation du cast entre le type numérique et le type timestamp (SPARK-37714)
- Désactivation de mots clés réservés ANSI par défaut (SPARK-37724)
- Utilisation de règles d’affectation de magasin pour résoudre l’appel de fonction (SPARK-37438)
- Ajout d’une configuration pour autoriser le cast entre les types DateHeure et Numérique (SPARK-37179)
- Ajout d’une configuration pour appliquer éventuellement des mots clés réservés ANSI (SPARK-37133)
- Interdiction des opérations binaires entre le littéral d’intervalle et le littéral de chaîne (SPARK-36508)
Améliorations de la fonctionnalité
- Prise en charge des types ANSI SQL INTERVAL (SPARK-27790)
- Améliorations apportées aux messages d’erreur (SPARK-38781)
- Prise en charge des métadonnées de fichiers masquées pour Spark SQL (SPARK-37273)
- Prise en charge du littéral de chaîne brute (SPARK-36371)
- Classe d’assistance pour Dataset.observe() avec traitement par lots (SPARK-34806)
- Prise en charge de la spécification du numéro de partition initial pour le rééquilibrage (SPARK-38410)
- Prise en charge du mode cascade pour l’API
dropNamespace
(SPARK-37929) - Autorisation de l’attribution de magasin et du cast implicite entre les types DateHeure (SPARK-37707)
- Collect, first et last doivent être des fonctions d’agrégation déterministes (SPARK-32940)
- Ajout de ExpressionBuilder pour les fonctions avec surcharges complexes (SPARK-37164)
- Ajout de la prise en charge des tableaux à unionByName (SPARK-36546)
- Ajout de df.withMetadata : sucre syntaxique pour mettre à jour les métadonnées d’un dataframe (SPARK-36642)
- Prise en charge du littéral de chaîne brute (SPARK-36371)
- Utilisation de CAST dans l’analyse des dates/horodatages avec le modèle par défaut (SPARK-36418)
- Prise en charge de la classe value dans le schéma imbriqué pour le jeu de données (SPARK-20384)
- Ajout de la prise en charge de la syntaxe AS OF (SPARK-37219)
- Ajout de REPEATABLE dans TABLESAMPLE pour spécifier le seed (SPARK-37165)
- Ajout de la syntaxe ansi
set catalog xxx
pour changer le catalogue actuel (SPARK-36841) - Prise en charge de ILIKE (ALL | ANY | SOME) – LIKE sans respect de la casse (SPARK-36674, SPARK-36736, SPARK-36778)
- Prise en charge de l’étape de requête avec affichage des statistiques d’exécution en mode explication mise en forme (SPARK-38322)
- Ajout des métriques de taille de déversement pour la jointure par tri-fusion (SPARK-37726)
- Mise à jour de la syntaxe SQL de SHOW FUNCTIONS (SPARK-37777)
- Prise en charge de la syntaxe DROP COLUMN [IF EXISTS] (SPARK-38939)
- Nouvelles fonctions intégrées et leurs extensions (SPARK-38783)
- Datetime
- Ajout de la fonction TIMESTAMPADD() (SPARK-38195)
- Ajout de la fonction TIMESTAMPDIFF() (SPARK-38284)
- Ajout de l’alias
DATEDIFF()
pourTIMESTAMPDIFF()
(SPARK-38389) - Ajout de l’alias
DATEADD()
pourTIMESTAMPADD()
(SPARK-38332) - Ajoute la fonction
convert\_timezone()
(SPARK-37552, SPARK-37568) - Exposition de l’expression make_date dans functions.scala (SPARK-36554)
- Fonctions AES (SPARK-12567)
- Ajout des fonctions intégrées aes_encrypt et aes_decrypt (SPARK-12567)
- Prise en charge du mode GCM par
aes\_encrypt()
/aes\_decrypt()
(SPARK-37591) - Définition de
GCM
comme mode par défaut dansaes\_encrypt()
/aes\_decrypt()
(SPARK-37666) - Ajout des arguments
mode
etpadding
àaes\_encrypt()
/aes\_decrypt()
(SPARK-37586)
- Fonction d’agrégation ANSI (SPARK-37671)
- Prise en charge de la fonction d’agrégation ANSI : regr_count (SPARK-37613)
- Prise en charge de la fonction d’agrégation ANSI : regr_avgx ®r_avgy (SPARK-37614)
- Prise en charge de la fonction d’agrégation ANSI : percentile_cont (SPARK-37676, SPARK-38219)
- Prise en charge de la fonction d’agrégation ANSI : percentile_disc (SPARK-37691)
- Prise en charge de la fonction d’agrégation ANSI : regr_count (SPARK-37613)
- Prise en charge de la fonction d’agrégation ANSI : array_count (SPARK-27974)
- Prise en charge de la fonction d’agrégation ANSI : regr_r2 (SPARK-37641)
- Nouvelle fonction SQL : try_avg (SPARK-38589)
- Collections
- Introduction de la fonction SQL ARRAY_SIZE (SPARK-38345)
- Nouvelle fonction SQL : map_contains_key (SPARK-37584)
- Nouvelle fonction SQL : try_element_at (SPARK-37533)
- Nouvelle fonction SQL : try_sum (SPARK-38548)
- Format
- Ajout d’une nouvelle fonction SQL to_binary (SPARK-37507, SPARK-38796)
- Nouvelle fonction SQL : try_to_binary (SPARK-38590, SPARK-38796)
- Fonctions de mise en forme des types de données :
to\_number
(SPARK-28137)
- String/binaire
- Ajout de la fonction de chaîne CONTAINS() (SPARK-37508)
- Ajout des fonctions de chaîne
startswith()
etendswith()
(SPARK-37520) - Ajout des fonctions lpad et rpad pour les chaînes binaires (SPARK-37047)
- Prise en charge de la fonction split_part (SPARK-38063)
- Ajout d’un paramètre d’échelle aux fonctions floor et ceil (SPARK-37475)
- Nouvelles fonctions SQL : try_subtract et try_multiply (SPARK-38164)
- Implémente la fonction d’agrégation histogram_numeric qui prend en charge l’agrégation partielle (SPARK-16280)
- Ajout de max_by/min_by à sql.functions (SPARK-36963)
- Ajout de nouvelles fonctions SQL intégrées : SEC et CSC (SPARK-36683)
- array_intersect gère les Double.NaN et Float.NaN en double (SPARK-36754)
- Ajout de cot en tant que fonctions Scala et Python (SPARK-36660)
- Datetime
Une amélioration du niveau de performance
- Génération de code à l’échelle globale
- Ajout de code-gen pour sort aggregate sans regroupement de clés (SPARK-37564)
- Ajout de code-gen pour la jointure externe entière par tri-fusion (SPARK-35352)
- Ajout de code-gen pour une jointure externe entière avec hachage aléatoire (SPARK-32567)
- Ajout de code-gen pour la jointure d’existence par tri-fusion (SPARK-37316)
- Pushdown (filtres)
- Pushdown de filtres via RebalancePartitions (SPARK-37828)
- Pushdown de filtre des colonnes booléennes (SPARK-36644)
- Abaissement de la limite 1 pour le côté droit de la semi/anti-jointure gauche si la condition de jointure est vide (SPARK-37917)
- Traduction de fonctions d’agrégation standard supplémentaires pour le pushdown (SPARK-37527)
- Prise en charge de PropagateEmptyRelation par agrégation/union (SPARK-35442)
- Filtrage du runtime au niveau de la ligne (SPARK-32268)
- Prise en charge de la semi-jointure gauche dans les filtres du runtime au niveau de la ligne (SPARK-38565)
- Prise en charge du pushdown de prédicats et du nettoyage de colonnes pour les CTE dédupliqués (SPARK-37670)
- Vectorisation
- Implémentation d’un ConstantColumnVector et amélioration des performances des métadonnées de fichiers masquées (SPARK-37896)
- Activation de la lecture vectorisée pour VectorizedPlainValuesReader. readBooleans (SPARK-35867)
- Combinaison/suppression/remplacement de nœuds
- Combinaison des unions s’il existe un projet entre elles (SPARK-37915)
- Combinaison en un seul cast si nous pouvons en toute sécurité faire de deux casts un upcast (SPARK-37922)
- Suppression de Sort s’il s’agit de l’enfant de RepartitionByExpression (SPARK-36703)
- Suppression de la jointure externe si elle n’a que DISTINCT du côté diffusé en continu avec alias (SPARK-37292)
- Remplacement du hachage par sort aggregate si l’enfant est déjà trié (SPARK-37455)
- Réduction de projets uniquement si nous ne dupliquons pas des expressions coûteuses (SPARK-36718)
- Suppression des alias redondants après RewritePredicateSubquery (SPARK-36280)
- Fusion de sous-requêtes scalaires non corrélées (SPARK-34079)
- Partitionnement
- Nettoyage de partition dynamique non ajouté s’il existe un nettoyage de partition statique (SPARK-38148)
- Amélioration de RebalancePartitions dans les règles de l’optimiseur (SPARK-37904)
- Ajout d’un facteur de petite partition pour RebalancePartitions (SPARK-37357)
- Join
- Ajustement de la logique pour rétrograder la jointure de hachage de diffusion dans DynamicJoinSelection (SPARK-37753)
- Clés de jointure en double ignorées lors de la création d’une relation pour une SEMI/ANTI-jointure de hachage aléatoire (SPARK-36794)
- Prise en charge de l’optimisation de la jointure asymétrique même si elle induit une redistribution supplémentaire (SPARK-33832)
- AQE
- La prise en charge élimine les limites dans l’optimiseur AQE (SPARK-36424)
- Optimisation d’un plan de lignes dans l’optimiseur normal et AQE (SPARK-38162)
- Aggregate.groupOnly prend en charge les expressions pliables (SPARK-38489)
- ByteArrayMethods arrayEquals doit passer rapidement la vérification de l’alignement avec une plateforme non alignée (SPARK-37796)
- Ajout du nettoyage de modèle d’arborescence à la règle CTESubstitution (SPARK-37379)
- Ajout de simplifications supplémentaires à l’opérateur Not (SPARK-36665)
- Prise en charge de BooleanType dans UnwrapCastInBinaryComparison (SPARK-36607)
- Coalesce supprime toutes les expressions après la première expression non nullable (SPARK-36359)
- Ajout d’un visiteur de plan logique pour propager les attributs distincts (SPARK-36194)
Améliorations des connecteurs intégrées
- Général
- Sérialisation indulgente de la date et heure à partir de la source de données (SPARK-38437)
- Emplacement de la table considéré comme étant absolu quand la première lettre de son chemin est une barre oblique dans la création/modification de table(SPARK-38236)
- Suppression des zéros de début dans la partition vide de type nombre statique (SPARK-35561)
- Prise en charge de
ignoreCorruptFiles
etignoreMissingFiles
dans les options de source de données (SPARK-38767) - Ajout de la commande
SHOW CATALOGS
(SPARK-35973)
- Parquet
- Activation de la mise en correspondance des noms de colonnes de schéma par ID de champ (SPARK-38094)
- Suppression de la vérification du nom de champ lors de la lecture/écriture de données au format Parquet (SPARK-27442)
- Prise en charge des valeurs booléennes en lecture vectorisée avec utilisation de l'encodage RLE avec Parquet DataPage V2 (SPARK-37864)
- Prise en charge l’encodage de page de données Parquet v2 (DELTA_BINARY_PACKED) pour le chemin vectorisé (SPARK-36879)
- Rebasage des horodatages dans le fuseau horaire de session enregistré dans les métadonnées Parquet/Avro (SPARK-37705)
- Pushdown du regroupement par colonne de partition pour l’agrégation (SPARK-36646)
- Agrégation du pushdown (Min/Max/Count) pour Parquet (SPARK-36645)
- Parquet : activation de la mise en correspondance des colonnes de schéma par ID de champ (SPARK-38094)
- Réduction de la taille de page par défaut selon LONG_ARRAY_OFFSET si G1GC et ON_HEAP sont utilisés (SPARK-37593)
- Implémentation d’encodages DELTA_BYTE_ARRAY et de DELTA_LENGTH_BYTE_ARRAY vectorisés pour la prise en charge de Parquet V2 (SPARK-37974)
- Prise en charge des types complexes pour le lecteur vectorisé Parquet (SPARK-34863)
- ORC
- Suppression de la vérification du nom de champ lors de la lecture/écriture de données existantes dans Orc (SPARK-37965)
- Agrégation du pushdown pour ORC (SPARK-34960)
- Prise en charge de la lecture et de l’écriture d’intervalles ANSI depuis/vers les sources de données ORC (SPARK-36931)
- Prise en charge les noms de colonnes composés uniquement de chiffres dans les sources de données ORC (SPARK-36663)
- JSON
- Respect de allowNonNumericNumbers lors de l’analyse de valeurs NaN et d’infini entre guillemets dans le lecteur JSON (SPARK-38060)
- Utilisation de CAST pour la date et l’heure dans CSV/JSON par défaut (SPARK-36536)
- Alignement du message d’erreur pour les types de clés non pris en charge dans MapType dans le lecteur Json (SPARK-35320)
- CSV
- Correctif faisant référence à la colonne d’enregistrements endommagée du CSV (SPARK-38534)
- Les valeurs null doivent être enregistrées comme n’étant rien et non des chaînes vides entre guillemets “” par défaut (SPARK-37575)
- JDBC
- Ajouter de l’instruction IMMEDIATE à l’implémentation de la troncature du dialecte DB2 (SPARK-30062)
- Hive
- Prise en charge de l’écriture de la table compartimentée Hive (formats de fichiers Hive avec hachage Hive) (SPARK-32712)
- Utilisation d’expressions pour filtrer les partitions Hive côté client (SPARK-35437)
- Prise en charge du nettoyage de partition dynamique pour HiveTableScanExec (SPARK-36876)
- InsertIntoHiveDir doit utiliser la source de données si elle est convertible (SPARK-38215)
- Prise en charge de l’écriture de la table compartimentée Hive (format Parquet/ORC avec hachage Hive) (SPARK-32709)
Désactivation de nœud
- FallbackStorage ne doit pas tenter de résoudre un nom d’hôte « distant » arbitraire (SPARK-38062)
- ExecutorMonitor.onExecutorRemoved doit traiter ExecutorDecommission comme étant terminé (SPARK-38023)
Autres changements notables
- Ajout d’un verrouillage affiné à BlockInfoManager (SPARK-37356)
- Prise en charge du mappage des types de ressources Spark gpu/fpga pour un type de ressource YARN p(SPARK-37208)
- Rapport d’une taille de bloc de lecture aléatoire précise si elle est asymétrique (SPARK-36967)
- Prise en charge de la journalisation Netty au niveau de la couche réseau (SPARK-36719)
Structured Streaming
Fonctionnalités majeures
- Introduction de Trigger.AvailableNow pour l’exécution de requêtes de streaming comme Trigger.Once en plusieurs traitements (SPARK-36533)
Autres changements notables
- Utilisation de StatefulOpClusteredDistribution pour les opérateurs avec état avec respect de la compatibilité descendante (SPARK-38204)
- Correction du délai d’expiration de flatMapGroupsWithState dans le traitement avec des données pour la clé (SPARK-38320)
- Correction du problème d’exactitude sur la jointure externe flux-flux avec le fournisseur de magasin d’état RocksDB (SPARK-38684)
- Prise en charge de Trigger.AvailableNow au niveau de la source de données Kafka (SPARK-36649)
- Optimisation du chemin d’écriture dans le fournisseur de magasin d’état RocksDB (SPARK-37224)
- Introduction d’une nouvelle source de données pour fournir un ensemble cohérent de lignes par microtraitement (SPARK-37062)
- Utilisation de HashClusteredDistribution pour les opérateurs avec état avec respect de la compatibilité descendante (SPARK-38204)
PySpark
API Pandas sur Spark
Principales améliorations
- Optimisation de l’index de « séquence distribuée » par défaut (SPARK-36559, SPARK-36338)
- Prise en charge de la spécification du type d’index et du nom dans l’API Pandas sur Spark (SPARK-36709)
- Affichage du type d’index par défaut dans les plans SQL pour l’API Pandas sur park (SPARK-38654)
Fonctionnalités majeures
- Implémentation de ps.merge_asof natif SparkSQL (SPARK-36813)
- Prise en charge de TimedeltaIndex dans l’API Pandas sur Spark (SPARK-37525)
- Prise en charge de timedelta de Python (SPARK-37275, SPARK-37510)
- Implémentation de fonctions dans CategoricalAccessor/CategoricalIndex (SPARK-36185)
- Utilisation du formateur de chaîne standard de Python pour l’API SQL dans l’API Pandas sur Spark (SPARK-37436)
- Prise en charge des opérations de base de timedelta Series/Index (SPARK-37510)
- Prise en charge de ps.MultiIndex.dtypes (SPARK-36930)
- Implémentation de Index.map (SPARK-36469)
- Implémentation de Series.xor et Series.rxor (SPARK-36653)
- Implémentation de l’opérateur unaire
invert
de ps.Series/Index (SPARK-36003) - Implémentation de DataFrame.cov (SPARK-36396)
- Prise en charge de str et timestamp pour (Series|DataFrame).describe() (SPARK-37657)
- Prise en charge du paramètre lambda
column
deDataFrame.rename
(SPARK-38763)
Autres changements notables
Changements cassants
- Suppression des références à la prise en charge de Python 3.6 dans la documentation et python/docs (SPARK-36977)
- Suppression de l’astuce namedtuple en remplaçant le pickle intégré par cloudpickle (SPARK-32079)
- Basculement de la version minimale de Pandas vers la version 1.0.5 (SPARK-37465)
- Principales améliorations
- Mise à disposition d’un profileur pour les fonctions définies par l’utilisateur Python/Pandas (SPARK-37443)
- Utilisation du formateur de chaîne standard de Python pour l’API SQL dans PySpark (SPARK-37516)
- Exposition de l’état et de la classe d’erreur SQL dans les exceptions PySpark (SPARK-36953)
- Tentative de capture de faulthanlder quand un worker Python se bloque (SPARK-36062)
Fonctionnalités majeures
- Implémentation de DataFrame.mapInArrow en Python (SPARK-37228)
- Utilisation du formateur de chaîne standard de Python pour l’API SQL dans PySpark (SPARK-37516)
- Ajout de l’API pyspark df.withMetadata (SPARK-36642)
- Prise en charge de timedelta de Python (SPARK-37275)
- Exposition de tableExists dans pyspark.sql.catalog (SPARK-36176)
- Exposition de databaseExists dans pyspark.sql.catalog (SPARK-36207)
- Exposition de functionExists dans pyspark.sql.catalog (SPARK-36258)
- Ajout de Dataframe.observation à PySpark (SPARK-36263)
- Ajout de max_by/min_by API à PySpark (SPARK-36972)
- Prise en charge de l’inférence du dict imbriqué en tant que struct lors de la création d’un DataFrame (SPARK-35929)
- Ajouter des API bit/octet_length à Scala, Python et R (SPARK-36751)
- Prise en charge de l’API ILIKE sur Python (SPARK-36882)
- Ajout de la méthode isEmpty pour l’API DataFrame Python (SPARK-37207)
- Ajout de la prise en charge de l’ajout de plusieurs colonnes (SPARK-35173)
- Ajout de SparkContext.addArchive dans PySpark (SPARK-38278)
- Ajout de la capacité d’évaluation du type sql par reprs (SPARK-18621)
- Indicateurs de type inline pour fpm.py en python/pyspark/mllib (SPARK-37396)
- Implémentation du paramètre
dropna
deSeriesGroupBy.value_counts
(SPARK-38837)
MLLIB
Fonctionnalités majeures
- Ajout du paramètre distanceMeasure à trainKMeansModel (SPARK-37118)
- Exposition de LogisticRegression.setInitialModel, comme KMeans et al do (SPARK-36481)
- Prise en charge de CrossValidatorModel pour obtenir l’écart type des métriques pour chaque paramMap (SPARK-36425)
Principales améliorations
- Optimisation de certains treeAggregates dans MLlib en retardant les allocations (SPARK-35848)
- Réécriture de _shared_params_code_gen.py en indicateurs de type inline pour ml/param/shared.py (SPARK-37419)
Autres changements notables
- Mise à jour vers breeze 1.2 (SPARK-35310)
SparkR
- Migration des documents SparkR vers pkgdown (SPARK-37474)
- Exposition de l’expression make_date en R (SPARK-37108)
- Ajout de l’API max_by/min_by à SparkR (SPARK-36976)
- Prise en charge de l’API ILIKE sur R (SPARK-36899)
- Ajout de sec et csc en tant que fonctions R (SPARK-36824)
- Ajouter des API bit/octet_length à Scala, Python et R (SPARK-36751)
- Ajout de cot en tant que fonctions R (SPARK-36688)
UI
- Résumé des métriques de spéculation au niveau de la phase (SPARK-36038)
- Temps de bloc de lecture aléatoire unifié pour mélanger le temps d’attente de récupération de lecture dans StagePage (SPARK-37469)
- Ajout de configurations modifiées pour l’exécution SQL dans l’interface utilisateur (SPARK-34735)
- Ajout à ThriftServer la capacité de reconnaître spark.sql.redaction.string.regex (SPARK-36400)
- Attachement et démarrage du gestionnaire après le démarrage de l’application dans l’interface utilisateur (SPARK-36237)
- Ajout de durée de commit au nœud de graphe de l’onglet SQL (SPARK-34399)
- Prise en charge du back-end RocksDB dans le serveur d’historique Spark (SPARK-37680)
- Affichage des options de l’API Pandas sur Spark dans l’interface utilisateur (SPARK-38656)
- « SQL » renommé « SQL / DataFrame » dans la page de l’interface utilisateur SQL (SPARK-38657)
Build
- Migration de log4j 1 vers log4j 2 (SPARK-37814)
- Mise à niveau de log4j2 vers 2.17.2 (SPARK-38544)
- Mise à niveau vers Py4J 0.10.9.5 (SPARK-38563)
- Mise à jour d’ORC vers 1.7.4 (SPARK-38866)
- Mise à jour de datatables vers 1.10.25 (SPARK-38924)
Mises à jour de maintenance
Consultez Databricks Runtime 11.0 (EoS).
Environnement du système
- Système d’exploitation : Ubuntu 20.04.4 LTS
- Java : Zulu 8.56.0.21-CA-linux64
- Scala : 2.12.14
- Python : 3.9.5
- R : 4.1.3
- Delta Lake : 1.2.1
Bibliothèques Python installées
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | argon2-cffi | 20.1.0 | async-generator | 1,10 |
attrs | 21.2.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.1.1 |
bleach | 4.0.0 | boto3 | 1.21.18 | botocore | 1.24.18 |
certifi | 2021.10.8 | cffi | 1.14.6 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | cycler | 0.10.0 | Cython | 0.29.24 |
dbus-python | 1.2.16 | debugpy | 1.4.1 | decorator | 5.1.0 |
defusedxml | 0.7.1 | distlib | 0.3.4 | distro-info | 0.23ubuntu1 |
entrypoints | 0.3 | facets-overview | 1.0.0 | filelock | 3.6.0 |
idna | 3.2 | ipykernel | 6.12.1 | ipython | 7.32.0 |
ipython-genutils | 0.2.0 | ipywidgets | 7.7.0 | jedi | 0.18.0 |
Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.0.1 |
jsonschema | 3.2.0 | jupyter-client | 6.1.12 | jupyter-core | 4.8.1 |
jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 |
MarkupSafe | 2.0.1 | matplotlib | 3.4.3 | matplotlib-inline | 0.1.2 |
mistune | 0.8.4 | nbclient | 0.5.3 | nbconvert | 6.1.0 |
nbformat | 5.1.3 | nest-asyncio | 1.5.1 | notebook | 6.4.5 |
numpy | 1.20.3 | empaquetage | 21.0 | pandas | 1.3.4 |
pandocfilters | 1.4.3 | parso | 0.8.2 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Pillow | 8.4.0 |
pip | 21.2.4 | platformdirs | 2.5.2 | plotly | 5.6.0 |
prometheus-client | 0.11.0 | prompt-toolkit | 3.0.20 | protobuf | 3.20.1 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pyarrow | 7.0.0 | pycparser | 2.20 | Pygments | 2.10.0 |
PyGObject | 3.36.0 | pyodbc | 4.0.31 | pyparsing | 3.0.4 |
pyrsistent | 0.18.0 | python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.2 |
pytz | 2021.3 | pyzmq | 22.2.1 | requêtes | 2.26.0 |
requests-unixsocket | 0.2.0 | s3transfer | 0.5.2 | scikit-learn | 0.24.2 |
scipy | 1.7.1 | seaborn | 0.11.2 | Send2Trash | 1.8.0 |
setuptools | 58.0.4 | six | 1.16.0 | ssh-import-id | 5.10 |
statsmodels | 0.12.2 | tenacity | 8.0.1 | terminado | 0.9.4 |
testpath | 0.5.0 | threadpoolctl | 2.2.0 | tornado | 6.1 |
traitlets | 5.1.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.7 |
virtualenv | 20.8.0 | wcwidth | 0.2.5 | webencodings | 0.5.1 |
wheel | 0.37.0 | widgetsnbextension | 3.6.0 |
Bibliothèques R installées
Les bibliothèques R sont installées à partir de l’instantané Microsoft CRAN du 06/05/2022.
Bibliothèque | Version | Bibliothèque | Version | Bibliothèque | Version |
---|---|---|---|---|---|
askpass | 1.1 | assertthat | 0.2.1 | backports | 1.4.1 |
base | 4.1.3 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | objet BLOB | 1.2.3 | boot | 1.3-28 |
brew | 1.0-7 | brio | 1.1.3 | broom | 0.8.0 |
bslib | 0.3.1 | cachem | 1.0.6 | callr | 3.7.0 |
caret | 6.0-92 | cellranger | 1.1.0 | chron | 2.3-56 |
class | 7.3-20 | cli | 3.3.0 | clipr | 0.8.0 |
cluster | 2.1.3 | codetools | 0.2-18 | colorspace | 2.0-3 |
commonmark | 1.8.0 | compiler | 4.1.3 | config | 0.3.1 |
cpp11 | 0.4.2 | crayon | 1.5.1 | credentials | 1.3.2 |
curl | 4.3.2 | data.table | 1.14.2 | jeux de données | 4.1.3 |
DBI | 1.1.2 | dbplyr | 2.1.1 | desc | 1.4.1 |
devtools | 2.4.3 | diffobj | 0.3.5 | digest | 0.6.29 |
dplyr | 1.0.9 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
ellipsis | 0.3.2 | evaluate | 0.15 | fansi | 1.0.3 |
farver | 2.1.0 | fastmap | 1.1.0 | fontawesome | 0.2.2 |
forcats | 0.5.1 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.25.0 |
future.apply | 1.9.0 | gargle | 1.2.0 | generics | 0.1.2 |
gert | 1.6.0 | ggplot2 | 3.3.6 | gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4-1-4 | globals | 0.14.0 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
gower | 1.0.0 | graphics | 4.1.3 | grDevices | 4.1.3 |
grid | 4.1.3 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.0 | hardhat | 0.2.0 | haven | 2.5.0 |
highr | 0.9 | hms | 1.1.1 | htmltools | 0.5.2 |
htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.3 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-12 |
isoband | 0.2.5 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.0 | KernSmooth | 2.23-20 | knitr | 1.39 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.6.10 | cycle de vie | 1.0.1 | listenv | 0.8.0 |
lubridate | 1.8.0 | magrittr | 2.0.3 | markdown | 1.1 |
MASS | 7.3-56 | Matrice | 1.4-1 | memoise | 2.0.1 |
methods | 4.1.3 | mgcv | 1.8-40 | mime | 0,12 |
ModelMetrics | 1.2.2.2 | modelr | 0.1.8 | munsell | 0.5.0 |
nlme | 3.1-157 | nnet | 7.3-17 | numDeriv | 2016.8-1.1 |
openssl | 2.0.0 | parallel | 4.1.3 | parallelly | 1.31.1 |
pillar | 1.7.0 | pkgbuild | 1.3.1 | pkgconfig | 2.0.3 |
pkgload | 1.2.4 | plogr | 0.2.0 | plyr | 1.8.7 |
praise | 1.0.0 | prettyunits | 1.1.1 | pROC | 1.18.0 |
processx | 3.5.3 | prodlim | 2019.11.13 | progress | 1.2.2 |
progressr | 0.10.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-26 | ps | 1.7.0 | purrr | 0.3.4 |
r2d3 | 0.2.6 | R6 | 2.5.1 | randomForest | 4.7-1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.8.3 | RcppEigen | 0.3.3.9.2 | readr | 2.1.2 |
readxl | 1.4.0 | recipes | 0.2.0 | rematch | 1.0.1 |
rematch2 | 2.1.2 | remotes | 2.4.2 | reprex | 2.0.1 |
reshape2 | 1.4.4 | rlang | 1.0.2 | rmarkdown | 2.14 |
RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1.16 |
rprojroot | 2.0.3 | Rserve | 1.8-10 | RSQLite | 2.2.13 |
rstudioapi | 0,13 | rversions | 2.1.1 | rvest | 1.0.2 |
sass | 0.4.1 | scales | 1.2.0 | selectr | 0.4-2 |
sessioninfo | 1.2.2 | shape | 1.4.6 | shiny | 1.7.1 |
sourcetools | 0.1.7 | sparklyr | 1.7.5 | SparkR | 3.3.0 |
spatial | 7.3-11 | splines | 4.1.3 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | stats | 4.1.3 | stats4 | 4.1.3 |
stringi | 1.7.6 | stringr | 1.4.0 | survival | 3.2-13 |
sys | 3.4 | tcltk | 4.1.3 | testthat | 3.1.4 |
tibble | 3.1.7 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
tidyverse | 1.3.1 | timeDate | 3043.102 | tinytex | 0.38 |
tools | 4.1.3 | tzdb | 0.3.0 | usethis | 2.1.5 |
utf8 | 1.2.2 | utils | 4.1.3 | uuid | 1.1-0 |
vctrs | 0.4.1 | viridisLite | 0.4.0 | vroom | 1.5.7 |
waldo | 0.4.0 | whisker | 0,4 | withr | 2.5.0 |
xfun | 0.30 | xml2 | 1.3.3 | xopen | 1.0.0 |
xtable | 1.8-4 | yaml | 2.3.5 | zip | 2.2.0 |
Bibliothèques Java et Scala installées (version de cluster Scala 2.12)
ID de groupe | ID d’artefact | Version |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | flux | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.3 |
com.fasterxml.jackson.core | jackson-core | 2.13.3 |
com.fasterxml.jackson.core | jackson-databind | 2.13.3 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.3 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.3 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.3 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.4.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | collecteur | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.14 |
net.snowflake | spark-snowflake_2.12 | 2.10.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.9 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.2-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.2 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.17.2 |
org.apache.logging.log4j | log4j-api | 2.17.2 |
org.apache.logging.log4j | log4j-core | 2.17.2 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.17.2 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.4 |
org.apache.orc | orc-mapreduce | 1.7.4 |
org.apache.orc | orc-shims | 1.7.4 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-encoding | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0004 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0004 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,34 |
org.glassfish.jersey.core | jersey-client | 2,34 |
org.glassfish.jersey.core | jersey-common | 2,34 |
org.glassfish.jersey.core | jersey-server | 2,34 |
org.glassfish.jersey.inject | jersey-hk2 | 2,34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |