Databricks Runtime 13.1 (EoS)
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.
Le seguenti note sulla versione forniscono informazioni su Databricks Runtime 13.1, con tecnologia Apache Spark 3.4.0.
Databricks ha rilasciato questa versione nel maggio 2023.
Miglioramenti e nuove funzionalità
- Supporto del cluster per JDK 17 (anteprima pubblica)
- Aggiungere, modificare o eliminare dati nelle tabelle di streaming
- Leggere Kafka con SQL
- Nuove funzioni predefinite SQL
- Supporto del catalogo Unity per le librerie Python con ambito cluster
- Abilitazione predefinita espansa per le scritture ottimizzate nel catalogo Unity
- Supporto avanzato per gli operatori con stato nei carichi di lavoro Structured Streaming
- Il clone Delta per il catalogo Unity è disponibile in anteprima pubblica
- Supporto Pub/Sub per Structured Streaming
- Escludere duplicati all'interno di filigrane in Structured Streaming
- Supporto espanso per le conversioni Delta da tabelle Iceberg con colonne di partizione troncate
- Trasmettere le modifiche dello schema con il mapping delle colonne in Delta Lake
- Rimuovere la VERSIONE INIZIALE
- Nuove espressioni H3 disponibili con Python
Supporto del cluster per JDK 17 (anteprima pubblica)
Databricks offre ora il supporto del cluster per il kit di sviluppo di Java (JDK) 17. Vedere Databricks SDK per Java.
Aggiungere, modificare o eliminare dati nelle tabelle di streaming
È ora possibile usare le istruzioni DML per modificare le tabelle di streaming pubblicate nel catalogo Unity da pipeline di tabelle live Delta. Vedere Aggiungere, modificare o eliminare dati in una tabella di streaming e Aggiungere, modificare o eliminare dati in una tabella di streaming di destinazione. È anche possibile usare istruzioni DML per modificare le tabelle di streaming create in Databricks SQL.
Leggere Kafka con SQL
È ora possibile usare la funzione SQL read_kafka
per la lettura dei dati Kafka. Lo streaming con SQL è supportato solo in tabelle Live Delta o con tabelle di streaming in Databricks SQL. Vedere funzione con valori di tabella read_kafka.
Nuove funzioni predefinite SQL
Sono state aggiunte le funzioni seguenti:
-
array_prepend(array, elem) Restituisce
array
preceduto daelem
. -
try_aes_decrypt(expr, key [, mode [, padding]]) Decrittografa un file binario generato usando la crittografia AES e restituisce
NULL
se si verifica un errore. - sql_keywords() Restituisce una tabella di parole chiave SQL di Azure Databricks.
Supporto del catalogo Unity per le librerie Python con ambito cluster
Il catalogo Unity presenta alcune limitazioni sull'utilizzo della libreria. A partire dalla versione 13.1 di Databricks Runtime sono supportate librerie Python con ambito cluster, tra cui wheel file Python caricati come file dell'area di lavoro. Le librerie a cui viene fatto riferimento utilizzando i percorsi file DBFS non sono supportate, sia nella radice DBFS che in un percorso esterno montato in DBFS. Le librerie non Python non sono supportate. Vedere Librerie cluster.
In Databricks Runtime 13.0 e versioni successive le librerie con ambito cluster non sono supportate nei cluster che usano la modalità di accesso condiviso in un'area di lavoro abilitata per catalogo Unity.
Abilitazione predefinita espansa per le scritture ottimizzate nel catalogo unity
Il supporto predefinito per la scrittura ottimizzata per le tabelle Delta registrate nel catalogo Unity è stato espanso in modo da includere istruzioni CTAS
e operazioni INSERT
per le tabelle partizionate. Questo comportamento è allineato alle impostazioni predefinite nei warehouse SQL. Si veda Scritture ottimizzate per Delta Lake in Azure Databricks.
Supporto avanzato per gli operatori con stato nei carichi di lavoro Structured Streaming
È ora possibile concatenare più operatori con stato, vale a dire che è possibile inserire l'output di un'operazione, ad esempio un'aggregazione finestrata a un'altra operazione con stato, ad esempio un join. Vedere Che cos'è lo streaming con stato?.
Il clone Delta per il catalogo Unity è disponibile in anteprima pubblica
È ora possibile usare un clone superficiale per creare nuove tabelle gestite del catalogo Unity a partire da tabelle gestite esistenti nel catalogo Unity. Vedere Clone superficiale per le tabelle del catalogo Unity.
Supporto pub/sub per Structured Streaming
È ora possibile usare un connettore predefinito per sottoscrivere Google Pub/Sub con Structured Streaming. Vedi Iscriviti a Google Pub/Sub.
Escludere duplicati all'interno di filigrane in Structured Streaming
È ora possibile usare dropDuplicatesWithinWatermark
in combinazione con una soglia limite specificata per deduplicare i record in Structured Streaming. Vedere Escludere i duplicati all'interno della filigrana.
Supporto espanso per le conversioni Delta da tabelle Iceberg con colonne di partizione troncate
È ora possibile usare CLONE
e CONVERT TO DELTA
con le tabelle Iceberg con partizioni definite in colonne troncate di tipi int
, long
e string
. Le colonne troncate di tipo decimal
non sono supportate.
Trasmettere le modifiche dello schema con il mapping delle colonne in Delta Lake
È ora possibile fornire un percorso di rilevamento dello schema per abilitare lo streaming da tabelle Delta con mapping di colonne abilitato. Vedere Streaming con mapping di colonne e modifiche dello schema.
Rimuovere la VERSIONE INIZIALE
START VERSION
è ora deprecato per ALTER SHARE
.
Nuove espressioni H3 disponibili con Python
Le espressioni h3_coverash3
e h3_coverash3string
sono disponibili con Python.
Correzioni di bug
Parquet failOnUnknownFields non elimina più automaticamente i dati in caso di tipo non corrispondente
Se un file Parquet è stato letto solo con l'opzione failOnUnknownFields
o con il failOnNewColumns
caricatore automatico nella modalità di evoluzione dello schema, le colonne con tipi di dati diversi ora hanno esito negativo e consigliano l'uso di rescuedDataColumn
. Il caricatore automatico ora legge correttamente e non salva più i tipi Integer, Short o Byte se viene fornito uno di questi tipi di dati. Il file Parquet suggerisce uno degli altri due tipi.
Modifiche di rilievo
Aggiornare sqlite-jdbc alla versione 3.42.0.0 per l'indirizzo CVE-2023-32697
Aggiornare sqlite-jdbc dalla versione 3.8.11.2 alla versione 3.42.0.0. Le API della versione 3.42.0.0 non sono completamente compatibili con la versione 3.8.11.2. Se si usa sqlite-jdbc nel codice, controllare il report di compatibilità sqlite-jdbc per informazioni dettagliate. Se si esegue la migrazione alla versione 13.1 e si usa sqlite, verificare i metodi e il tipo restituito nella versione 3.42.0.0.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- facet-overview dalla versione 1.0.2 alla versione 1.0.3
- filelock da 3.10.7 a 3.12.0
- pyarrow da 7.0.0 a 8.0.0
- tenacia da 8.0.1 a 8.1.0
- Librerie R aggiornate:
- Librerie Java aggiornate:
- com.github.ben-manes.caffeina.caffeina da 2.3.4 a 2.9.3
- io.delta.delta-sharing-spark_2.12 da 0.6.8 a 0.6.4
- net.snowflake.snowflake-jdbc da 3.13.29 a 3.13.22
- org.checkerframework.checker-qual da 3.5.0 a 3.19.0
- org.scalactic.scalactic_2.12 dalla versione 3.0.8 alla versione 3.2.15
- org.scalatest.scalatest_2.12 dalla versione 3.0.8 alla versione 3.2.15
- org.xerial.sqlite-jdbc da 3.8.11.2 a 3.42.0.0
Apache Spark
Databricks Runtime 13.1 include Apache Spark 3.4.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 13.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-42719] [DBRRM-199] [SC-131578] Ripristinare "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166] [SC-130056] [CORE] Ripristina [SC-127830]/
- [SPARK-43331] [SC-130064] [CONNECT] Aggiungere Spark Connect SparkSession.interruptAll
- [SPARK-43332] [SC-130051] [CONNECT] [PYTHON] Rendere possibile estendere ChannelBuilder per SparkConnectClient
- [SPARK-43323] [SC-129966] [SQL] [PYTHON] Correggere DataFrame.toPandas con Arrow abilitato per gestire correttamente le eccezioni
- [SPARK-42940] [SC-129896] [SS] [CONNECT] Migliorare la gestione delle sessioni per le query di streaming
- [SPARK-43032] [SC-125756] [CONNECT] [SS] Aggiungere Gestione query di streaming
- [SPARK-16484] [SC-129975][SQL] Aggiunta del supporto per Datasketches HllSketch
- [SPARK-43260] [SC-129281] [PYTHON] Eseguire la migrazione degli errori del tipo di freccia pandas di Spark SQL nella classe di errore.
- [SPARK-41766] [SC-129964] [CORE] Gestire la richiesta di rimozione delle autorizzazioni inviata prima della registrazione dell'executor
- [SPARK-43307] [SC-129971] [PYTHON] Eseguire la migrazione degli errori del valore PandasUDF nella classe di errore
- [SPARK-43206] [SC-129903] [SS] [CONNECT] L'eccezione StreamingQuery() include l'analisi dello stack
- [SPARK-43311] [SC-129905] [SS] Aggiungere miglioramenti alla gestione della memoria del provider dell'archivio stati Di RocksDB
- [SPARK-43237] [SC-129898] [CORE] Gestire un messaggio di eccezione Null nel registro eventi
- [SPARK-43320] [SC-129899] [SQL] [HIVE] Chiamare direttamente l'API Hive 2.3.9
-
[SPARK-43270] [SC-129897] [PYTHON] Implementare
__dir__()
inpyspark.sql.dataframe.DataFrame
per includere colonne - [SPARK-43183] Ripristinare “[SC-128938][SS] Introdurre un nuovo callback”...
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery awaitTermination()
- [SPARK-43257] [SC-129675] [SQL] Sostituire la classe di errore _LEGACY_ERROR_TEMP_2022 da un errore interno
- [SPARK-43198] [SC-129470] [CONNECT] Correzione “Impossibile inizializzare l'ammonite della classe...” errore durante l'uso del filtro
- [SPARK-43165] [SC-129777] [SQL] Sposta canWrite in DataTypeUtils
- [SPARK-43298] [SC-129729] [PYTHON] [ML] predict_batch_udf con input scalare non riesce con dimensioni batch pari a una
- [SPARK-43298] [SC-129700] Ripristinare “[PYTHON][ML] predict_batch_udf con input scalare ha esito negativo con dimensioni batch di uno”
- [SPARK-43052] [SC-129663] [CORE] Gestire stacktrace con nome file Null nel registro eventi
- [SPARK-43183] [SC-128938] [SS] Introdurre un nuovo callback “onQueryIdle” in StreamingQueryListener
- [SPARK-43209] [SC-129190] [CONNECT] [PYTHON] Eseguire la migrazione degli errori di espressione nella classe di errore
- [SPARK-42151] [SC-128754][SQL] Allineare UPDATE assegnazioni con gli attributi della tabella
- [SPARK-43134] [SC-129468] [CONNECT] [SS] API StreamingQuery del client JVM ()
- [SPARK-43298] [SC-129699] [PYTHON] [ML] predict_batch_udf con input scalare non riesce con dimensioni batch pari a una
- [SPARK-43248] [SC-129660] [SQL] Serializzazione/deserializzazione non necessaria di Path su statistiche di partizione gather parallele
-
[SPARK-43274] [SC-129464] [SPARK-43275] [PYTHON] [CONNECT] Introdurre
PySparkNotImplementedError
- [SPARK-43146] [SC-128804] [CONNECT] [PYTHON] Implementare la valutazione eager per il repository e repr_html
- [SPARK-42953] [SC-129469] [Connetti] [Followup] Correggere la compilazione di test maven per i test UDF del client Scala
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358] [CONNECT] Aggiunta di funzioni groupByKey + mapGroup + coGroup
-
[SPARK-43156] [SC-129672] [SC-128532] [SQL] Correzione di
COUNT(*) is null
un bug nella sottoquery scalare correlata - [SPARK-43046] [SC-129110] [SS] [Connetti] Implementazione dell'api Python dropDuplicatesWithinWatermark per Spark Connect
- [SPARK-43199] [SC-129467] [SQL] Make InlineCTE idempotent
-
[SPARK-43293] [SC-129657][SQL]
__qualified_access_only
viene ignorato nelle colonne normali - [SPARK-43276] [SC-129461] [CONNECT] [PYTHON] Eseguire la migrazione degli errori della finestra di Connessione Spark nella classe di errore
- [SPARK-43174] [SC-129109] [SQL] Correzione del completer SparkSQLCLIDriver
- [SPARK-43084] [SC-128654] [SS] Aggiungere il supporto applyInPandasWithState per spark connect
- [SPARK-43119] [SC-129040] [SQL] Supporto per ottenere parole chiave SQL in modo dinamico tramite API JDBC e TVF
- [SPARK-43082] [SC-129112] [CONNECT] [PYTHON] Funzioni definite dall'utente Python ottimizzate per la freccia in Spark Connect
- [SPARK-43085] [SC-128432][SQL] Colonna di supporto per l'assegnazione predefinita nomi di tabella con più nomi
- [SPARK-43226] [LC-671] Definire gli estrattori per i metadati costanti dei file
-
[SPARK-43210] [SC-129189] [CONNECT] [PYTHON] Introdurre
PySparkAssertionError
- [SPARK-43214] [SC-129199] [SQL] Pubblicare le metriche lato driver per LocalTableScanExec/CommandResultExec
- [SPARK-43285] [SC-129347] Correggere l'errore costante di ReplE2ESuite con JDK 17
- [SPARK-43268] [SC-129249] [SQL] Usare le classi di errore appropriate quando le eccezioni vengono costruite con un messaggio
- [SPARK-43142] [SC-129299] Correggere le espressioni DSL sugli attributi con caratteri speciali
- [SPARK-43129] [SC-128896] API di base di Scala per lo streaming di Spark Connect
- [SPARK-43233] [SC-129250] [SS] Aggiungere la registrazione per la lettura batch Kafka per la partizione dell'argomento, l'intervallo di offset e l'ID attività
- [SPARK-43249] [SC-129195] [CONNECT] Correzione delle statistiche mancanti per il comando SQL
- [SPARK-42945] [SC-129188] [CONNECT] Supporto di PYSPARK_JVM_STACKTRACE_ENABLED in Spark Connect
- [SPARK-43178] [SC-129197] [CONNECT] [PYTHON] Eseguire la migrazione degli errori di funzioni definite dall'utente nel framework degli errori pySpark
- [SPARK-43123] [SC-128494] [SQL] I metadati dei campi interni non devono essere persi nei cataloghi
- [SPARK-43217] [SC-129205] Si ripete correttamente in mappe/matrici annidate in findNestedField
- [SPARK-43243] [SC-129294] [PYTHON] [CONNECT] Aggiungere un parametro di livello a printSchema per Python
-
[SPARK-43230] [SC-129191] [CONNECT] Semplificare
DataFrameNaFunctions.fillna
- [SPARK-43088] [SC-128403] [SQL] Respect RequiresDistributionAndOrdering in CTAS/RTAS
-
[SPARK-43234] [SC-129192] [CONNECT] [PYTHON] Eseguire la migrazione
ValueError
dal dataframe conect alla classe di errore - [SPARK-43212] [SC-129187] [SS] [PYTHON] Eseguire la migrazione degli errori di Structured Streaming nella classe di errore
-
[SPARK-43239] [SC-129186] [PS] Rimuovi
null_counts
da info() - [SPARK-43190] [SC-128930] [SQL] ListQuery.childOutput deve essere coerente con l'output figlio
- [SPARK-43191] [SC-128924] [CORE] Sostituire reflection w/direct calling for Hadoop CallerContext
- [SPARK-43193] [SC-129042] [SS] Rimuovere la soluzione alternativa per HADOOP-12074
- [SPARK-42657] [SC-128621] [CONNECT] Supporto per trovare e trasferire file di classe REPL sul lato client nel server come artefatti
- [SPARK-43098] [SC-77059][SQL] Correzione del bug COUNT di correzione quando la sottoquery scalare è raggruppata per clausola
-
[SPARK-43213] [SC-129062] [PYTHON] Aggiungere
DataFrame.offset
alla vaniglia PySpark - [SPARK-42982] [SC-128400] [CONNECT] [PYTHON] Correzione di createDataFrame per rispettare il ddl dello schema specificato
- [SPARK-43124] [SC-129011] [SQL] Dataset.show projects CommandResults localmente
- [SPARK-42998] [SC-127422] [CONNECT] [PYTHON] Correggere DataFrame.collect con lo struct Null
- [SPARK-41498] [SC-125343] Ripristinare ” Propagare i metadati tramite Union”
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Aggiungere await_termination() e api exception() per query di streaming in Python
- [SPARK-42552] [SC-128824] [SQL] Correggere la strategia di analisi a due fasi del parser antlr
- [SPARK-43207] [SC-128937] [CONNECT] Aggiungere funzioni helper per estrarre il valore dall'espressione letterale
- [SPARK-43186] [SC-128841] [SQL] [HIVE] Rimuovere la soluzione alternativa per FileSinkDesc
- [SPARK-43107] [SC-128533] [SQL] Bucket coalesce in join applicati sul lato flusso di join broadcast
- [SPARK-43195] [SC-128922] [CORE] Rimuovere il wrapper serializzabile non necessario in HadoopFSUtils
- [SPARK-43137] [SC-128828] [SQL] Migliorare ArrayInsert se la posizione è piegabile e positiva.
- [SPARK-37829] [SC-128827] [SQL] Dataframe.joinWith outer-join deve restituire un valore Null per la riga senza corrispondenza
- [SPARK-43042] [SC-128602] [SS] [Connetti] Aggiungere il supporto dell'API table() per DataStreamReader
- [SPARK-43153] [SC-128753] [CONNECT] Ignorare l'esecuzione di Spark quando il dataframe è locale
- [SPARK-43064] [SC-128496] [SQL] La scheda SQL dell'interfaccia della riga di comando di Spark SQL deve essere visualizzata una sola volta
- [SPARK-43126] [SC-128447] [SQL] Contrassegnare due espressioni UDF Hive come con stato
-
[SPARK-43111] [SC-128750] [PS] [CONNECT] [PYTHON] Unire istruzioni annidate
if
in singoleif
istruzioni - [SPARK-43113] [SC-128749] [SQL] Valutare le variabili lato flusso durante la generazione di codice per una condizione associata
- [SPARK-42895] [SC-127258] [CONNECT] Migliorare i messaggi di errore per le sessioni Spark arrestate
- [SPARK-42884] [SC-126662] [CONNECT] Aggiungere l'integrazione di Ammonite REPL
- [SPARK-43168] [SC-128674] [SQL] Rimuovere il metodo PhysicalDataType dalla classe Datatype
-
[SPARK-43121] [SC-128455] [SQL] Usare
BytesWritable.copyBytes
invece di una copia manuale in 'HiveInspectors - [SPARK-42916] [SC-128389] [SQL] JDBCTableCatalog mantiene il meta char/Varchar sul lato di lettura
- [SPARK-43050] [SC-128550] [SQL] Correggere le espressioni di aggregazione dei costrutti sostituendo le funzioni di raggruppamento
-
[SPARK-43095] [SC-128549] [SQL] Evitare l'idempotenza della strategia una volta interrotta per il batch:
Infer Filters
- [SPARK-43130] [SC-128597] [SQL] Spostare InternalType in PhysicalDataType
- [SPARK-43105] [SC-128456] [CONNECT] Byte abbreviati e stringhe nel messaggio proto
-
[SPARK-43099] [SC-128596] [SQL] Usare
getName
anziché per ottenere il nome della classe del generatore durante la registrazione digetCanonicalName
funzioni definite dall'utente in FunctionRegistry - [SPARK-42994] [SC-128586] [ML] [CONNECT] Il server di distribuzione PyTorch supporta la modalità locale
- [SPARK-42859] Ripristinare "[SC-127935][CONNECT][PS] Supporto Basic per l'API pandas in Spark Connect"
-
[SPARK-43021] [SC-128472] [SQL]
CoalesceBucketsInJoin
non funziona quando si usa AQE - [SPARK-43125] [SC-128477] [CONNECT] Correzione del server Connect non è in grado di gestire l'eccezione con un messaggio Null
- [SPARK-43147] [SC-128594] correzione di flake8 lint per il controllo locale
- [SPARK-43031] [SC-128360] [SS] [Connetti] Abilitare unit test e doctest per lo streaming
- [SPARK-43039] [LC-67] Supportare i campi personalizzati nella colonna _metadata origine file.
- [SPARK-43120] [SC-128407] [SS] Aggiunta del supporto per il rilevamento dei blocchi aggiunti all'utilizzo della memoria per l'archivio stati RocksDB
- [SPARK-43110] [SC-128381] [SQL] Sposta asIntegral in PhysicalDataType
- [SPARK-43118] [SC-128398] [SS] Rimuovere l'asserzione non necessaria per UninterruptibleThread in KafkaMicroBatchStream
- [SPARK-43055] [SC-128331] [CONNECT] [PYTHON] Supportare nomi di campo annidati duplicati
- [SPARK-42437] [SC-128339] [PYTHON] [CONNECT] PySpark catalog.cacheTable consentirà di specificare il livello di archiviazione
- [SPARK-42985] [SC-128332] [CONNECT] [PYTHON] Correzione di createDataFrame per rispettare le configurazioni SQL
- [SPARK-39696] [SC-127830] [CORE] Correzione della corsa dei dati nell'accesso a TaskMetrics.externalAccums
- [SPARK-43103] [SC-128335] [SQL] Spostamento di integrali in PhysicalDataType
- [SPARK-42741] [SC-125547] [SQL] Non annullare il wrapping dei cast nel confronto binario quando il valore letterale è Null
- [SPARK-43057] [SC-127948] [CONNECT] [PYTHON] Eseguire la migrazione degli errori della colonna Spark Connect nella classe di errore
- [SPARK-42859] [SC-127935] [CONNECT] [PS] Supporto di base per l'API Pandas in Spark Connect
-
[SPARK-43013] [SC-127773] [PYTHON] Eseguire la migrazione
ValueError
dal dataframe aPySparkValueError
. - [SPARK-43089] [SC-128051] [CONNECT] Redact debug string in UI
- [SPARK-43028] [SC-128070] [SQL] Aggiungere la classe di errore SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842] [Connetti] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937] [SQL] Aggiungere il test per dropDuplicates in JavaDatasetSuite
-
[SPARK-43075] [SC-127939] [CONNECT] Passare
gRPC
agrpcio
quando non è installato. - [SPARK-42953] [SC-127809] [Connetti] Filtro tipizzato, mappa, flatMap, mapPartitions
- [SPARK-42597] [SC-125506] [SQL] Supporto del tipo di data di annullamento del wrapping nel tipo timestamp
- [SPARK-42931] [SC-127933] [SS] Introduzione a dropDuplicatesWithinWatermark
- [SPARK-43073] [SC-127943] [CONNECT] Aggiungere costanti dei tipi di dati proto
- [SPARK-43077] [SC-128050] [SQL] Migliorare il messaggio di errore di UNRECOGNIZED_SQL_TYPE
- [SPARK-42951] [SC-128030] [SS] [Connetti] API DataStreamReader
- [SPARK-43049] [SC-127846] [SQL] Usare CLOB anziché VARCHAR(255) per StringType per Oracle JDBC
- [SPARK-43018] [SC-127762][SQL] Correzione del bug per i comandi INSERT con valori letterali timestamp
- [SPARK-42855] [SC-127722] [SQL] Usare i controlli Null di runtime in TableOutputResolver
- [SPARK-43030] [SC-127847] [SQL] Deduplicare le relazioni con le colonne di metadati
- [SPARK-42993] [SC-127829] [ML] [CONNECT] Rendere il server di distribuzione PyTorch compatibile con Spark Connect
- [SPARK-43058] [SC-128072] [SQL] Spostare numerico e frazionaria in PhysicalDataType
- [SPARK-43056] [SC-127946] [SS] Il commit dell'archivio stati di RocksDB deve continuare il lavoro in background solo se il commit dell'archivio stati di RocksDB deve continuare a funzionare in background solo se è stato sospeso
- [SPARK-43059] [SC-127947] [CONNECT] [PYTHON] Eseguire la migrazione di TypeError da DataFrame(Reader|Writer) nella classe error
- [SPARK-43071] [SC-128018][SQL] Supporto SELECT DEFAULT con ORDER BY, LIMIT, OFFSET per la relazione sorgente INSERT
- [SPARK-43061] [SC-127956] [CORE] [SQL] Introdurre PartitionEvaluator per l'esecuzione dell'operatore SQL
- [SPARK-43067] [SC-127938] [SS] Correggere il percorso del file di risorse della classe di errore nel connettore Kafka
- [SPARK-43019] [SC-127844] [SQL] Sposta ordinamento in PhysicalDataType
- [SPARK-43010] [SC-127759] [PYTHON] Eseguire la migrazione degli errori di colonna nella classe di errore
-
[SPARK-42840] [SC-127782] [SQL] Modificare
_LEGACY_ERROR_TEMP_2004
l'errore in errore interno - [SPARK-43041] [SC-127765] [SQL] Ripristinare i costruttori di eccezioni per la compatibilità nell'API del connettore
- [SPARK-42939] [SC-127761] [SS] [CONNECT] API Python di streaming core per Spark Connect
-
[SPARK-42844] [SC-127766] [SQL] Aggiornare la classe
_LEGACY_ERROR_TEMP_2008
di errore inINVALID_URL
- [SPARK-42316] [SC-127720] [SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2044
- [SPARK-42995] [SC-127723] [CONNECT] [PYTHON] Eseguire la migrazione degli errori di Spark Connect DataFrame nella classe di errore
- [SPARK-42983] [SC-127717] [CONNECT] [PYTHON] Correzione di createDataFrame per gestire correttamente la matrice numpy a 0 dim
- [SPARK-42955] [SC-127476] [SQL] Ignorare classifyException ed eseguire il wrapping di AnalysisException per SparkThrowable
- [SPARK-42949] [SC-127255] [SQL] Semplificare il codice per NAAJ
-
[SPARK-43011] [SC-127577][SQL]
array_insert
deve avere esito negativo con indice 0 -
[SPARK-42974] [SC-127487] [CORE] Ripristinare
Utils.createTempDir
per usare ilShutdownHookManager
metodo e pulireJavaUtils.createTempDir
. - [SPARK-42964] [SC-127585] [SQL] PosgresDialect '42P07' indica anche che la tabella esiste già
- [SPARK-42978] [SC-127351] [SQL] Derby&PG: RENAME non può qualificare un new-table-Name con uno schema-Name
- [SPARK-37980] [SC-127668] [SQL] Accesso row_index tramite _metadata, se possibile, nei test
- [SPARK-42655] [SC-127591] [SQL] Errore di riferimento di colonna ambiguo non corretto
-
[SPARK-43009] [SC-127596][SQL] Parametrizzato
sql()
conAny
costanti - [SPARK-43026] [SC-127590] [SQL] Applicare AQE con la cache delle tabelle non di scambio
- [SPARK-42963] [SC-127576] [SQL] Estendere SparkSessionExtensions per inserire regole nell'utilità di ottimizzazione della fase di query AQE
- [SPARK-42918] [SC-127357] Generalizzare la gestione degli attributi dei metadati in FileSourceStrategy
-
[SPARK-42806] [SC-127452] [SPARK-42811] [CONNECT] Aggiungere
Catalog
il supporto - [SPARK-42997] [SC-127535] [SQL] TableOutputResolver deve usare percorsi di colonna corretti nei messaggi di errore per matrici e mappe
- [SPARK-43006] [SC-127486] [PYSPARK] Correzione dell'errore di digitazione in StorageLevel eq()
- [SPARK-43005] [SC-127485] [PYSPARK] Correzione dell'errore di digitazioni in pyspark/pandas/config.py
- [SPARK-43004] [SC-127457] [CORE] Correzione dell'errore di digitazioni in ResourceRequest.equals()
- [SPARK-42907] [SC-126984] [CONNECT] [PYTHON] Implementare le funzioni Avro
- [SPARK-42979] [SC-127272] [SQL] Definire costruttori letterali come parole chiave
- [SPARK-42946] [SC-127252] [SQL] Redigere i dati sensibili che sono annidati tramite sostituzione di variabili
- [SPARK-42952] [SC-127260] [SQL] Semplificare il parametro della regola dell'analizzatore PreprocessTableCreation e DataSourceAnalysis
- [SPARK-42683] [LC-75] Rinominare automaticamente le colonne di metadati in conflitto
- [SPARK-42853] [SC-126101] [FollowUp] Correggere i conflitti
- [SPARK-42929] [SC-126748] [CONNECT] rendere mapInPandas/mapInArrow support "is_barrier"
- [SPARK-42968] [SC-127271] [SS] Aggiungere l'opzione per ignorare il coordinatore del commit come parte dell'API StreamingWrite per origini/sink DSv2
-
[SPARK-42954] [SC-127261] [PYTHON] [CONNECT] Aggiungere
YearMonthIntervalType
al client Python PySpark e Spark Connect -
[SPARK-41359] [SC-127256] [SQL] Usare
PhysicalDataType
anziché DataType in UnsafeRow - [SPARK-42873] [SC-127262] [SQL] Definire i tipi SPARK SQL come parole chiave
-
[SPARK-42808] [SC-126302] [CORE] Evitare di ottenere i responsabili disponibili ogni volta in
MapOutputTrackerMaster#getStatistics
-
[SPARK-42937] [SC-126880][SQL]
PlanSubqueries
deve impostareInSubqueryExec#shouldBroadcast
su true -
[SPARK-42896] [SC-126729] [SQL] [PYTHON] Eseguire l'esecuzione
mapInPandas
/mapInArrow
della modalità barriera di supporto - [SPARK-42874] [SC-126442] [SQL] Abilitare il nuovo framework di test dei file di riferimento per l'analisi per tutti i file di input
- [SPARK-42922] [SC-126850] [SQL] Passare da Casuale a SecureRandom
- [SPARK-42753] [SC-126369] ReusedExchange fa riferimento a nodi inesistenti
- [SPARK-40822] [SC-126274] [SQL] Alias di colonna derivati stabili
- [SPARK-42908] [SC-126856] [PYTHON] Generare RuntimeError quando SparkContext è obbligatorio ma non inizializzato
- [SPARK-42779] [SC-126042] [SQL] Consentire alle scritture V2 di indicare le dimensioni delle partizioni casuali di avviso
-
[SPARK-42914] [SC-126727] [PYTHON] Riutilizzare
transformUnregisteredFunction
perDistributedSequenceID
. - [SPARK-42878] [SC-126882] [CONNECT] L'API tabella in DataFrameReader può anche accettare opzioni
-
[SPARK-42927] [SC-126883] [CORE] Modificare l'ambito di accesso di
o.a.spark.util.Iterators#size
inprivate[util]
- [SPARK-42943] [SC-126879] [SQL] Usare LONGTEXT invece di TEXT per StringType per una lunghezza effettiva
- [SPARK-37677] [SC-126855] [CORE] Decomprimere potrebbe mantenere le autorizzazioni per i file
- [SPARK-42891] [13.x] [SC-126458] [CONNECT] [PYTHON] Implementare l'API Mappa cogrouped
- [SPARK-41876] [SC-126849] [CONNECT] [PYTHON] Implementare DataFrame.toLocalIterator
-
[SPARK-42930] [SC-126761] [CORE] [SQL] Modificare l'ambito di accesso delle
ProtobufSerDe
implementazioni correlate inprivate[protobuf]
- [SPARK-42819] [SC-125879] [SS] Aggiungere il supporto per l'impostazione di max_write_buffer_number e write_buffer_size per RocksDB usato nel flusso
- [SPARK-42924] [SC-126737] [SQL] [CONNECT] [PYTHON] Chiarire il commento degli argomenti SQL con parametri
- [SPARK-42748] [SC-126455] [CONNECT] Gestione degli artefatti lato server
- [SPARK-42816] [SC-126365] [CONNECT] Supportare dimensioni massime messaggi fino a 128 MB
- [SPARK-42850] [SC-126109] [SQL] Rimuovere le regole duplicate CombineFilters in Optimizer
- [SPARK-42662] [SC-126355] [CONNECT] [PS] Aggiungere un messaggio proto per l'API Pandas nell'indice predefinito di Spark
- [SPARK-42720] [SC-126136] [PS] [SQL] Usa l'espressione per l'indice predefinito della sequenza distribuita anziché per il piano
- [SPARK-42790] [SC-126174] [SQL] Astrarre il metodo escluso per un test migliore per i test docker JDBC.
- [SPARK-42900] [SC-126473] [CONNECT] [PYTHON] Correzione di createDataFrame per rispettare i nomi di inferenza e colonna
- [SPARK-42917] [SC-126657] [SQL] Corretto getUpdateColumnNullabilityQuery per DerbyDialect
- [SPARK-42684] [SC-125157] [SQL] Catalogo v2 non deve consentire il valore predefinito della colonna per impostazione predefinita
- [SPARK-42861] [SC-126635] [SQL] Usare private[sql] anziché protected[sql] per evitare di generare la documentazione dell'API
- [SPARK-42920] [SC-126728] [CONNECT] [PYTHON] Abilitare i test per la funzione definita dall'utente con tipo definito dall'utente
- [SPARK-42791] [SC-126617] [SQL] Creare un nuovo framework di test di file golden file per l'analisi
- [SPARK-42911] [SC-126652] [PYTHON] Introdurre altre eccezioni di base
- [SPARK-42904] [SC-126634] [SQL] Supporto char/varchar per il catalogo JDBC
-
[SPARK-42901] [SC-126459] [CONNECT] [PYTHON] Spostarsi
StorageLevel
in un file separato per evitare potenzialifile recursively imports
-
[SPARK-42894] [SC-126451] [CONNECT] Supporto
cache
/persist
/unpersist
/storageLevel
per il client jvm di Spark Connect - [SPARK-42792] [SC-125852] [SS] Aggiunta del supporto per WRITE_FLUSH_BYTES per RocksDB usato negli operatori con stato di streaming
- [SPARK-41233] [SC-126441] [CONNECT] [PYTHON] Aggiungere array_prepend al client Python di Spark Connect
- [SPARK-42681] [SC-125149][SQL] Vincolo di ordinamento rilassante per ALTER TABLE ADD|Descrittore di colonna REPLACE
- [SPARK-42889] [SC-126367] [CONNECT] [PYTHON] Implementare la cache, rendere persistente, non persistente e storageLevel
- [SPARK-42824] [SC-125985] [CONNECT] [PYTHON] Specificare un messaggio di errore chiaro per gli attributi JVM non supportati
- [SPARK-42340] [SC-126131] [CONNECT] [PYTHON] Implementare l'API mappa raggruppata
- [SPARK-42892] [SC-126454] [SQL] Spostare sameType e i metodi pertinenti all'esterno di DataType
-
[SPARK-42827] [SC-126126] [CONNECT] Supporto
functions#array_prepend
per il client di connessione Scala -
[SPARK-42823] [SC-125987] [SQL]
spark-sql
Shell supporta spazi dei nomi multipart per l'inizializzazione - [SPARK-42817] [SC-125960] [CORE] Registrazione del nome del servizio casuale una sola volta in ApplicationMaster
- [SPARK-42786] [SC-126438] [Connetti] Selezione tipizzata
-
[SPARK-42800] [SC-125868] [CONNECT] [PYTHON] [ML] Implementare la funzione ml
{array_to_vector, vector_to_array}
- [SPARK-42052] [SC-126439] [SQL] Supporto di Codegen per HiveSimpleUDF
-
[SPARK-41233] [SC-126110] [SQL] [PYTHON] Aggiungere
array_prepend
una funzione -
[SPARK-42864] [SC-126268] [ML] [3.4] Rendere
IsotonicRegression.PointsAccumulator
privato - [SPARK-42876] [SC-126281] [SQL] PhysicalDataType di DataType deve essere privato[sql]
- [SPARK-42101] [SC-125437] [SQL] Rendere il supporto di AQE InMemoryTableScanExec
- [SPARK-41290] [SC-124030] [SQL] Supporto di espressioni ALWAYS AS GENERATED per le colonne nelle istruzioni create/replace table
-
[SPARK-42870] [SC-126220] [CONNECT] Sposta
toCatalystValue
inconnect-common
- [SPARK-42247] [SC-126107] [CONNECT] [PYTHON] Correzione di UserDefinedFunction per avere returnType
- [SPARK-42875] [SC-126258] [CONNECT] [PYTHON] Correzione di toPandas per gestire correttamente i tipi di fuso orario e mapping
- [SPARK-42757] [SC-125626] [CONNECT] Implementare textFile per DataFrameReader
- [SPARK-42803] [SC-126081] [CORE] [SQL] [ML] Usare la funzione getParameterCount anziché getParameterTypes.length
-
[SPARK-42833] [SC-126043] [SQL] Refactoring
applyExtensions
inSparkSession
- [SPARK-41765] Ripristinare "[SC-123550][SQL] Eseguire il pull delle metriche di scrittura v1...
- [SPARK-42848] [SC-126105] [CONNECT] [PYTHON] Implementare DataFrame.registerTempTable
- [SPARK-42020] [SC-126103][CONNECT][PYTHON] Supporto UserDefinedType in Spark Connect
- [SPARK-42818] [SC-125861] [CONNECT] [PYTHON] Implementare DataFrameReader/Writer.jdbc
- [SPARK-42812] [SC-125867] [CONNECT] Aggiungere client_type al messaggio protobuf AddArtifactsRequest
- [SPARK-42772] [SC-125860] [SQL] Modificare il valore predefinito delle opzioni JDBC relative al push fino a true
- [SPARK-42771] [SC-125855] [SQL] Eseguire il refactoring di HiveGenericUDF
- [SPARK-25050] [SC-123839] [SQL] Avro: scrittura di unioni complesse
-
[SPARK-42765] [SC-125850] [CONNECT] [PYTHON] Abilitare l'importazione
pandas_udf
dapyspark.sql.connect.functions
-
[SPARK-42719] [SC-125225] [CORE]
MapOutputTracker#getMapLocation
deve rispettarespark.shuffle.reduceLocality.enabled
- [SPARK-42480] [SC-125173] [SQL] Migliorare le prestazioni delle partizioni di eliminazione
- [SPARK-42689] [SC-125195] [CORE] [SHUFFLE] Consenti a ShuffleDriverComponent di dichiarare se i dati casuali vengono archiviati in modo affidabile
-
[SPARK-42726] [SC-125279] [CONNECT] [PYTHON] Implementare
DataFrame.mapInArrow
- [SPARK-41765] [SC-123550] [SQL] Eseguire il pull delle metriche di scrittura v1 in WriteFiles
- [SPARK-41171] [SC-124191] [SQL] Dedurre ed eseguire il push del limite della finestra attraverso la finestra se partitionSpec è vuoto
- [SPARK-42686] [SC-125292] [CORE] Rinviare la formattazione per i messaggi di debug in TaskMemoryManager
- [SPARK-42756] [SC-125443] [CONNECT] [PYTHON] Funzione helper per convertire il valore letterale proto in valore nel client Python
-
[SPARK-42793] [SC-125627] [CONNECT]
connect
il modulo richiedebuild_profile_flags
-
[SPARK-42701] [SC-125192] [SQL] Aggiungere la
try_aes_decrypt()
funzione - [SPARK-42679] [SC-125438] [CONNECT] [PYTHON] createDataFrame non funziona con uno schema non nullable
- [SPARK-42733] [SC-125542] [CONNECT] [Followup] Scrivere senza percorso o tabella
- [SPARK-42777] [SC-125525] [SQL] Supporto per la conversione delle statistiche del catalogo TimestampNTZ in statistiche di piano
-
[SPARK-42770] [SC-125558] [CONNECT] Aggiungere
truncatedTo(ChronoUnit.MICROS)
per eseguireSQLImplicitsTestSuite
il passaggio dell'attività ga al test giornaliero di Java 17 - [SPARK-42752] [SC-125550] [PYSPARK] [SQL] Rendere stampabili le eccezioni PySpark durante l'inizializzazione
- [SPARK-42732] [SC-125544] [PYSPARK] [CONNECT] Supporto del metodo spark connect session getActiveSession
-
[SPARK-42755] [SC-125442] [CONNECT] Conversione del valore letterale del fattore in
connect-common
- [SPARK-42747] [SC-125399] [ML] Correzione dello stato interno errato di LoR e AFT
- [SPARK-42740] [SC-125439] [SQL] Correzione del bug che scostamento o paging del pushdown non è valido per alcuni dialetti predefiniti
- [SPARK-42745] [SC-125332] [SQL] AliasAwareOutputExpression migliorato funziona con DSv2
- [SPARK-42743] [SC-125330] [SQL] Supporto per l'analisi delle colonne TimestampNTZ
- [SPARK-42721] [SC-125371] [CONNECT] Intercettore di registrazione RPC
- [SPARK-42691] [SC-125397] [CONNECT] [PYTHON] Implementare Dataset.semanticHash
- [SPARK-42688] [SC-124922] [CONNECT] Rinominare Connect proto Request client_id in session_id
- [SPARK-42310] [SC-122792] [SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1289
- [SPARK-42685] [SC-125339] [CORE] Ottimizzare le routine Utils.bytesToString
- [SPARK-42725] [SC-125296] [CONNECT] [PYTHON] Make LiteralExpression support array params
- [SPARK-42702] [SC-125293][SPARK-42623][SQL] Supportare query con parametri in sottoquery e CTE
- [SPARK-42697] [SC-125189] [WEBUI] Correggere /api/v1/applications per restituire il tempo di attività totale anziché 0 per il campo durata
- [SPARK-42733] [SC-125278] [CONNECT] [PYTHON] Correzione di DataFrameWriter.save per funzionare senza il parametro path
- [SPARK-42376] [SC-124928] [SS] Introdurre la propagazione della filigrana tra gli operatori
- [SPARK-42710] [SC-125205] [CONNECT] [PYTHON] Rinominare il proto FrameMap in MapPartitions
- [SPARK-37099] [SC-123542] [SQL] Introdurre il limite di gruppo di Window per il filtro basato su classificazione per ottimizzare il calcolo top-k
- [SPARK-42630] [SC-125207] [CONNECT] [PYTHON] Introdurre UnparsedDataType e ritardare l'analisi della stringa DDL fino a quando SparkConnectClient non è disponibile
- [SPARK-42690] [SC-125193] [CONNECT] Implementare funzioni di analisi CSV/JSON per il client Scala
-
[SPARK-42709] [SC-125172] [PYTHON] Rimuovere il presupposto di
__file__
essere disponibile - [SPARK-42318] [SC-122648] [SPARK-42319] [SQL] Assegnare il nome a LEGACY_ERROR_TEMP(2123|2125)
- [SPARK-42723] [SC-125183] [SQL] Supportare il tipo di dati del parser json "timestamp_ltz" come TimestampType
- [SPARK-42722] [SC-125175] [CONNECT] [PYTHON] Python Connect def schema() non deve memorizzare nella cache lo schema
- [SPARK-42643] [SC-125152] [CONNECT] [PYTHON] Registrare funzioni Java (aggregate) definite dall'utente
- [SPARK-42656] [SC-125177] [CONNECT] [Followup] Correggere lo script spark-connect
- [SPARK-41516] [SC-123899] [SQL] Consentire ai dialetti jdbc di eseguire l'override della query usata per creare una tabella
- [SPARK-41725] [SC-124396] [CONNECT] Esecuzione eager di DF.sql()
-
[SPARK-42687] [SC-124896] [SS] Messaggio di errore migliore per l'operazione non supportata
pivot
in Streaming - [SPARK-42676] [SC-124809] [SS] Scrivere checkpoint temporanei per le query di streaming nel file system locale anche se il file system predefinito è impostato in modo diverso
- [SPARK-42303] [SC-122644] [SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1326
- [SPARK-42553] [SC-124560][SQL] Verificare almeno un'unità a consumo dopo l'intervallo
- [SPARK-42649] [SC-124576] [CORE] Rimuovere l'intestazione standard di Apache License dall'inizio dei file di origine di terze parti
- [SPARK-42611] [SC-124395] [SQL] Inserire controlli di lunghezza char/varchar per i campi interni durante la risoluzione
- [SPARK-42419] [SC-124019] [CONNECT] [PYTHON] Eseguire la migrazione nel framework degli errori per l'API Colonna Spark Connect.
- [SPARK-42637] [SC-124522] [CONNECT] Aggiungere SparkSession.stop()
- [SPARK-42647] [SC-124647] [PYTHON] Modificare l'alias per i tipi numpy deprecati e rimossi
- [SPARK-42616] [SC-124389] [SQL] SparkSQLCLIDriver chiude solo sessionState hive avviato
- [SPARK-42593] [SC-124405] [PS] Deprecare e rimuovere le API che verranno rimosse in pandas 2.0.
- [SPARK-41870] [SC-124402] [CONNECT] [PYTHON] Correzione di createDataFrame per gestire i nomi di colonna duplicati
- [SPARK-42569] [SC-124379] [CONNECT] Generare eccezioni per l'API di sessione non supportata
- [SPARK-42631] [SC-124526] [CONNECT] Supporto di estensioni personalizzate nel client Scala
- [SPARK-41868] [SC-124387] [CONNECT] [PYTHON] Correzione di createDataFrame per supportare le durate
- [SPARK-42572] [SC-124171] [SQL] [SS] Correzione del comportamento per StateStoreProvider.validateStateRowFormat
Aggiornamenti di manutenzione
Vedere Aggiornamenti di manutenzione di Databricks Runtime 13.1.
Ambiente di sistema
- Sistema operativo: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
asttoken | 2.2.1 | attrs | 21.4.0 | backcall | 0.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.6.0 | bleach | 4.1.0 |
blinker | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
certifi | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
charset-normalizer | 2.0.4 | click | 8.0.4 | cryptography | 37.0.1 |
cycler | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
debugpy | 1.5.1 | decorator | 5.1.1 | defusedxml | 0.7.1 |
distlib | 0.3.6 | docstring-to-markdown | 0.12 | entrypoints | 0.4 |
executing | 1.2.0 | facet-overview | 1.0.3 | fastjsonschema | 2.16.3 |
filelock | 3.12.0 | fonttools | 4.25.0 | googleapis-common-protos | 1.56.4 |
grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
ipython | 8.10.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | jeepney | 0.7.1 | Jinja2 | 2.11.3 |
jmespath | 0.10.0 | joblib | 1.2.0 | jsonschema | 4.16.0 |
jupyter-client | 7.3.4 | jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 |
jupyterlab-widgets | 1.0.0 | keyring | 23.5.0 | kiwisolver | 1.4.2 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
MarkupSafe | 2.0.1 | matplotlib | 3.5.2 | matplotlib-inline | 0.1.6 |
mccabe | 0.7.0 | mistune | 0.8.4 | more-itertools | 8.10.0 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.5.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.12 | numpy | 1.21.5 | oauthlib | 3.2.0 |
packaging | 21.3 | pandas | 1.4.4 | pandocfilters | 1.5.0 |
parso | 0.8.3 | pathspec | 0.9.0 | patsy | 0.5.2 |
pexpect | 4.8.0 | pickleshare | 0.7.5 | Pillow | 9.2.0 |
pip | 22.2.2 | platformdirs | 2.5.2 | plotly | 5.9.0 |
pluggy | 1.0.0 | prometheus-client | 0.14.1 | prompt-toolkit | 3.0.36 |
protobuf | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 8.0.0 |
pycparser | 2.21 | pydantic | 1.10.6 | pyflakes | 3.0.1 |
Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.9 | pyright | 1.1.294 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 | pytz | 2022.1 |
pyzmq | 23.2.0 | requests | 2.28.1 | rope | 1.7.0 |
s3transfer | 0.6.0 | scikit-learn | 1.1.1 | scipy | 1.9.1 |
seaborn | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash | 1.8.0 |
setuptools | 63.4.1 | six | 1.16.0 | soupsieve | 2.3.1 |
ssh-import-id | 5.11 | stack-data | 0.6.2 | statsmodels | 0.13.2 |
tenacity | 8.1.0 | terminado | 0.13.1 | testpath | 0.6.0 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
tornado | 6.1 | traitlets | 5.1.1 | typing_extensions | 4.3.0 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.11 |
virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | whatthepatch | 1.0.2 | wheel | 0.37.1 |
widgetsnbextension | 3.6.1 | yapf | 0.31.0 | zipp | 1.0.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2023-02-10.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
freccia | 10.0.1 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.5 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1.0-8 | brio | 1.1.3 |
Scopa | 1.0.3 | bslib | 0.4.2 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-59 | class | 7.3-21 | cli | 3.6.0 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.1-0 | commonmark | 1.8.1 |
compilatore | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credentials | 1.3.2 | curl | 5.0.0 |
data.table | 1.14.6 | datasets | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.3.0 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.31 | downlit | 0.4.2 |
dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
puntini di sospensione | 0.3.2 | evaluate | 0,20 | fansi | 1.0.4 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.5.0 |
forcats | 1.0.0 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.6.1 | future | 1.31.0 |
future.apply | 1.10.0 | gargle | 1.3.0 | generics | 0.1.3 |
gert | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-6 | globals | 0.16.2 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.1 | grafica | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0,10 | hms | 1.1.2 | htmltools | 0.5.4 |
htmlwidgets | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.7 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr | 1.42 |
Etichettatura | 0.4.2 | later | 1.3.0 | Lattice | 0.20-45 |
Java | 1.7.1 | lifecycle | 1.0.3 | listenv | 0.9.0 |
lubridate | 1.9.1 | magrittr | 2.0.3 | markdown | 1,5 |
MASS | 7.3-58.2 | Matrice | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.10 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.5 | parallel | 4.2.2 |
parallelly | 1.34.0 | Concetto fondamentale | 1.8.1 | pkgbuild | 1.4.0 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
plogr | 0.2.0 | plyr | 1.8.8 | praise | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Avanzamento | 1.2.2 |
progressr | 0.13.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 1.0.1 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.2 | ricette | 1.0.4 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.20 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.5 | Scalabilità | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | Forma | 1.4.6 |
shiny | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
SparkR | 3.4.0 | spaziale | 7.3-15 | Spline | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.12 | stringr | 1.5.0 |
Sopravvivenza | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.6 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.2.0 | timeDate | 4022.108 |
tinytex | 0.44 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.3 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.2 |
viridisLite | 0.4.1 | vroom | 1.6.1 | waldo | 0.4.0 |
whisker | 0.4.1 | withr | 2.5.0 | xfun | 0.37 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.7 | zip | 2.2.2 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
com.amazonaws | aws-java-sdk-config | 1.12.390 |
com.amazonaws | aws-java-sdk-core | 1.12.390 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.390 |
com.amazonaws | aws-java-sdk-directory | 1.12.390 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
com.amazonaws | aws-java-sdk-efs | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
com.amazonaws | aws-java-sdk-emr | 1.12.390 |
com.amazonaws | aws-java-sdk-glacier | 1.12.390 |
com.amazonaws | aws-java-sdk-glue | 1.12.390 |
com.amazonaws | aws-java-sdk-iam | 1.12.390 |
com.amazonaws | aws-java-sdk-importexport | 1.12.390 |
com.amazonaws | aws-java-sdk-consultas | 1.12.390 |
com.amazonaws | aws-java-sdk-kms | 1.12.390 |
com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
com.amazonaws | aws-java-sdk-logs | 1.12.390 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.390 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
com.amazonaws | aws-java-sdk-rds | 1.12.390 |
com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
com.amazonaws | aws-java-sdk-ses | 1.12.390 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
com.amazonaws | aws-java-sdk-sns | 1.12.390 |
com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
com.amazonaws | aws-java-sdk-sts | 1.12.390 |
com.amazonaws | aws-java-sdk-support | 1.12.390 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
com.amazonaws | jmespath-java | 1.12.390 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.14.2 |
com.fasterxml.jackson.core | jackson-core | 2.14.2 |
com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
com.github.ben-manes.caffeina | caffeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.2-5 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.9 |
com.google.crypto.tink | tink | 1.7.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.1.214 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocità | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 3.0.3 |
dev.sdk.netlib | blas | 3.0.3 |
dev.sdk.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.4 |
io.dropwizard.metrics | metrics-core | 4.2.10 |
io.dropwizard.metrics | metrics-graphite | 4.2.10 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.10 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
io.dropwizard.metrics | metrics-jmx | 4.2.10 |
io.dropwizard.metrics | metrics-json | 4.2.10 |
io.dropwizard.metrics | metrics-jvm | 4.2.10 |
io.dropwizard.metrics | metrics-servlets | 4.2.10 |
io.netty | netty-all | 4.1.87.Final |
io.netty | netty-buffer | 4.1.87.Final |
io.netty | netty-codec | 4.1.87.Final |
io.netty | netty-codec-http | 4.1.87.Final |
io.netty | netty-codec-http2 | 4.1.87.Final |
io.netty | netty-codec-socks | 4.1.87.Final |
io.netty | netty-common | 4.1.87.Final |
io.netty | netty-handler | 4.1.87.Final |
io.netty | netty-handler-proxy | 4.1.87.Final |
io.netty | netty-resolver | 4.1.87.Final |
io.netty | netty-transport | 4.1.87.Final |
io.netty | netty-transport-classes-epoll | 4.1.87.Final |
io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.87.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.16 |
org.apache.ant | ant-jsch | 1.9.16 |
org.apache.ant | ant-launcher | 1.9.16 |
org.apache.arrow | formato freccia | 11.0.0 |
org.apache.arrow | arrow-memory-core | 11.0.0 |
org.apache.arrow | arrow-memory-netty | 11.0.0 |
org.apache.arrow | freccia-vettore | 11.0.0 |
org.apache.avro | avro | 1.11.1 |
org.apache.avro | avro-ipc | 1.11.1 |
org.apache.avro | avro-mapred | 1.11.1 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
org.apache.logging.log4j | log4j-api | 2.19.0 |
org.apache.logging.log4j | log4j-core | 2.19.0 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
org.apache.mesos | mesos | 1.11.0-shaded-protobuf |
org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
org.apache.orc | orc-shim | 1.8.3 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.22 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.19.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-continuation | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-http | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-jndi | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-plus | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-proxy | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-security | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-server | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlet | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-servlets | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-util-ajax | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-webapp | 9.4.50.v20221201 |
org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-api | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-client | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-common | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-server | 9.4.50.v20221201 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v20221201 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | maglia-comune | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.2.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.8 |
org.roaringbitmap | RoaringBitmap | 0.9.39 |
org.roaringbitmap | Spessori | 0.9.39 |
org.rocksdb | rocksdbjni | 7.8.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatibile con scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.6 |
org.slf4j | jul-to-slf4j | 2.0.6 |
org.slf4j | slf4j-api | 2.0.6 |
org.threeten | treten-extra | 1.7.1 |
org.cortanaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.33 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |