Databricks Runtime 12.2 LTS
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 12.2 LTS, basate su Apache Spark 3.3.2.
Databricks ha rilasciato questa versione a marzo 2023.
Nota
LTS indica che questa versione è supportata a lungo termine. Vedere Ciclo di vita della versione LTS di Databricks Runtime.
Suggerimento
Per visualizzare le note sulla versione per le versioni di Databricks Runtime che hanno raggiunto la fine del supporto (EoS), vedere Note sulla versione della fine del supporto di Databricks Runtime. Le versioni EoS di Databricks Runtime sono state ritirate e potrebbero non essere aggiornate.
Modifiche comportamentali
[Modifica di rilievo] La nuova versione di Python richiede l'aggiornamento dei client Python V1 di Databricks Connect
Per applicare le patch di sicurezza necessarie, la versione di Python in Databricks Runtime 12.2 LTS viene aggiornata dalla versione 3.9.5 alla versione 3.9.19. Poiché queste modifiche possono causare errori nei client che usano funzioni PySpark specifiche, tutti i client che usano Databricks Connect V1 per Python con Databricks Runtime 12.2 LTS devono essere aggiornati a Python 3.9.7 o versione successiva.
Miglioramenti e nuove funzionalità
- L'evoluzione dello schema Delta Lake supporta la specifica delle colonne di origine nelle istruzioni di merge
- I carichi di lavoro Structured Streaming sono supportati nei cluster con modalità di accesso condiviso
- Nuove funzionalità per l'I/O predittivo
- Supporto implicito degli alias di colonna laterale
- Nuova funzionalità forEachBatch
- Opzioni di connessione standardizzate per la federazione di query
- Libreria di funzioni SQL estesa per la gestione di matrici
- Nuova funzione mask per rendere anonime le stringhe
- Le condizioni di errore comuni restituiscono ora SQLSTATEs
- Richiamare le funzioni del generatore nella clausola FROM
- Il supporto per i buffer di protocollo è disponibile a livello generale
- Vai a definizione per le variabili e le funzioni del notebook
- Correzione rapida del notebook per l'importazione automatica delle librerie
- Correzioni di bug
L'evoluzione dello schema Delta Lake supporta la specifica delle colonne di origine nelle istruzioni di merge
È ora possibile specificare colonne presenti solo nella tabella di origine nelle azioni di inserimento o aggiornamento per le istruzioni di merge quando l'evoluzione dello schema è abilitata. In Databricks Runtime 12.1 e versioni successive è possibile usare solo INSERT *
le azioni o UPDATE SET *
per l'evoluzione dello schema con merge. Vedere Evoluzione automatica dello schema per l'unione delta Lake.
I carichi di lavoro Structured Streaming sono supportati nei cluster con modalità di accesso condiviso
È ora possibile usare Structured Streaming per interagire con il catalogo Unity nei cluster condivisi. Esistono alcune limitazioni. Vedere Informazioni sulle funzionalità di Structured Streaming supportate da Unity Catalog.
Nuove funzionalità per l'I/O predittivo
Il supporto foton per il Foreachbatch
sink è ora disponibile. I carichi di lavoro che eseguono il flusso da un'origine e si uniscono in tabelle Delta o scrivono in più sink possono ora trarre vantaggio dal sink fotonizzato Foreachbatch
.
Supporto implicito degli alias di colonna laterale
Azure Databricks supporta ora l'aliasing implicito delle colonne laterali per impostazione predefinita. È ora possibile riutilizzare un'espressione specificata in precedenza nello stesso SELECT
elenco. Ad esempio, dato SELECT 1 AS a
, a + 1 AS b
, l'oggetto a
in a + 1
può essere risolto come l'oggetto definito 1 AS a
in precedenza. Per altri dettagli nell'ordine di risoluzione, vedere Risoluzione dei nomi.
Per disattivare questa funzionalità, è possibile impostare su spark.sql.lateralColumnAlias.enableImplicitResolution
false
.
Nuova funzionalità forEachBatch
Photon è ora supportato quando si usa foreachBatch
per scrivere in un sink di dati.
Opzioni di connessione standardizzate per la federazione di query
È ora possibile usare un set unificato di opzioni (host, porta, database, utente, password) per connettersi alle origini dati supportate in Federazione query. Port
è facoltativo e usa il numero di porta predefinito per ogni origine dati, a meno che non sia specificato.
Libreria di funzioni SQL estesa per la gestione di matrici
È ora possibile rimuovere tutti gli elementi NULL da una matrice usando array_compact. Per aggiungere elementi a una matrice, usare array_append.
Nuova funzione mask per rendere anonime le stringhe
Richiamare la funzione mask per rendere anonimi i valori di stringa sensibili.
Le condizioni di errore comuni restituiscono ora SQLSTATEs
La maggior parte delle condizioni di errore che Databricks Runtime include ora valori SQLSTATE documentati che possono essere usati per verificare la verifica degli errori in modo conforme allo standard SQL.
Richiamare le funzioni del generatore nella clausola FROM
È ora possibile richiamare funzioni generatori con valori di tabella, ad esempio esplodere nella clausola regolare FROM
di una query. In questo modo la chiamata della funzione generatore viene allineata con altre funzioni di tabella predefinite e definite dall'utente.
Il supporto per i buffer di protocollo è disponibile a livello generale
È possibile usare le from_protobuf
funzioni e to_protobuf
per scambiare dati tra tipi binari e struct. Vedere Buffer del protocollo di lettura e scrittura.
Vai a definizione per le variabili e le funzioni del notebook
Nei notebook è possibile passare rapidamente alla definizione di una variabile, di una funzione o al code-behind di un'istruzione %run
facendo clic con il pulsante destro del mouse sulla variabile o sul nome della funzione.
Correzione rapida del notebook per l'importazione automatica delle librerie
I notebook di Databricks offrono ora una funzionalità di correzione rapida per l'importazione automatica delle librerie. Se si dimentica di importare una libreria come pandas, passare il puntatore del mouse sull'avviso di sintassi sottolineato e quindi fare clic su Correzione rapida, per abilitare Databricks Assistant nell'area di lavoro.
Correzioni di bug
- Maggiore coerenza per il comportamento di commit Delta per le transazioni vuote relative ai comandi
update
,delete
emerge
. NelWriteSerializable
livello di isolamento, i comandi che non comportano modifiche ora creano un commit vuoto. In unSerializable
livello di isolamento, tali transazioni vuote ora non creano un commit.
Modifiche del comportamento
Modifiche del comportamento con la nuova funzionalità alias di colonna laterale
La nuova funzionalità alias di colonna laterale introduce modifiche di comportamento per i casi seguenti durante la risoluzione dei nomi:
- L'alias di colonna laterale ha ora la precedenza sui riferimenti correlati con lo stesso nome. Ad esempio, per questa query
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
, l'oggettoc1
nell'oggetto internoc1 AS c2
è stato risolto nel riferimentot.c1
correlato, ma ora passa all'alias1 AS c1
di colonna laterale . La query restituisceNULL
ora . - L'alias di colonna laterale ha ora la precedenza sui parametri della funzione con lo stesso nome. Ad esempio, per la funzione ,
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
l'oggettox
nel corpo della funzione è stato risolto nel parametro della funzione x, ma viene modificato in aliasx + 1
di colonna laterale nel corpo della funzione. La query restituisceSELECT * FROM func(1)
ora2, 2
. - Per disattivare la funzionalità alias di colonna laterale, impostare su
spark.sql.lateralColumnAlias.enableImplicitResolution
false
. Per altre informazioni, vedere Risoluzione dei nomi.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- filelock da 3.8.2 a 3.9.0
- joblib da 1.1.0 a 1.1.1
- platformdirs dalla versione 2.6.0 alla versione 2.6.2
- whatthepatch da 1.0.3 a 1.0.4
- Librerie R aggiornate:
- classe da 7.3-20 a 7.3-21
- codetools da 0.2-18 a 0.2-19
- MASS da 7.3-58 a 7.3-58.2
- nlme da 3.1-160 a 3.1-162
- Rserve da 1.8-11 a 1.8-12
- SparkR dalla versione 3.3.1 alla versione 3.3.2
Modifiche del comportamento
- Gli utenti devono ora disporre
SELECT
di privilegi eMODIFY
per qualsiasi file durante la creazione di uno schema con un percorso definito.
Apache Spark
Databricks Runtime 12.2 include Apache Spark 3.3.2. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 12.1 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-42416] [SC-123205][SC-122851][SQL] Le operazioni del set di date non devono risolvere di nuovo il piano logico analizzato
- [SPARK-41848] Ripristinare "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Correzione dell'attività over-scheduled con TaskResourceProfile"
- [SPARK-42162] [SC-122711][ES-556261] Introdurre l'espressione MultiCommutativeOp come ottimizzazione della memoria per la canonizzazione di grandi alberi di espressioni commutative
- [SPARK-42406] [SC-122998][PROTOBUF][Cherry-pick] Correzione dell'impostazione della profondità ricorsiva per le funzioni Protobuf
- [SPARK-42002] [SC-122476][CONNECT][PYTHON] Implementare DataFrameWriterV2
- [SPARK-41716] [SC-122545][CONNECT] Rinominare _catalog_to_pandas in _execute_and_fetch nel catalogo
- [SPARK-41490] [SC-121774][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][SPARK-41623][SPARK-41612][CONNECT] Implementare Catalog.cacheTable, isCached e uncache
- [SPARK-42191] [SC-121990][SQL] Supporto di udf 'luhn_check'
- [SPARK-42253] [SC-121976][PYTHON] Aggiungere il test per rilevare la classe di errore duplicata
- [SPARK-42268] [SC-122251][CONNECT][PYTHON] Aggiungere UserDefinedType in protos
- [SPARK-42231] [SC-121841][SQL] Trasforma
MISSING_STATIC_PARTITION_COLUMN
ininternalError
- [SPARK-42136] [SC-122554] Eseguire il refactoring del calcolo del partizionamento dell'output BroadcastHashJoinExec
- [SPARK-42158] [SC-121610][SQL] Integrazione
_LEGACY_ERROR_TEMP_1003
inFIELD_NOT_FOUND
- [SPARK-42192] [12.x][SC-121820][PYTHON] Eseguire la migrazione di TypeError da pyspark/sql/dataframe.py a PySparkTypeError
- [SPARK-35240] Ripristinare "[SC-118242][SS] Usare CheckpointFileManager ...
- [SPARK-41488] [SC-121858][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1176 (e 1177)
- [SPARK-42232] [SC-122267][SQL] Rinominare la classe di errore:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][SQL] Riscrivere aggregazioni distinte dopo l'unione di sottoquery
- [SPARK-42306] [SC-122539][SQL] Integrazione
_LEGACY_ERROR_TEMP_1317
inUNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-42234] [SC-122354][SQL] Rinominare la classe di errore:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
- [SPARK-42343] [SC-122437][CORE] Ignorare
IOException
inhandleBlockRemovalFailure
se SparkContext viene arrestato - [SPARK-41295] [SC-122442][SPARK-41296][SQL] Rinominare le classi di errore
- [SPARK-42320] [SC-122478][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][CONNECT] SparkConnectClient supporta ora RetryPolicies
- [SPARK-38728] [SC-116723][SQL] Testare la classe di errore: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Esempi autonomi in PySpark
- [SPARK-39347] [SC-122457][SS] Correzione di bug per il calcolo dell'intervallo di tempo quando l'ora < dell'evento 0
- [SPARK-42336] [SC-122458][CORE] Usare
getOrElse()
invece dicontains()
in ResourceAllocator - [SPARK-42125] [SC-121827][CONNECT][PYTHON] Funzione definita dall'utente Pandas in Spark Connect
- [SPARK-42217] [SC-122263][SQL] Supportare l'alias di colonna laterale implicito nelle query con Window
- [SPARK-35240] [SC-118242][SS] Usare CheckpointFileManager per la manipolazione dei file di checkpoint
- [SPARK-42294] [SC-122337][SQL] Includere i valori predefiniti della colonna nell'output DESCRIBE per le tabelle V2
- [SPARK-41979] Ripristinare "Ripristina "[12.x][SC-121190][SQL] Aggiungere punti mancanti per i messaggi di errore nelle classi di errore"."
- [SPARK-42286] [SC-122336][SQL] Eseguire il fallback al percorso di codice codegen precedente per espr complesso con CAST
- [SPARK-42275] [SC-122249][CONNECT][PYTHON] Evitare di usare l'elenco predefinito, dict nella digitazione statica
- [SPARK-41985] [SC-122172][SQL] Centralizzare più regole di risoluzione delle colonne
- [SPARK-42126] [SC-122330][PYTHON][CONNECT] Accettare il tipo restituito nelle stringhe DDL per le funzioni definite dall'utente scalari Python in Spark Connect
- [SPARK-42197] [SC-122328][SC-121514][CONNECT] Riutilizza l'inizializzazione di JVM e gruppi di configurazione separati da impostare in modalità locale remota
- [SPARK-41575] [SC-120118][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Ripristinare "[SC-122172][SQL] Centralizzare più regole di risoluzione delle colonne"
- [SPARK-42123] [SC-122234][SC-121453][SQL] Includere i valori predefiniti della colonna nell'output DESCRIBE e SHOW CREATE TABLE
- [SPARK-41985] [SC-122172][SQL] Centralizzare più regole di risoluzione delle colonne
- [SPARK-42284] [SC-122233][CONNECT] Assicurarsi che l'assembly del server di connessione venga compilato prima di eseguire test client - SBT
- [SPARK-42239] [SC-121790][SQL] Integrare
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42278] [SC-122170][SQL] Il pushdown di DS V2 supporta la compilazione
SortOrder
di dialetti JDBC autonomamente - [SPARK-42259] [SC-122168][SQL] ResolveGroupingAnalytics deve occuparsi di Python UDAF
- [SPARK-41979] Ripristinare "[12.x][SC-121190][SQL] Aggiungere punti mancanti per i messaggi di errore nelle classi di errore".
- [SPARK-42224] [12.x][SC-121708][CONNECT] Eseguire la migrazione di TypeError nel framework degli errori per le funzioni Spark Connect
- [SPARK-41712] [12.x][SC-121189][PYTHON][CONNECT] Eseguire la migrazione degli errori di Spark Connect nel framework di errore PySpark.
- [SPARK-42119] [SC-121913][SC-121342][SQL] Aggiungere funzioni predefinite con valori di tabella inline e inline_outer
- [SPARK-41489] [SC-121713][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][SC-121163][SPARK-41598][PYTHON][CONNECT] Introduzione a PySparkValueError e PySparkTypeError
- [SPARK-42081] [SC-121723][SQL] Migliorare la convalida delle modifiche del piano
- [SPARK-42225] [12.x][SC-121714][CONNECT] Aggiungere SparkConnectIllegalArgumentException per gestire esattamente l'errore Spark Connect.
- [SPARK-42044] [12.x][SC-121280][SQL] Correzione del messaggio di errore non corretto per
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][SC-121712][PS] Consente il parametro columns durante la creazione di dataframe con serie.
- [SPARK-42078] [12.x][SC-120761][PYTHON] Eseguire la migrazione degli errori generati da JVM in PySparkException.
- [SPARK-42133] [12.x][SC-121250] Aggiungere metodi API set di dati di base a SparkConnect Scala Client
- [SPARK-41979] [12.x][SC-121190][SQL] Aggiungere punti mancanti per i messaggi di errore nelle classi di errore.
- [SPARK-42124] [12.x][SC-121420][PYTHON][CONNECT] Funzione definita dall'utente Python inline scalare in Spark Connect
- [SPARK-42051] [SC-121994][SQL] Supporto di Codegen per HiveGenericUDF
- [SPARK-42257] [SC-121948][CORE] Rimuovere l'ordinamento esterno della variabile inutilizzata
- [SPARK-41735] [SC-121771][SQL] Usare MINIMAL anziché STANDARD per SparkListenerSQLExecutionEnd
- [SPARK-42236] [SC-121882][SQL] Raffinare
NULLABLE_ARRAY_OR_MAP_ELEMENT
- [SPARK-42233] [SC-121775][SQL] Migliorare il messaggio di errore per
PIVOT_AFTER_GROUP_BY
- [SPARK-42229] [SC-121856][CORE] Eseguire la migrazione
SparkCoreErrors
in classi di errore - [SPARK-42163] [SC-121839][SQL] Correzione dell'eliminazione dello schema per l'indice di matrice non piegabile o la chiave della mappa
- [SPARK-40711] [SC-119990][SQL] Aggiungere le metriche delle dimensioni della spill per la finestra
- [SPARK-42023] [SC-121847][SPARK-42024][CONNECT][PYTHON] Creare
createDataFrame
una coercizione del supportoAtomicType -> StringType
- [SPARK-42202] [SC-121837][Connetti][Test] Migliorare la logica di arresto del server di test E2E
- [SPARK-41167] [SC-117425][SQL] Migliorare le prestazioni multi like creando un predicato albero delle espressioni bilanciato
- [SPARK-41931] [SC-121618][SQL] Messaggio di errore migliore per la definizione incompleta del tipo complesso
- [SPARK-36124] [SC-121339][SC-110446][SQL] Supporto di sottoquery con correlazione tramite UNION
- [SPARK-42090] [SC-121290][3.3] Introdurre il conteggio dei tentativi sasl in RetryingBlockTransferor
- [SPARK-42157] [SC-121264][CORE]
spark.scheduler.mode=FAIR
deve fornire l'utilità di pianificazione FAIR - [SPARK-41572] [SC-120772][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2149
- [SPARK-41983] [SC-121224][SQL] Rinomina e migliora messaggio di errore per
NULL_COMPARISON_RESULT
- [SPARK-41976] [SC-121024][SQL] Migliorare il messaggio di errore per
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][SC-120573] Assegnare SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Tentativi di richiesta SASL
- [SPARK-38591] [SC-121018][SQL] Aggiungere flatMapSortedGroups e cogroupSorted
- [SPARK-41975] [SC-120767][SQL] Migliorare il messaggio di errore per
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][SQL][PROTOBUF] Aggiungere opzioni mancanti per le funzioni Protobuf
- [SPARK-41984] [SC-120769][SQL] Rinomina e migliora messaggio di errore per
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][SQL] Correzione del server dei criteri di rete per le classi di errore: CANNOT_PARSE_JSON_FIELD
- [SPARK-41772] [SC-121176][CONNECT][PYTHON] Correzione del nome di colonna non corretto nel
withField
documento - [SPARK-41283] [SC-121175][CONNECT][PYTHON] Aggiungi
array_append
a Connetti - [SPARK-41960] [SC-120773][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][SQL] Correzione di getPartitionFiltersAndDataFilters() per gestire i filtri senza attributi a cui si fa riferimento
- [SPARK-42096] [SC-121012][CONNECT] Pulizia del codice per
connect
il modulo - [SPARK-42099] [SC-121114][SPARK-41845][CONNECT][PYTHON] Correzione
count(*)
ecount(col(*))
- [SPARK-42045] [SC-120958][SC-120450][SQL] Modalità SQL ANSI: Round/Bround dovrebbe restituire un errore in caso di overflow intero
- [SPARK-42043] [SC-120968][CONNECT] Risultato client Scala con test E2E
- [SPARK-41884] [SC-121022][CONNECT] Supportare una tupla naïve come riga nidificata
- [SPARK-42112] [SC-121011][SQL][SS] Aggiungere un controllo Null prima
ContinuousWriteRDD#compute
della chiusura della funzionedataWriter
- [SPARK-42077] [SC-120553][CONNECT][PYTHON] Il valore letterale deve generare TypeError per un tipo di dati non supportato
- [SPARK-42108] [SC-120898][SQL] Trasformare Analizzatore
Count(*)
inCount(1)
- [SPARK-41666] [SC-120928][SC-119009][PYTHON] Supporto di SQL con parametri per
sql()
- [SPARK-40599] [SC-120930][SQL] Relax multiTransform rule type to allow alternatives to be any kinds of Seq
- [SPARK-41574] [SC-120771][SQL] Aggiornare
_LEGACY_ERROR_TEMP_2009
comeINTERNAL_ERROR
. - [SPARK-41579] [SC-120770][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1249
- [SPARK-41974] [SC-120766][SQL] Trasforma
INCORRECT_END_OFFSET
inINTERNAL_ERROR
- [SPARK-41530] [SC-120916][SC-118513][CORE] Rinominare MedianHeap in PercentileMap e supportare percentile
- [SPARK-41757] [SC-120608][SPARK-41901][CONNECT] Correzione della rappresentazione di stringa per la classe Column
- [SPARK-42084] [SC-120775][SQL] Evitare la perdita della restrizione di sola accesso qualificato
- [SPARK-41973] [SC-120765][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][SQL] SPJ: Rimuovi opzione in KeyGroupedPartitioning#partitionValuesOpt
- [SPARK-42079] [SC-120712][CONNECT][PYTHON] Rinominare i messaggi proto per
toDF
ewithColumnsRenamed
- [SPARK-42089] [SC-120605][CONNECT][PYTHON] Risolvere i problemi relativi al nome della variabile nelle funzioni lambda annidate
- [SPARK-41982] [SC-120604][SQL] Le partizioni di tipo string non devono essere considerate come tipi numerici
- [SPARK-40599] [SC-120620][SQL] Aggiungere metodi multiTransform a TreeNode per generare alternative
- [SPARK-42085] [SC-120556][CONNECT][PYTHON] Supporto dei
from_arrow_schema
tipi annidati - [SPARK-42057] [SC-120507][SQL][PROTOBUF] Correzione del modo in cui viene gestita l'eccezione nella segnalazione errori.
- [SPARK-41586] [12.x][TUTTI I TEST][SC-120544][PYTHON] Introdurre
pyspark.errors
classi di errore e per PySpark. - [SPARK-41903] [SC-120543][CONNECT][PYTHON]
Literal
deve supportare 1-dim ndarray - [SPARK-42021] [SC-120584][CONNECT][PYTHON] Supporto
createDataFrame
array.array
- [SPARK-41896] [SC-120506][SQL] Il filtro in base all'indice di riga restituisce risultati vuoti
- [SPARK-41162] [SC-119742][SQL] Correzione di anti-join e semi-join per il self-join con le aggregazioni
- [SPARK-41961] [SC-120501][SQL] Supportare funzioni con valori di tabella con LATERAL
- [SPARK-41752] [SC-120550][SQL][interfaccia utente] Raggruppare le esecuzioni annidate nell'esecuzione radice
- [SPARK-42047] [SC-120586][SPARK-41900][CONNECT][PYTHON][12.X] Il valore letterale deve supportare i tipi di dati Numpy
- [SPARK-42028] [SC-120344][CONNECT][PYTHON] Troncamento di nanosecondi timestampsl
- [SPARK-42011] [SC-120534][CONNECT][PYTHON] Implementare DataFrameReader.csv
- [SPARK-41990] [SC-120532][SQL] Usare
FieldReference.column
invece di nella conversione daapply
V1 a V2 del filtro - [SPARK-39217] [SC-120446][SQL] Rende il supporto DPP sul lato di eliminazione ha Unione
- [SPARK-42076] [SC-120551][CONNECT][PYTHON] Conversione dei dati dei fattori
arrow -> rows
inconversion.py
- [SPARK-42074] [SC-120540][SQL] Abilitare
KryoSerializer
inTPCDSQueryBenchmark
per applicare la registrazione della classe SQL - [SPARK-42012] [SC-120517][CONNECT][PYTHON] Implementare DataFrameReader.orc
- [SPARK-41832] [SC-120513][CONNECT][PYTHON] Correzione
DataFrame.unionByName
di , aggiunta di allow_missing_columns - [SPARK-38651] [SC-120514] [SQL] Aggiungere
spark.sql.legacy.allowEmptySchemaWrite
- [SPARK-41991] [SC-120406][SQL]
CheckOverflowInTableInsert
deve accettare ExpressionProxy come figlio - [SPARK-41232] [SC-120073][SQL][PYTHON] Aggiunta di array_append funzione
- [SPARK-42041] [SC-120512][SPARK-42013][CONNECT][PYTHON] DataFrameReader deve supportare l'elenco dei percorsi
- [SPARK-42071] [SC-120533][CORE] Registrarsi
scala.math.Ordering$Reverse
a KyroSerializer - [SPARK-41986] [SC-120429][SQL] Introdurre shuffle in SinglePartition
- [SPARK-42016] [SC-120428][CONNECT][PYTHON] Abilitare i test correlati alla colonna nidificata
- [SPARK-42042] [SC-120427][CONNECT][PYTHON]
DataFrameReader
deve supportare lo schema StructType - [SPARK-42031] [SC-120389][CORE][SQL] Pulire i
remove
metodi che non richiedono l'override - [SPARK-41746] [SC-120463][SPARK-41838][SPARK-41837][SPARK-41835][SPARK-41836][SPARK-41847][CONNECT][PYTHON] Supporto dei
createDataFrame(rows/lists/tuples/dicts)
tipi annidati - [SPARK-41437] [SC-117601][SQL][TUTTI I TEST] Non ottimizzare due volte la query di input per il fallback di scrittura v1
- [SPARK-41840] [SC-119719][CONNECT][PYTHON] Aggiungere l'alias mancante
groupby
- [SPARK-41846] [SC-119717][CONNECT][PYTHON] Abilitare doctest per le funzioni finestra
- [SPARK-41914] [SC-120094][SQL] FileFormatWriter materializza il piano AQE prima di accedere a outputOrdering
- [SPARK-41805] [SC-119992][SQL] Riutilizzare le espressioni in WindowSpecDefinition
- [SPARK-41977] [SC-120269][SPARK-41978][CONNECT] SparkSession.range per accettare float come argomenti
- [SPARK-42029] [SC-120336][CONNECT] Aggiungere regole di Guava Shading per
connect-common
evitare errori di avvio - [SPARK-41989] [SC-120334][PYTHON] Evitare l'interruzione della configurazione della registrazione da pyspark.pandas
- [SPARK-42003] [SC-120331][SQL] Ridurre il codice duplicato in ResolveGroupByAll
- [SPARK-41635] [SC-120313][SQL] Correggere il gruppo in base a tutte le segnalazioni di errori
- [SPARK-41047] [SC-120291][SQL] Migliorare la documentazione per l'arrotondamento
- [SPARK-41822] [SC-120122][CONNECT] Configurare la connessione gRPC per il client Scala/JVM
- [SPARK-41879] [SC-120264][CONNECT][PYTHON] Supporto dei
DataFrame.collect
tipi annidati - [SPARK-41887] [SC-120268][CONNECT][PYTHON] Impostare
DataFrame.hint
il parametro tipizzato per l'elenco di accettazione - [SPARK-41964] [SC-120210][CONNECT][PYTHON] Aggiungere l'elenco delle funzioni I/O non supportate
- [SPARK-41595] [SC-120097][SQL] Funzione del generatore di supporto esplodere/explode_outer nella clausola FROM
- [SPARK-41957] [SC-120121][CONNECT][PYTHON] Abilitare il documento per
DataFrame.hint
- [SPARK-41886] [SC-120141][CONNECT][PYTHON]
DataFrame.intersect
L'output doctest ha un ordine diverso - [SPARK-41442] [SC-117795][SQL][TUTTI I TEST] Aggiornare solo il valore SQLMetric se si esegue l'unione con una metrica valida
- [SPARK-41944] [SC-120046][CONNECT] Passare le configurazioni quando la modalità remota locale è attivata
- [SPARK-41708] [SC-119838][SQL] Eseguire il pull delle informazioni sulla versione 1write in
WriteFiles
- [SPARK-41780] [SC-120000][SQL] Dovrebbe generare INVALID_PARAMETER_VALUE. PATTERN quando i
regexp
parametri non sono validi - [SPARK-41889] [SC-119975][SQL] Collegare la causa radice alle classi di errore invalidPatternError e refactoring INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][SQL] Creare classi case avroScanBuilder e JsonScanBuilder
- [SPARK-41945] [SC-120010][CONNECT][PYTHON] Python: connettere i dati delle colonne persi dal client con pyarrow. Table.to_pylist
- [SPARK-41690] [SC-119102][SC-119087][SQL][CONNECT] Codificatori indipendenti
- [SPARK-41354] [SC-119995][CONNECT][PYTHON] Implementare RepartitionByExpression
- [SPARK-41581] [SC-119997][SQL] Aggiorna
_LEGACY_ERROR_TEMP_1230
comeINTERNAL_ERROR
- [SPARK-41928] [SC-119972][CONNECT][PYTHON] Aggiungere l'elenco non supportato per
functions
- [SPARK-41933] [SC-119980][CONNECT] Specificare la modalità locale che avvia automaticamente il server
- [SPARK-41899] [SC-119971][CONNECT][PYTHON] createDataFrame' deve rispettare lo schema DDL fornito dall'utente
- [SPARK-41936] [SC-119978][CONNECT][PYTHON] Riutilizzare
withMetadata
ilwithColumns
proto - [SPARK-41898] [SC-119931][CONNECT][PYTHON] Window.rowsBetween, Window.rangeBetween parameters typechecking parity with pyspark
- [SPARK-41939] [SC-119977][CONNECT][PYTHON] Aggiungere l'elenco non supportato per
catalog
le funzioni - [SPARK-41924] [SC-119946][CONNECT][PYTHON] Make StructType supporta i metadati e Implementa
DataFrame.withMetadata
- [SPARK-41934] [SC-119967][CONNECT][PYTHON] Aggiungere l'elenco di funzioni non supportate per
session
- [SPARK-41875] [SC-119969][CONNECT][PYTHON] Aggiungere test case per
Dataset.to()
- [SPARK-41824] [SC-119970][CONNECT][PYTHON] Ingore il documento per spiegare la connessione
- [SPARK-41880] [SC-119959][CONNECT][PYTHON] Rendere la funzione
from_json
accettare uno schema non letterale - [SPARK-41927] [SC-119952][CONNECT][PYTHON] Aggiungere l'elenco non supportato per
GroupedData
- [SPARK-41929] [SC-119949][CONNECT][PYTHON] Aggiungere una funzione
array_compact
- [SPARK-41827] [SC-119841][CONNECT][PYTHON] Imposta
GroupBy
l'elenco di colonne accept - [SPARK-41925] [SC-119905][SQL] Abilita
spark.sql.orc.enableNestedColumnVectorizedReader
per impostazione predefinita - [SPARK-41831] [SC-119853][CONNECT][PYTHON] Imposta
DataFrame.select
l'elenco di colonne accept - [SPARK-41455] [SC-119858][CONNECT][PYTHON] Eliminare
DataFrame.collect
le informazioni sul fuso orario - [SPARK-41923] [SC-119861][CONNECT][PYTHON] Aggiungere
DataFrame.writeTo
all'elenco non supportato - [SPARK-41912] [SC-119837][SQL] La sottoquery non deve convalidare il CTE
- [SPARK-41828] [SC-119832][CONNECT][PYTHON][12.X] Supporto
createDataFrame
del dataframe vuoto - [SPARK-41905] [SC-119848][CONNECT] Supporto del nome come stringhe nella sezione
- [SPARK-41869] [SC-119845][CONNECT] Rifiutare una singola stringa in dropDuplicates
- [SPARK-41830] [SC-119840][CONNECT][PYTHON] Accettare
DataFrame.sample
gli stessi parametri di PySpark - [SPARK-41849] [SC-119835][CONNECT] Implementare DataFrameReader.text
- [SPARK-41861] [SC-119834][SQL] Eseguire l'analisi tipizzata build() di ScanBuilders v2
- [SPARK-41825] [SC-119710][CONNECT][PYTHON] Abilitare i documenti correlati a
DataFrame.show
- [SPARK-41855] [SC-119804][SC-119410][SPARK-41814][SPARK-41851][SPARK-41852][CONNECT][PYTHON][12.X] Make
createDataFrame
handle None/NaN correttamente - [SPARK-41833] [SC-119685][SPARK-41881][SPARK-41815][CONNECT][PYTHON] Make
DataFrame.collect
handle None/NaN/Array/Binary porperly - [SPARK-39318] [SC-119713][SQL] Rimuovere i file d'oro tpch-plan-stability WithStats
- [SPARK-41791] [SC-119745] Aggiungere nuovi tipi di colonna dei metadati dell'origine file
- [SPARK-41790] [SC-119729][SQL] Impostare correttamente il formato del lettore e del writer TRANSFORM
- [SPARK-41829] [SC-119725][CONNECT][PYTHON] Aggiungere il parametro di ordinamento mancante in
Sort
esortWithinPartitions
- [SPARK-41576] [SC-119718][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][CONNECT][PYTHON] Correzione del test del documento per DataFrame.describe
- [SPARK-41871] [SC-119714][CONNECT] Il parametro hint del dataframe può essere str, float o int
- [SPARK-41720] [SC-119076][SQL] Rinominare UnresolvedFunc in UnresolvedFunctionName
- [SPARK-41573] [SC-119567][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][SQL] Correzione del bug di correzione relativo ai valori DEFAULT nel lettore Orc
- [SPARK-41582] [SC-119482][SC-118701][CORE][SQL] Riutilizzare
INVALID_TYPED_LITERAL
invece di_LEGACY_ERROR_TEMP_0022
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 12.2.
Ambiente di sistema
- Sistema operativo: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.19
- R: 4.2.2
- Delta Lake: 2.2.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttoken | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | cryptography | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0.11 | entrypoints | 0.4 | executing | 0.8.3 |
facet-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.8 | numpy | 1.21.5 | packaging | 21.3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
requests | 2.27.1 | requests-unixsocket | 0.2.0 | rope | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
six | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2022-11-11.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
freccia | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1.0-8 | brio | 1.1.3 |
Scopa | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compilatore | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credentials | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | datasets | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
puntini di sospensione | 0.3.2 | evaluate | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generics | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafica | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1,40 |
Etichettatura | 0.4.2 | later | 1.3.0 | Lattice | 0.20-45 |
Java | 1.7.0 | lifecycle | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58.2 | Matrice | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | Concetto fondamentale | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Avanzamento | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | ricette | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | Scalabilità | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | Forma | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | spaziale | 7.3-11 | Spline | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
Sopravvivenza | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0,42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0.4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-consultas | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeina | caffeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocità | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 2.2.1 |
dev.sdk.netlib | blas | 2.2.1 |
dev.sdk.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato freccia | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | freccia-vettore | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shim | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | codifica parquet | 1.12.3-databricks-0002 |
org.apache.parquet | strutture parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | maglia-comune | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Spessori | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | inutilizzato | 1.0.0 |
org.threeten | treten-extra | 1.5.0 |
org.cortanaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |