Databricks Runtime 15.2
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 15.2, basate su Apache Spark 3.5.0.
Databricks ha rilasciato questa versione nel maggio 2024.
Suggerimento
Per visualizzare le note sulla versione per le versioni di Databricks Runtime che hanno raggiunto la fine del supporto (EoS), vedere Note sulla versione della fine del supporto di Databricks Runtime. Le versioni EoS di Databricks Runtime sono state ritirate e potrebbero non essere aggiornate.
Modifiche comportamentali
Vacuum pulisce i file di metadati COPY INTO
L'esecuzione di VACUUM in una tabella scritta con COPY INTO
ora pulisce i metadati non referenziati associati al rilevamento dei file inseriti. Non c'è alcun impatto sulla semantica operativa di COPY INTO
.
Lakehouse Federation è disponibile a livello generale
In Databricks Runtime 15.2 e versioni successive, i connettori Lakehouse Federation nei tipi di database seguenti sono disponibili a livello generale :
- MySQL
- PostgreSQL
- Amazon Redshift
- Snowflake
- Microsoft SQL Server
- Azure Synapse (SQL Data Warehouse)
- Databricks
Questa versione introduce anche i miglioramenti seguenti:
Supporto per l'autenticazione Single Sign-On (SSO) nei connettori Snowflake e Microsoft SQL Server.
Il supporto per il collegamento privato di Azure nel connettore SQL Server da ambienti di calcolo serverless. Si veda Passaggio 3: Creare regole per endpoint privati.
Supporto per i pushdown aggiuntivi (string, math e funzioni varie).
Miglioramento della frequenza di successo del pushdown tra forme di query diverse.
Funzionalità di debug pushdown aggiuntive:
- L'output
EXPLAIN FORMATTED
visualizza il testo della query di cui è stato eseguito il push. - L'interfaccia utente del profilo di query visualizza il testo della query di cui è stato eseguito il push, gli identificatori dei nodi federati e i tempi di esecuzione delle query JDBC (in modalità dettagliata). Vedere Visualizzare le query federate generate dal sistema.
- L'output
BY POSITION
per il mapping delle colonne con COPY INTO
file CSV senza intestazione
In Databricks Runtime 15.2 e versioni successive è possibile usare le parole chiave (o la BY POSITION
sintassi ( col_name [ , <col_name> ... ] )
alternativa ) con COPY INTO
per i file CSV senza intestazione per semplificare il mapping delle colonne della tabella di origine al mapping delle colonne della tabella di destinazione. Vedere Parametri.
Ridurre il consumo di memoria quando le attività Spark hanno esito negativo con un Resubmitted
errore
In Databricks Runtime 15.2 e versioni successive il valore restituito del metodo Spark TaskInfo.accumulables()
è vuoto quando le attività hanno esito negativo con un Resubmitted
errore. In precedenza, il metodo restituiva i valori di un tentativo precedente di attività riuscito. Questa modifica del comportamento influisce sui consumer seguenti:
- Attività Spark che usano la
EventLoggingListener
classe . - Listener Spark personalizzati.
Per ripristinare il comportamento precedente, impostare spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled
su false
.
La visualizzazione delle versioni del piano di esecuzione delle query adattive è disabilitata
Per ridurre il consumo di memoria, le versioni del piano AQE (Adaptive Query Execution) sono ora disabilitate per impostazione predefinita nell'interfaccia utente di Spark. Per abilitare la visualizzazione delle versioni del piano AQE nell'interfaccia utente di Spark, impostare su spark.databricks.sql.aqe.showPlanChangesInUI.enabled
true
.
Il limite per le query conservate viene ridotto per ridurre l'utilizzo della memoria dell'interfaccia utente Spark
In Databricks Runtime 15.2 e versioni successive, per ridurre la memoria usata dall'interfaccia utente spark nell'ambiente di calcolo di Azure Databricks, il limite per il numero di query visibili nell'interfaccia utente viene ridotto da 1000 a 100. Per modificare il limite, impostare un nuovo valore usando la spark.sql.ui.retainedExecutions
configurazione di Spark.
DESCRIBE HISTORY
mostra ora le colonne di clustering per le tabelle che usano clustering liquido
Quando si esegue una query DESCRIBE HISTORY
, la colonna operationParameters
mostra un campo clusterBy
per impostazione predefinita per le operazioni CREATE OR REPLACE
e OPTIMIZE
. Per una tabella Delta che usa clustering liquido, il campo clusterBy
viene popolato con le colonne di clustering della tabella. Se la tabella non usa il clustering liquido, il campo è vuoto.
Miglioramenti e nuove funzionalità
Il supporto per le chiavi primarie ed esterne è disponibile a livello generale
Il supporto per le chiavi primarie ed esterne in Databricks Runtime è disponibile a livello generale. La versione a disponibilità generale include le modifiche seguenti ai privilegi necessari per usare chiavi primarie ed esterne:
- Per definire una chiave esterna, è necessario avere il privilegio
SELECT
per la tabella con la chiave primaria a cui fa riferimento la chiave esterna. Non è necessario possedere la tabella con la chiave primaria, richiesta in precedenza. - L'eliminazione di una chiave primaria tramite la clausola
CASCADE
non richiede privilegi per le tabelle che definiscono chiavi esterne che fanno riferimento alla chiave primaria. In precedenza, era necessario possedere le tabelle di riferimento. - L'eliminazione di una tabella che include vincoli richiede ora gli stessi privilegi di eliminazione delle tabelle che non includono vincoli.
Per informazioni su come usare chiavi primarie ed esterne con tabelle o viste, vedere clausola CONSTRAINT, clausola ADD CONSTRAINT e clausola DROP CONSTRAINT.
Clustering liquido disponibile a livello generale
Il supporto per il clustering liquido è ora disponibile a livello generale con Databricks Runtime 15.2 e versioni successive. Vedere Usare il clustering liquido per le tabelle Delta.
L'estensione dei tipi è disponibile in anteprima pubblica
È ora possibile abilitare l'estensione dei tipi nelle tabelle supportate da Delta Lake. Le tabelle con tipo esteso abilitato consentono di modificare il tipo di colonne in un tipo di dati più ampio senza riscrivere i file di dati sottostanti. Vedere Estensione del tipo.
Clausola di evoluzione dello schema aggiunta alla sintassi di merge SQL
È ora possibile aggiungere la clausola WITH SCHEMA EVOLUTION
a un'istruzione di merge SQL per abilitare l'evoluzione dello schema per l'operazione. Vedere Sintassi dell'evoluzione dello schema per unire.
Le origini dati personalizzate pySpark sono disponibili in anteprima pubblica
È possibile creare un'origine dati PySpark usando l'API DataSource Python (PySpark), che consente la lettura da origini dati personalizzate e la scrittura in sink di dati personalizzati in Apache Spark usando Python. Vedere Origini dati personalizzate pySpark
applyInPandas e mapInPandas ora disponibili nell'ambiente di calcolo del catalogo Unity con modalità di accesso condiviso
Nell'ambito di una versione applyInPandas
di manutenzione di Databricks Runtime 14.3 LTS e mapInPandas
i tipi UDF sono ora supportati nel calcolo in modalità di accesso condiviso che esegue Databricks Runtime 14.3 e versioni successive.
Usare dbutils.widgets.getAll() per ottenere tutti i widget in un notebook
Usare dbutils.widgets.getAll()
per ottenere tutti i valori dei widget in un notebook. Ciò è particolarmente utile quando si passano più valori di widget a una query Spark SQL.
Supporto dell'inventario vuoto
È ora possibile specificare un inventario dei file da considerare quando si esegue il comando VACUUM
in una tabella Delta. Vedere la documentazione di OSS Delta.
Supporto per le funzioni di compressione Zstandard
È ora possibile usare le funzioni zst_compress, zstd_decompress e try_zstd_decompress per comprimere e decomprimere i dati BINARY
.
Correzioni di bug
I piani di query nell'interfaccia utente SQL adesso mostrano correttamente PhotonWriteStage
Quando vengono visualizzati nell'interfaccia utente SQL, i comandi write
nei piani di query mostravano PhotonWriteStage
erroneamente come operatore. Con questa versione, l'interfaccia utente viene aggiornata per mostrare PhotonWriteStage
come fase. Si tratta solo di una modifica dell'interfaccia utente e non influisce sulla modalità di esecuzione delle query.
Ray viene aggiornato per risolvere i problemi relativi all'avvio dei cluster Ray
Questa versione include una versione patch di Ray che corregge una modifica di rilievo che impedisce ai cluster Ray di iniziare con Databricks Runtime per Machine Learning. Questa modifica garantisce che la funzionalità Ray sia identica alle versioni di Databricks Runtime precedenti alla versione 15.2.
GraphFrames viene aggiornato per correggere i risultati non corretti con Spark 3.5
Questa versione include un aggiornamento del pacchetto GraphFrames per risolvere i problemi che causano risultati non corretti per alcuni algoritmi con GraphFrame e Spark 3.5.
Correzione della classe di errore per DataFrame.sort()
le funzioni e DataFrame.sortWithinPartitions()
Questa versione include un aggiornamento delle funzioni e PySpark DataFrame.sort()
per assicurarsi che la ZERO_INDEX
classe di errore venga generata quando 0
viene passata come argomento di indice.DataFrame.sortWithinPartitions()
In precedenza, la classe INDEX_NOT_POSITIVE
di errore è stata generata.
ipywidgets è stato effettuato il downgrade da 8.0.4 a 7.7.2
Per correggere gli errori introdotti da un aggiornamento di ipywidgets a 8.0.4 in Databricks Runtime 15.0, ipywidgets viene effettuato il downgrade alla versione 7.7.2 in Databricks Runtime 15.2. Questa è la stessa versione inclusa nelle versioni precedenti di Databricks Runtime.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- GitPython dalla versione 3.1.42 alla versione 3.1.43
- google-api-core da 2.17.1 a 2.18.0
- Google-auth dalla versione 2.28.1 alla versione 2.29.0
- google-cloud-storage dalla versione 2.15.0 alla versione 2.16.0
- googleapis-common-protos da 1.62.0 a 1.63.0
- ipywidgets da 8.0.4 a 7.7.2
- mlflow-skinny da 2.11.1 a 2.11.3
- s3transfer from 0.10.0 to 0.10.1
- sqlparse da 0.4.4 a 0.5.0
- typing_extensions dalla versione 4.7.1 alla versione 4.10.0
- Librerie R aggiornate:
- Librerie Java aggiornate:
- com.amazonaws.aws-java-sdk-autoscaling da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-config da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-core da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-directconnect da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-directory da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-ec2 da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-ecs da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-efs da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-elasticache da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-emr da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-glacier da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-glue da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-iam da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-importexport da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-[...]s da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-kms da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-lambda da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-logs da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-opsworks da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-rds da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-redshift da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-route53 da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-s3 da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-ses da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-simpledb da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-sns da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-sqs da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-ssm da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-sts da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-support da 1.12.390 a 1.12.610
- com.amazonaws.aws-java-sdk-workspaces da 1.12.390 a 1.12.610
- com.amazonaws.jmespath-java da 1.12.390 a 1.12.610
Apache Spark
Databricks Runtime 15.2 include Apache Spark 3.5.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 15.1 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-47941] [SC-163568] [SS] [Connetti] Propagare gli errori di inizializzazione del ruolo di lavoro ForeachBatch agli utenti per PySpark
- [SPARK-47412] [SC-163455][SQL] Aggiungere il supporto delle regole di confronto per LPad/RPad.
- [SPARK-47907] [SC-163408][SQL] Mettere bang sotto una configurazione
- [SPARK-46820] [SC-157093][PYTHON] Correggere la regressione del messaggio di errore ripristinando
new_msg
- [SPARK-47602] [SPARK-47577][SPARK-47598][SPARK-47577]Core/MLLib/Resource Manager: migrazione della registrazione strutturata
- [SPARK-47890] [SC-163324][CONNECT][PYTHON] Aggiungere funzioni varianti a Scala e Python.
- [SPARK-47894] [SC-163086][CORE][WEBUI] Aggiungere
Environment
una pagina all'interfaccia utente master - [SPARK-47805] [SC-163459][SS] Implementazione della durata (TTL) per MapState
- [SPARK-47900] [SC-163326] Correzione delle regole di confronto implicite (UTF8_BINARY)
- [SPARK-47902] [SC-163316][SQL]Rendere le espressioni Compute Current Time* pieghevoli
- [SPARK-47845] [SC-163315][SQL][PYTHON][CONNECT] Supportare il tipo di colonna nella funzione divisa per scala e Python
- [SPARK-47754] [SC-162144][SQL] Postgres: supporto per la lettura di matrici multidimensionali
- [SPARK-47416] [SC-163001][SQL] Aggiungere nuove funzioni a CollationBenchmark #90339
- [SPARK-47839] [SC-163075][SQL] Correzione del bug di aggregazione in RewriteWithExpression
- [SPARK-47821] [SC-162967][SQL] Implementare l'espressione is_variant_null
- [SPARK-47883] [SC-163184][SQL] Rendere
CollectTailExec.doExecute
lazy con RowQueue - [SPARK-47390] [SC-163306][SQL] PostgresDialect distingue TIMESTAMP da TIMESTAMP_TZ
- [SPARK-47924] [SC-163282][CORE] Aggiungere un log DEBUG a
DiskStore.moveFileToBlock
- [SPARK-47897] [SC-163183][SQL][3.5] Correzione della regressione delle prestazioni di ExpressionSet in scala 2.12
- [SPARK-47565] [SC-161786][PYTHON] Resilienza dell'arresto anomalo del pool di lavoro PySpark
- [SPARK-47885] [SC-162989][PYTHON][CONNECT] Rendere pyspark.resource compatibile con pyspark-connect
- [SPARK-47887] [SC-163122][CONNECT] Rimuovere l'importazione
spark/connect/common.proto
inutilizzata daspark/connect/relations.proto
- [SPARK-47751] [SC-161991][PYTHON][CONNECT] Rendere pyspark.worker_utils compatibile con pyspark-connect
- [SPARK-47691] [SC-161760][SQL] Postgres: supportare una matrice multidimensionale sul lato scrittura
- [SPARK-47617] [SC-162513][SQL] Aggiungere l'infrastruttura di test TPC-DS per le regole di confronto
- [SPARK-47356] [SC-162858][SQL] Aggiunta del supporto per ConcatWs & Elt (tutte le regole di confronto)
- [SPARK-47543] [SC-161234][CONNECT][PYTHON] Inferenza
dict
dalMapType
dataframe Pandas per consentire la creazione di dataframe - [SPARK-47863] [SC-162974][SQL] Correzione dell'implementazione di startsWith & endsWith con riconoscimento delle regole di confronto per l'ICU
- [SPARK-47867] [SC-162966][SQL] Supportare la variante nell'analisi JSON.
- [SPARK-47366] [SC-162475][SQL][PYTHON] Aggiungere VariantVal per PySpark
- [SPARK-47803] [SC-162726][SQL] Cast del supporto alla variante.
- [SPARK-47769] [SC-162841][SQL] Aggiungere schema_of_variant_agg'espressione.
- [SPARK-47420] [SC-162842][SQL] Correzione dell'output del test
- [SPARK-47430] [SC-161178][SQL] Supporto di GROUP BY per MapType
- [SPARK-47357] [SC-162751][SQL] Aggiunta del supporto per Upper, Lower, InitCap (tutte le regole di confronto)
- [SPARK-47788] [SC-162729][SS] Verificare lo stesso partizionamento hash per le operazioni con stato di streaming
- [SPARK-47776] [SC-162291][SS] Non consentire regole di confronto di disuguaglianza binaria da usare nello schema della chiave dell'operatore con stato
- [SPARK-47673] [SC-162824][SS] Implementazione di TTL per ListState
- [SPARK-47818] [SC-162845][CONNECT] Introdurre la cache dei piani in SparkConnectPlanner per migliorare le prestazioni delle richieste di analisi
- [SPARK-47694] [SC-162783][CONNECT] Rendere configurabili le dimensioni massime dei messaggi sul lato client
- [SPARK-47274] Ripristinare "[SC-162479][PYTHON][SQL] Fornire altro usef...
- [SPARK-47616] [SC-161193][SQL] Aggiungere un documento utente per il mapping dei tipi di dati SPARK SQL da MySQL
- [SPARK-47862] [SC-162837][PYTHON][CONNECT]Correzione della generazione di file proto
- [SPARK-47849] [SC-162724][PYTHON][CONNECT] Modificare lo script di versione per rilasciare pyspark-connect
- [SPARK-47410] [SC-162518][SQL] Eseguire il refactoring di UTF8String e CollationFactory
- [SPARK-47807] [SC-162505][PYTHON][ML] Rendere pyspark.ml compatibile con pyspark-connect
- [SPARK-47707] [SC-161768][SQL] Gestione speciale del tipo JSON per il connettore MySQL/J 5.x
- [SPARK-47765] Ripristinare "[SC-162636][SQL] Aggiungere SET COLLATION per l'analisi...
- [SPARK-47081] [SC-162151][CONNECT][FOLLOW] Miglioramento dell'usabilità del gestore di stato
- [SPARK-47289] [SC-161877][SQL] Consenti alle estensioni di registrare le informazioni estese nel piano di spiegazione
- [SPARK-47274] [SC-162479][PYTHON][SQL] Fornire un contesto più utile per gli errori dell'API DataFrame PySpark
- [SPARK-47765] [SC-162636][SQL] Aggiungere SET COLLATION alle regole del parser
- [SPARK-47828] [SC-162722][CONNECT][PYTHON]
DataFrameWriterV2.overwrite
ha esito negativo con piano non valido - [SPARK-47812] [SC-162696][CONNECT] Supporto della serializzazione di SparkSession per il ruolo di lavoro ForEachBatch
- [SPARK-47253] [SC-162698][CORE] Consenti l'arresto di LiveEventBus senza svuotare completamente la coda di eventi
- [SPARK-47827] [SC-162625][PYTHON] Avvisi mancanti per le funzionalità deprecate
- [SPARK-47733] [SC-162628][SS] Aggiungere metriche personalizzate per la parte dell'operatore transformWithState dello stato di avanzamento della query
- [SPARK-47784] [SC-162623][SS] Unire TTLMode e TimeoutMode in un singolo TimeMode.
- [SPARK-47775] [SC-162319][SQL] Supportare i tipi scalari rimanenti nella specifica di variante.
- [SPARK-47736] [SC-162503][SQL] Aggiunta del supporto per AbstractArrayType
- [SPARK-47081] [SC-161758][CONNECT] Supporto dello stato di esecuzione delle query
- [SPARK-47682] [SC-162138][SQL] Supporto del cast dalla variante.
- [SPARK-47802] [SC-162478][SQL] Ripristinare () dal significato dello struct() al significato *
- [SPARK-47680] [SC-162318][SQL] Aggiungere variant_explode'espressione.
- [SPARK-47809] [SC-162511][SQL]
checkExceptionInExpression
deve controllare l'errore per ogni modalità codegen - [SPARK-41811] [SC-162470][PYTHON][CONNECT] Implementare
SQLStringFormatter
conWithRelations
- [SPARK-47693] [SC-162326][SQL] Aggiungere l'ottimizzazione per il confronto in minuscolo di UTF8String usato nelle regole di confronto UTF8_BINARY_LCASE
- [SPARK-47541] [SC-162006][SQL] Stringhe collate in tipi complessi che supportano operazioni inverse, array_join, concat, map
- [SPARK-46812] [SC-161535][CONNECT][PYTHON] Rendere mapInPandas/mapInArrow support ResourceProfile
- [SPARK-47727] [SC-161982][PYTHON] Impostare SparkConf sul livello radice per SparkSession e SparkContext
- [SPARK-47406] [SC-159376][SQL] Gestire TIMESTAMP e DATETIME in MYSQLDialect
- [SPARK-47081] Ripristinare "[SC-161758][CONNECT] Support Query Executi...
- [SPARK-47681] [SC-162043][SQL] Aggiungere schema_of_variant'espressione.
- [SPARK-47783] [SC-162222] Aggiungere alcuni SQLSTATEs mancanti per pulire l'YY000 da usare...
- [SPARK-47634] [SC-161558][SQL] Aggiungere il supporto legacy per disabilitare la normalizzazione delle chiavi della mappa
- [SPARK-47746] [SC-162022] Implementare la codifica dell'intervallo basato su ordinale in RocksDBStateEncoder
- [SPARK-47285] [SC-158340][SQL] AdaptiveSparkPlanExec deve usare sempre context.session
- [SPARK-47643] [SC-161534][SS][PYTHON] Aggiungere il test pyspark per l'origine di streaming Python
- [SPARK-47582] [SC-161943][SQL] Eseguire la migrazione di Catalyst logInfo con variabili al framework di registrazione strutturata
- [SPARK-47558] [SC-162007][SS] Supporto della durata (TTL) dello stato per ValueState
- [SPARK-47358] [SC-160912][SQL][REGOLE DI CONFRONTO] Migliorare il supporto delle espressioni di ripetizione per restituire il tipo di dati corretto
- [SPARK-47504] [SC-162044][SQL] Risolvere abstractDataType simpleStrings per StringTypeCollated
- [SPARK-47719] Ripristinare "[SC-161909][SQL] Modificare spark.sql.legacy.t...
- [SPARK-47657] [SC-162010][SQL] Implementare il supporto per il push down del filtro delle regole di confronto per ogni origine file
- [SPARK-47081] [SC-161758][CONNECT] Supporto dello stato di esecuzione delle query
- [SPARK-47744] [SC-161999] Aggiunta del supporto per byte con valori negativi nel codificatore di intervalli
- [SPARK-47713] [SC-162009][SQL][CONNECT] Correzione di un errore di self-join
- [SPARK-47310] [SC-161930][SS] Aggiungere micro benchmark per le operazioni di merge per più valori nella parte del valore dell'archivio stati
- [SPARK-47700] [SC-161774][SQL] Correzione della formattazione dei messaggi di errore con treeNode
- [SPARK-47752] [SC-161993][PS][CONNECT] Rendere pyspark.pandas compatibile con pyspark-connect
- [SPARK-47575] [SC-161402][SPARK-47576][SPARK-47654] Implementare l'API logWarning/logInfo nel framework di registrazione strutturata
- [SPARK-47107] [SC-161201][SS][PYTHON] Implementare il lettore di partizioni per l'origine dati di streaming Python
- [SPARK-47553] [SC-161772][SS] Aggiungere il supporto Java per le API dell'operatore transformWithState
- [SPARK-47719] [SC-161909][SQL] Modificare il valore predefinito di spark.sql.legacy.timeParserPolicy su CORRETTO
- [SPARK-47655] [SC-161761][SS] Integrare il timer con la gestione dello stato iniziale per state-v2
- [SPARK-47665] [SC-161550][SQL] Usare SMALLINT per scrivere shorttype in MYSQL
- [SPARK-47210] [SC-161777][SQL] Aggiunta del cast implicito senza supporto indeterminato
- [SPARK-47653] [SC-161767][SS] Aggiunta del supporto per i tipi numerici negativi e il codificatore di chiavi di analisi dell'intervallo
- [SPARK-46743] [SC-160777][SQL] Conteggio bug dopo la riduzione costante
- [SPARK-47525] [SC-154568][SQL] Supporto della correlazione di sottoquery join sugli attributi della mappa
- [SPARK-46366] [SC-151277][SQL] Usare l'espressione WITH in BETWEEN per evitare espressioni duplicate
- [SPARK-47563] [SC-161183][SQL] Aggiungere la normalizzazione della mappa alla creazione
- [SPARK-42040] [SC-161171][SQL] SPJ: Introdurre una nuova API per la partizione di input V2 per segnalare le statistiche delle partizioni
- [SPARK-47679] [SC-161549][SQL] Usare
HiveConf.getConfVars
o usare direttamente nomi di conf Hive - [SPARK-47685] [SC-161566][SQL] Ripristinare il supporto per
Stream
il tipo inDataset#groupBy
- [SPARK-47646] [SC-161352][SQL] Impostare try_to_number restituire NULL per l'input in formato non valido
- [SPARK-47366] [SC-161324][PYTHON] Aggiungere alias pyspark e dataframe parse_json
- [SPARK-47491] [SC-161176][CORE] Aggiungere
slf4j-api
jar al percorso della classe prima delle altre directoryjars
- [SPARK-47270] [SC-158741][SQL] Dataset.isEmpty projects CommandResults localmente
- [SPARK-47364] [SC-158927][CORE] Avvisare
PluginEndpoint
quando i plug-in rispondono per un messaggio unidirezionale - [SPARK-47280] [SC-158350][SQL] Rimuovere la limitazione del fuso orario per ORACLE TIMESTAMP WITH TIMEZONE
- [SPARK-47551] [SC-161542][SQL] Aggiungere variant_get espressione.
- [SPARK-47559] [SC-161255][SQL] Supporto codegen per variant
parse_json
- [SPARK-47572] [SC-161351][SQL] Imponi partizione FinestraSpec è ordinabile.
- [SPARK-47546] [SC-161241][SQL] Migliorare la convalida durante la lettura di Variant da Parquet
- [SPARK-47543] [SC-161234][CONNECT][PYTHON] Inferenza
dict
dalMapType
dataframe Pandas per consentire la creazione di dataframe - [SPARK-47485] [SC-161194][SQL][PYTHON][CONNECT] Creare una colonna con regole di confronto nell'API del dataframe
- [SPARK-47641] [SC-161376][SQL] Migliorare le prestazioni per
UnaryMinus
eAbs
- [SPARK-47631] [SC-161325][SQL] Rimuovere il metodo inutilizzato
SQLConf.parquetOutputCommitterClass
- [SPARK-47674] [SC-161504][CORE] Abilita
spark.metrics.appStatusSource.enabled
per impostazione predefinita - [SPARK-47273] [SC-161162][SS][PYTHON] implementa l'interfaccia del writer del flusso di dati Python.
- [SPARK-47637] [SC-161408][SQL] Usare errorCapturingIdentifier in più posizioni
- [SPARK-47497] Ripristinare "Revert "[SC-160724][SQL] Make to_csv supportare l'output di array/struct/map/binary come stringhe carine""
- [SPARK-47492] [SC-161316][SQL] Ampliare le regole degli spazi vuoti in lexer
- [SPARK-47664] [SC-161475][PYTHON][CONNECT] Convalidare il nome della colonna con lo schema memorizzato nella cache
- [SPARK-47638] [SC-161339][PS][CONNECT] Ignorare la convalida del nome della colonna in PS
- [SPARK-47363] [SC-161247][SS] Stato iniziale senza implementazione del lettore di stato per l'API stato v2.
- [SPARK-47447] [SC-160448][SQL] Consenti lettura parquet TimestampLTZ come TimestampNTZ
- [SPARK-47497] Ripristinare "[SC-160724][SQL] Rendere
to_csv
supportato l'output diarray/struct/map/binary
come stringhe carine" - [SPARK-47434] [SC-160122][WEBUI] Correzione
statistics
del collegamento inStreamingQueryPage
- [SPARK-46761] [SC-159045][SQL] Le stringhe racchiuse tra virgolette in un percorso JSON devono supportare ? characters
- [SPARK-46915] [SC-155729][SQL] Semplificare
UnaryMinus
Abs
e allineare la classe di errore - [SPARK-47431] [SC-160919][SQL] Aggiungere regole di confronto predefinite a livello di sessione
- [SPARK-47620] [SC-161242][PYTHON][CONNECT] Aggiungere una funzione helper per ordinare le colonne
- [SPARK-47570] [SC-161165][SS] Integrare le modifiche del codificatore di analisi dell'intervallo con l'implementazione del timer
- [SPARK-47497] [SC-160724][SQL] Supportare
to_csv
l'output diarray/struct/map/binary
come stringhe piuttosto belle - [SPARK-47562] [SC-161166][CONNECT] Gestione dei valori letterali fattori da
plan.py
- [SPARK-47509] [SC-160902][SQL] Blocca le espressioni di sottoquery nelle funzioni lambda e di ordine superiore
- [SPARK-47539] [SC-160750][SQL] Rendere il valore restituito del metodo
castToString
Any => UTF8String
- [SPARK-47372] [SC-160905][SS] Aggiunta del supporto per il codificatore dello stato della chiave basata sull'analisi di intervalli da usare con il provider dell'archivio stati
- [SPARK-47517] [SC-160642][CORE][SQL] Preferisce Utils.bytesToString per la visualizzazione delle dimensioni
- [SPARK-47243] [SC-158059][SS] Correggere il nome del pacchetto di
StateMetadataSource.scala
- [SPARK-47367] [SC-160913][PYTHON][CONNECT] Supportare le origini dati Python con Spark Connect
- [SPARK-47521] [SC-160666][CORE] Usare
Utils.tryWithResource
durante la lettura di dati casuali da una risorsa di archiviazione esterna - [SPARK-47474] [SC-160522][CORE] Ripristinare SPARK-47461 e aggiungere alcuni commenti
- [SPARK-47560] [SC-160914][PYTHON][CONNECT] Evitare RPC di convalidare il nome della colonna con lo schema memorizzato nella cache
- [SPARK-47451] [SC-160749][SQL] Supporto to_json(variant).
- [SPARK-47528] [SC-160727][SQL] Aggiungere il supporto userDefinedType a DataTypeUtils.canWrite
- [SPARK-44708] Ripristinare "[SC-160734][PYTHON] Eseguire la migrazione test_reset_index assert_eq per usare assertDataFrameEqual"
- [SPARK-47506] [SC-160740][SQL] Aggiunta del supporto a tutti i formati di origine file per i tipi di dati compressi
- [SPARK-47256] [SC-160784][SQL] Assegnare nomi alle classi di errore _LEGACY_ERROR_TEMP_102[4-7]
- [SPARK-47495] [SC-160720][CORE] Correzione del file JAR della risorsa primaria aggiunto due volte a spark.jars in modalità cluster k8s
- [SPARK-47398] [SC-160572][SQL] Estrarre un tratto per InMemoryTableScanExec per consentire l'estensione delle funzionalità
- [SPARK-47479] [SC-160623][SQL] L'ottimizzazione non può scrivere dati nelle relazioni con più percorsi del log degli errori
- [SPARK-47483] [SC-160629][SQL] Aggiunta del supporto per le operazioni di aggregazione e join su matrici di stringhe collate
- [SPARK-47458] [SC-160237][CORE] Risolvere il problema con il calcolo delle attività simultanee massime per la fase della barriera
- [SPARK-47534] [SC-160737][SQL] Sposta
o.a.s.variant
ino.a.s.types.variant
- [SPARK-47396] [SC-159312][SQL] Aggiungere un mapping generale per TIME WITHOUT TIME ZONE a TimestampNTZType
- [SPARK-44708] [SC-160734][PYTHON] Eseguire la migrazione test_reset_index assert_eq per usare assertDataFrameEqual
- [SPARK-47309] [SC-157733][SC-160398][SQL] XML: Aggiungere test di inferenza dello schema per i tag valore
- [SPARK-47007] [SC-160630][SQL] Aggiungere l'espressione
MapSort
- [SPARK-47523] [SC-160645][SQL] Sostituire deprecato
JsonParser#getCurrentName
conJsonParser#currentName
- [SPARK-47440] [SC-160635][SQL] Correzione del push della sintassi non supportata in MsSqlServer
- [SPARK-47512] [SC-160617][SS] Tipo di operazione tag usata con l'acquisizione/rilascio del blocco dell'istanza dell'archivio stati RocksDB
- [SPARK-47346] [SC-159425][PYTHON] Rendere configurabile la modalità daemon durante la creazione di ruoli di lavoro di Python Planner
- [SPARK-47446] [SC-160163][CORE] Avvisa
BlockManager
primaremoveBlockInternal
- [SPARK-46526] [SC-156099][SQL] Supporto di LIMIT su sottoquery correlate in cui i predicati fanno riferimento solo a una tabella esterna
- [SPARK-47461] [SC-160297][CORE] Rimuovere una funzione
totalRunningTasksPerResourceProfile
privata daExecutorAllocationManager
- [SPARK-47422] [SC-160219][SQL] Supportare stringhe con regole di confronto nelle operazioni di matrice
- [SPARK-47500] [SC-160627][PYTHON][CONNECT] Factor column name handling out of
plan.py
- [SPARK-47383] [SC-160144][CORE] Configurazione del supporto
spark.shutdown.timeout
- [SPARK-47342] [SC-159049]Ripristinare "[SQL] Supporto timestampNTZ per DB2 TIMESTAMP WITH TIME ZONE"
- [SPARK-47486] [SC-160491][CONNECT] Rimuovere il metodo privato
ArrowDeserializers.getString
inutilizzato - [SPARK-47233] [SC-154486][CONNECT][SS][2/2] Logica client e server per il listener di query di streaming lato client
- [SPARK-47487] [SC-160534][SQL] Semplificare il codice in AnsiTypeCoercion
- [SPARK-47443] [SC-160459][SQL] Supporto dell'aggregazione finestra per le regole di confronto
- [SPARK-47296] [SC-160457][SQL][REGOLE DI CONFRONTO] Non è possibile eseguire funzioni non supportate per le regole di confronto non binarie
- [SPARK-47380] [SC-160164][CONNECT] Verificare sul lato server che SparkSession sia lo stesso
- [SPARK-47327] [SC-160069][SQL] Spostare il test di concorrenza delle chiavi di ordinamento in CollationFactorySuite
- [SPARK-47494] [SC-160495][Doc] Aggiungere la documentazione sulla migrazione per la modifica del comportamento dell'inferenza del timestamp Parquet a partire da Spark 3.3
- [SPARK-47449] [SC-160372][SS] Eseguire il refactoring e suddividere gli unit test elenco/timer
- [SPARK-46473] [SC-155663][SQL] Riutilizzare
getPartitionedFile
il metodo - [SPARK-47423] [SC-160068][SQL] Regole di confronto - Impostare il supporto delle operazioni per le stringhe con regole di confronto
- [SPARK-47439] [SC-160115][PYTHON] Documentare l'API origine dati Python nella pagina di riferimento dell'API
- [SPARK-47457] [SC-160234][SQL] Correzione
IsolatedClientLoader.supportsHadoopShadedClient
per gestire Hadoop 3.4+ - [SPARK-47366] [SC-159348][SQL] Implementare parse_json.
- [SPARK-46331] [SC-152982][SQL] Rimozione di CodegenFallback dal subset di espressioni DateTime e version()
- [SPARK-47395] [SC-159404] Aggiungere regole di confronto e regole di confronto ad altre API
- [SPARK-47437] [SC-160117][PYTHON][CONNECT] Correggere la classe di errore per
DataFrame.sort*
- [SPARK-47174] [SC-154483][CONNECT][SS][1/2] Server side SparkConnectListenerBusListener for Client side streaming query listener
- [SPARK-47324] [SC-158720][SQL] Aggiungere la conversione di timestamp mancanti per i tipi annidati JDBC
- [SPARK-46962] [SC-158834][SS][PYTHON] Aggiungere l'interfaccia per l'API dell'origine dati di streaming Python e implementare il ruolo di lavoro Python per eseguire l'origine dati di streaming Python
- [SPARK-45827] [SC-158498][SQL] Spostare i controlli dei tipi di dati in CreatableRelationProvider
- [SPARK-47342] [SC-158874][SQL] Supporto di TimestampNTZ per DB2 TIMESTAMP WITH TIME ZONE
- [SPARK-47399] [SC-159378][SQL] Disabilitare le colonne generate nelle espressioni con regole di confronto
- [SPARK-47146] [SC-158247][CORE] Possibile perdita di thread quando si esegue l'ordinamento merge join
- [SPARK-46913] [SC-159149][SS] Aggiunta del supporto per i timer basati sull'elaborazione/l'ora dell'evento con l'operatore transformWithState
- [SPARK-47375] [SC-159063][SQL] Aggiungere linee guida per il mapping di timestamp in
JdbcDialect#getCatalystType
- [SPARK-47394] [SC-159282][SQL] Supporto di TIMESTAMP CON FUSO ORARIO per H2Dialect
- [SPARK-45827] Ripristinare "[SC-158498][SQL] Spostare i controlli del tipo di dati in ...
- [SPARK-47208] [SC-159279][CORE] Consenti l'override della memoria sovraccarico di base
- [SPARK-42627] [SC-158021][SPARK-26494][SQL] Supporto di Oracle TIMESTAMP CON FUSO ORARIO LOCALE
- [SPARK-47055] [SC-156916][PYTHON] Aggiornare MyPy 1.8.0
- [SPARK-46906] [SC-157205][SS] Aggiungere un controllo per la modifica dell'operatore con stato per lo streaming
- [SPARK-47391] [SC-159283][SQL] Rimuovere la soluzione alternativa del test case per JDK 8
- [SPARK-47272] [SC-158960][SS] Aggiungere l'implementazione mapState per l'API State v2.
- [SPARK-47375] [SC-159278][Doc][FollowUp] Correggere un errore nella documentazione dell'opzione preferTimestampNTZ di JDBC
- [SPARK-42328] [SC-157363][SQL] Rimuovere _LEGACY_ERROR_TEMP_1175 dalle classi di errore
- [SPARK-47375] [SC-159261][Doc][FollowUp] Correggere la descrizione dell'opzione preferTimestampNTZ nel documento JDBC
- [SPARK-47344] [SC-159146] Estendere INVALID_IDENTIFIER errore oltre a intercettare '-' in un identificatore non racchiuso tra virgolette e correggere "IS ! NULL" et al.
- [SPARK-47340] [SC-159039][SQL] Modificare "collate" in StringType typename in minuscolo
- [SPARK-47087] [SC-157077][SQL] Generare l'eccezione di Spark con una classe di errore nel controllo del valore di configurazione
- [SPARK-47327] [SC-158824][SQL] Risolvere il problema di thread safety nel collator di ICU
- [SPARK-47082] [SC-157058][SQL] Correzione della condizione di errore out-of-bounds
- [SPARK-47331] [SC-158719][SS] Serializzazione usando classi di maiuscole/minuscole/primitive/POJO basate sul codificatore SQL per l'API stato arbitrario v2.
- [SPARK-47250] [SC-158840][SS] Aggiungere altre convalide e modifiche NERF per il provider di stato RocksDB e l'uso delle famiglie di colonne
- [SPARK-47328] [SC-158745][SQL] Rinominare le regole di confronto UCS_BASIC in UTF8_BINARY
- [SPARK-47207] [SC-157845][CORE] Supporto
spark.driver.timeout
eDriverTimeoutPlugin
- [SPARK-47370] [SC-158956][Doc] Aggiungere la documentazione sulla migrazione: Inferenza del tipo TimestampNTZ nei file Parquet
- [SPARK-47309] [SC-158827][SQL][XML] Aggiungere unit test di inferenza dello schema
- [SPARK-47295] [SC-158850][SQL] Aggiunta di StringSearch ICU per le
startsWith
funzioni eendsWith
- [SPARK-47343] [SC-158851][SQL] Correzione del server dei criteri di rete quando
sqlString
il valore della variabile è una stringa Null nell'esecuzione immediata - [SPARK-46293] [SC-150117][CONNECT][PYTHON] Usare la
protobuf
dipendenza transitiva - [SPARK-46795] [SC-154143][SQL] Sostituisci
UnsupportedOperationException
conSparkUnsupportedOperationException
insql/core
- [SPARK-46087] [SC-149023][PYTHON] Sincronizzare le dipendenze pySpark nei documenti e nei requisiti di sviluppo
- [SPARK-47169] [SC-158848][SQL] Disabilitare il bucket sulle colonne collate
- [SPARK-42332] [SC-153996][SQL] Modifica della richiesta in un'eccezione SparkException in ComplexType MergeExpression
- [SPARK-45827] [SC-158498][SQL] Spostare i controlli dei tipi di dati in CreatableRelationProvider
- [SPARK-47341] [SC-158825][Connetti] Sostituire i comandi con le relazioni in alcuni test in SparkConnectClientSuite
- [SPARK-43255] [SC-158026][SQL] Sostituire la classe di errore _LEGACY_ERROR_TEMP_2020 da un errore interno
- [SPARK-47248] [SC-158494][SQL][REGOLE DI CONFRONTO] Supporto migliorato per le funzioni stringa: contiene
- [SPARK-47334] [SC-158716][SQL] Riusare
withColumnRenamed
l'implementazione diwithColumnsRenamed
- [SPARK-46442] [SC-153168][SQL] DS V2 supporta il push di PERCENTILE_CONT e PERCENTILE_DISC
- [SPARK-47313] [SC-158747][SQL] Aggiunta di scala. Gestione di MatchError all'interno di QueryExecution.toInternalError
- [SPARK-45827] [SC-158732][SQL] Aggiungere un tipo singleton variant per Java
- [SPARK-47337] [SC-158743][SQL][DOCKER] Aggiornare la versione dell'immagine Docker DB2 alla versione 11.5.8.0
- [SPARK-47302] [SC-158609][SQL] Parola chiave Collate come identificatore
- [SPARK-46817] [SC-154196][CORE] Correggere l'utilizzo
spark-daemon.sh
aggiungendo ildecommission
comando - [SPARK-46739] [SC-153553][SQL] Aggiungere la classe error
UNSUPPORTED_CALL
- [SPARK-47102] [SC-158253][SQL] Aggiungere il
COLLATION_ENABLED
flag di configurazione - [SPARK-46774] [SC-153925][SQL][AVRO] Usare mapreduce.output.fileoutputformat.compress anziché mapred.output.compress deprecato nei processi di scrittura Avro
- [SPARK-45245] [SC-146961][PYTHON][CONNECT] PythonWorkerFactory: timeout se il ruolo di lavoro non si connette.
- [SPARK-46835] [SC-158355][SQL][Regole di confronto] Supporto di join per regole di confronto non binarie
- [SPARK-47131] [SC-158154][SQL][REGOLE DI CONFRONTO] Supporto delle funzioni stringa: contiene, startswith, endswith
- [SPARK-46077] [SC-157839][SQL] Si consideri il tipo generato da TimestampNTZConverter in JdbcDialect.compileValue.
- [SPARK-47311] [SC-158465][SQL][PYTHON] Eliminare le eccezioni Python in cui PySpark non è nel percorso Python
- [SPARK-47319] [SC-158599][SQL] Migliorare il calcolo missingInput
- [SPARK-47316] [SC-158606][SQL] Correzione di TimestampNTZ nella matrice Postgres
- [SPARK-47268] [SC-158158][SQL][Regole di confronto] Supporto per la ripartizione con regole di confronto
- [SPARK-47191] [SC-157831][SQL] Evitare la ricerca di relazioni non necessarie durante l'annullamento del controllo della tabella/vista
- [SPARK-47168] [SC-158257][SQL] Disabilitare il pushdown del filtro Parquet quando si utilizzano stringhe non predefinite con regole di confronto
- [SPARK-47236] [SC-158015][CORE] Correzione
deleteRecursivelyUsingJavaIO
per ignorare l'input di file non esistente - [SPARK-47238] [SC-158466][SQL] Ridurre l'utilizzo della memoria dell'executor rendendo il codice generato in WSCG una variabile broadcast
- [SPARK-47249] [SC-158133][CONNECT] Correzione del bug in cui tutte le esecuzioni di connessione vengono considerate abbandonate indipendentemente dal relativo stato effettivo
- [SPARK-47202] [SC-157828][PYTHON] Correzione di un'interruzione di tipo typo datetimes con tzinfo
- [SPARK-46834] [SC-158139][SQL][Regole di confronto] Supporto per le aggregazioni
- [SPARK-47277] [SC-158351][3.5] La funzione PySpark util assertDataFrameEqual non deve supportare la funzione di streaming DF
- [SPARK-47155] [SC-158473][PYTHON] Correzione del problema della classe di errore
- [SPARK-47245] [SC-158163][SQL] Migliorare il codice di errore per INVALID_PARTITION_COLUMN_DATA_TYPE
- [SPARK-39771] [SC-158425][CORE] Aggiungere un messaggio di avviso in
Dependency
quando deve essere creato un numero eccessivo di blocchi casuali. - [SPARK-47277] [SC-158329] La funzione pySpark util assertDataFrameEqual non deve supportare la funzione di streaming DF
- [SPARK-47293] [SC-158356][CORE] Compilare batchSchema con sparkSchema invece di accodarne uno per uno
- [SPARK-46732] [SC-153517][CONNECT]Rendere il thread Subquery/Broadcast funzionante con la gestione degli artefatti di Connect
- [SPARK-44746] [SC-158332][PYTHON] Aggiungere altre documentazione UDTF python per le funzioni che accettano tabelle di input
- [SPARK-47120] [SC-157517][SQL] Il push del filtro dati di confronto Null dalla sottoquery produce in NPE nel filtro Parquet
- [SPARK-47251] [SC-158291][PYTHON] Blocca tipi non validi dall'argomento per
sql
ilargs
comando - [SPARK-47251] Ripristinare "[SC-158121][PYTHON] Blocca tipi non validi dall'argomento per
sql
ilargs
comando" - [SPARK-47015] [SC-157900][SQL] Disabilitare il partizionamento nelle colonne collate
- [SPARK-46846] [SC-154308][CORE]
Serializable
EstendereWorkerResourceInfo
in modo esplicito - [SPARK-46641] [SC-156314][SS] Aggiungere la soglia maxBytesPerTrigger
- [SPARK-47244] [SC-158122][CONNECT]
SparkConnectPlanner
rendere private le funzioni interne - [SPARK-47266] [SC-158146][CONNECT] Restituire
ProtoUtils.abbreviate
lo stesso tipo dell'input - [SPARK-46961] [SC-158183][SS] Uso di ProcessorContext per archiviare e recuperare handle
- [SPARK-46862] [SC-154548][SQL] Disabilitare l'eliminazione delle colonne CSV nella modalità a più righe
- [SPARK-46950] [SC-155803][CORE][SQL] Allineare
not available codec
la classe di errore - [SPARK-46368] [SC-153236][CORE] Supporto
readyz
nell'API di invio REST - [SPARK-46806] [SC-154108][PYTHON] Migliorare il messaggio di errore per spark.table quando il tipo di argomento non è corretto
- [SPARK-47211] [SC-158008][CONNECT][PYTHON] Correzione delle regole di confronto delle stringhe PySpark Connect ignorate
- [SPARK-46552] [SC-151366][SQL] Sostituisci
UnsupportedOperationException
conSparkUnsupportedOperationException
incatalyst
- [SPARK-47147] [SC-157842][PYTHON][SQL] Correzione dell'errore di conversione di stringhe con regole di confronto pySpark
- [SPARK-47144] [SC-157826][CONNECT][SQL][PYTHON] Correggere l'errore delle regole di confronto di Spark Connect aggiungendo il campo protobuf collateId
- [SPARK-46575] [SC-153200][SQL][HIVE] Rendere Retriable HiveThriftServer2.startWithContext DevelopApi retriable e correggere flakiness of ThriftServerWithSparkContextInHttpSuite
- [SPARK-46696] [SC-153832][CORE] In ResourceProfileManager le chiamate di funzione devono essere eseguite dopo le dichiarazioni di variabili
- [SPARK-47214] [SC-157862][Python] Creare l'API UDTF per il metodo 'analyze' per distinguere gli argomenti NULL costanti e altri tipi di argomenti
- [SPARK-46766] [SC-153909][SQL][AVRO] Supporto del pool di buffer ZSTD per l'origine dati AVRO
- [SPARK-47192] [SC-157819] Convertire alcuni errori di _LEGACY_ERROR_TEMP_0035
- [SPARK-46928] [SC-157341][SS] Aggiungere il supporto per ListState nell'API Stato arbitrario v2.
- [SPARK-46881] [SC-154612][CORE] Appoggiare
spark.deploy.workerSelectionPolicy
- [SPARK-46800] [SC-154107][CORE] Appoggiare
spark.deploy.spreadOutDrivers
- [SPARK-45484] [SC-146014][SQL] Correzione del bug che usa codec di compressione parquet non corretto lz4raw
- [SPARK-46791] [SC-154018][SQL] Supporto del set Java in JavaTypeInference
- [SPARK-46332] [SC-150224][SQL] Eseguire la migrazione
CatalogNotFoundException
alla classe di erroreCATALOG_NOT_FOUND
- [SPARK-47164] [SC-157616][SQL] Impostare il valore predefinito da un valore più ampio di tipo narrow letterale v2 si comporta come v1
- [SPARK-46664] [SC-153181][CORE] Migliorare
Master
il ripristino rapidamente in caso di zero ruoli di lavoro e app - [SPARK-46759] [SC-153839][SQL][AVRO] Codec xz e zstandard supportano il livello di compressione per i file avro
Supporto del driver ODBC/JDBC di Databricks
Databricks supporta i driver ODBC/JDBC rilasciati negli ultimi 2 anni. Scaricare i driver rilasciati di recente e aggiornare (scaricare ODBC, scaricare JDBC).
Vedere Aggiornamenti della manutenzione di Databricks Runtime 15.2.
Ambiente di sistema
- Sistema operativo: Ubuntu 22.04.4 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
asttoken | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | cloudpickle | 2.2.1 | serv | 0.1.2 |
contourpy | 1.0.5 | cryptography | 41.0.3 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | distlib | 0.3.8 |
entrypoints | 0.4 | executing | 0.8.3 | facet-overview | 1.1.1 |
filelock | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | packaging | 23.2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
requests | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | six | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wheel | 0.38.4 | zipp | 3.11.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot posit Gestione pacchetti CRAN.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
freccia | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | boot | 1.3-28 |
brew | 1.0-10 | brio | 1.1.4 | Scopa | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
clock | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compilatore | 4.3.2 |
config | 0.3.2 | in conflitto | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | datasets | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
diagramma | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | puntini di sospensione | 0.3.2 | evaluate | 0,23 |
fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
future | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
generics | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.2 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafica | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
highr | 0,10 | hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Iteratori | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1.45 | Etichettatura | 0.4.3 |
later | 1.3.2 | Lattice | 0.21-8 | Java | 1.7.3 |
lifecycle | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
Matrice | 1.5-4.1 | memoise | 2.0.1 | methods | 4.3.2 |
mgcv | 1.8-42 | mime | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
parallelly | 1.36.0 | Concetto fondamentale | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | Avanzamento | 1.2.3 |
progressr | 0.14.0 | promises | 1.2.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reagibile | 0.4.4 |
reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
ricette | 1.0.9 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
Scalabilità | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
Forma | 1.4.6 | shiny | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | spaziale | 7.3-15 | Spline | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
Sopravvivenza | 3.5-5 | Swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0.49 | tools | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
UTF8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-consultas | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeina | caffeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 3.0.3 |
dev.sdk.netlib | blas | 3.0.3 |
dev.sdk.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | formato freccia | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | freccia-vettore | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shim | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-all | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Spessori | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatibile con scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | treten-extra | 1.7.1 |
org.cortanaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |