Databricks Runtime 15.4 LTS
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 15.4 LTS, con tecnologia Apache Spark 3.5.0.
Databricks ha rilasciato questa versione nell'agosto 2024.
Nota
LTS indica che questa versione è supportata a lungo termine. Vedere Ciclo di vita della versione LTS di Databricks Runtime.
Suggerimento
Per visualizzare le note sulla versione per le versioni di Databricks Runtime che hanno raggiunto la fine del supporto (EoS), vedere Note sulla versione della fine del supporto di Databricks Runtime. Le versioni EoS di Databricks Runtime sono state ritirate e potrebbero non essere aggiornate.
Modifiche comportamentali
- L'uso di come
VARIANT
tipo di input o output con una funzione definita dall'utente Python, UDAF o UDTF genera un'eccezione - Passare alla modalità di binding dello schema predefinita per le visualizzazioni
- Non consentire l'uso della sintassi
!
non documentata anziché di espressioni booleane esterneNOT
- Non consentire la sintassi della definizione di colonna non documentata nelle visualizzazioni
- Gestione degli errori coerente per la decodifica Base64 in Spark e Photon
- L'aggiunta di un
CHECK
vincolo in una colonna non valida restituisce ora il UNRESOLVED_COLUMN. classe di errore WITH_SUGGESTION
L'uso di come VARIANT
tipo di input o output con una funzione definita dall'utente Python, UDAF o UDTF genera un'eccezione
[Modifica di rilievo] In Databricks Runtime 15.3 e versioni successive, chiamando qualsiasi funzione definita dall'utente (UDF) Python, funzione di aggregazione definita dall'utente (UDAF) o funzione di tabella definita dall'utente (UDTF) che usa un VARIANT
tipo come argomento o valore restituito genera un'eccezione. Questa modifica viene apportata per evitare problemi che potrebbero verificarsi a causa di un valore non valido restituito da una di queste funzioni. Per altre informazioni sul tipo VARIANT
, vedere Usare VARIANT per archiviare dati semistrutturati.
Passare alla modalità di binding dello schema predefinita per le visualizzazioni
Le visualizzazioni si adattano ora alle modifiche dello schema nella query sottostante usando la compensazione dello schema con regole di cast regolari. Si tratta di una modifica rispetto all'impostazione predefinita precedente della modalità BINDING
, la quale ha generato errori quando non è stato possibile eseguire un cast sicuro nel fare riferimento alla visualizzazione.
Vedere CREATE VIEW e funzione cast.
Non consentire l'uso della sintassi non documentata !
anziché di NOT
espressioni booleane esterne
Con questa versione, l'uso di !
come sinonimo di NOT
al di fuori delle espressioni booleane non è più consentito. Ad esempio, istruzioni come le seguenti: CREATE ... IF ! EXISTS
, IS ! NULL, una proprietà di colonna o campo ! NULL
, ! IN
e ! BETWEEN, devono essere sostituite con: CREATE ... IF NOT EXISTS
, IS NOT NULL
, una proprietà colonna o campo NOT NULL
, NOT IN
e NOT BETWEEN
.
Questa modifica garantisce la coerenza, l'allineamento allo standard SQL e rende SQL più portabile.
L'operatore di prefisso booleano !
(ad esempio, !is_mgr
o !(true AND false)
) non è interessato da questa modifica.
Non consentire la sintassi della definizione di colonna non documentata nelle visualizzazioni
Databricks supporta CREATE VIEW con colonne denominate e commenti di colonna. In precedenza, la specifica di tipi di colonna, vincoli NOT NULL
o DEFAULT
è stata consentita. Con questa versione, non è più possibile usare questa sintassi.
Questa modifica garantisce coerenza, si allinea allo standard SQL e supporta miglioramenti futuri.
Gestione degli errori coerente per la decodifica Base64 in Spark e Photon
Questa versione modifica il modo in cui Photon gestisce gli errori di decodifica Base64 in modo che corrispondano alla gestione spark di questi errori. Prima di queste modifiche, il percorso di generazione del codice Photon e Spark talvolta non è riuscito a generare eccezioni di analisi, mentre l'esecuzione interpretata di Spark è stata generata IllegalArgumentException
correttamente o ConversionInvalidInputError
. Questo aggiornamento garantisce che Photon generi in modo coerente le stesse eccezioni di Spark durante gli errori di decodifica Base64, offrendo una gestione degli errori più prevedibile e affidabile.
L'aggiunta di un CHECK
vincolo in una colonna non valida restituisce ora il UNRESOLVED_COLUMN. classe di errore WITH_SUGGESTION
Per fornire messaggi di errore più utili, in Databricks Runtime 15.3 e versioni successive un'istruzione ALTER TABLE ADD CONSTRAINT
che include un vincolo che fa riferimento a un nome di colonna CHECK
non valido restituisce la classe di errore UNRESOLVED_COLUMN.WITH_SUGGESTION. In precedenza, veniva restituito un oggetto INTERNAL_ERROR
.
Miglioramenti e nuove funzionalità
- Funzioni di convalida UTF-8
- funzioni to_avro e from_avro
- API del set di dati tipizzato con funzioni definite dall'utente scala
- Abilitare UniForm Iceberg con ALTER TABLE
- funzione try_url_decode
- Facoltativamente, consentire all'ottimizzatore di basarsi su vincoli di chiave esterna non attivati
- Esecuzioni di processi parallelizzati per sovrascritture selettive
- Miglioramento delle prestazioni per il feed di dati delle modifiche con sovrascritture selettive
- Miglioramento della latenza delle query per il
COPY INTO
comando - Supporto per l'eliminazione della funzionalità della tabella dei vincoli check
- Il calcolo utente singolo supporta il controllo di accesso con granularità fine, le viste materializzate e le tabelle di streaming (anteprima pubblica)
- Supporto esteso per le librerie Java e Scala
- Supporto espanso per le operazioni del set di dati Scala
- Scala è disponibile a livello generale nel calcolo condiviso del catalogo unity
- Accesso regolamentato dal catalogo Unity ai servizi cloud esterni usando le credenziali del servizio (anteprima pubblica)
Funzioni di convalida UTF-8
Questa versione introduce le funzioni seguenti per la convalida delle stringhe UTF-8:
- is_valid_utf8 verifica se una stringa è una stringa UTF-8 valida.
- make_valid_utf8 converte una stringa UTF-8 potenzialmente non valida in una stringa UTF-8 valida usando caratteri di sostituzione
- validate_utf8 genera un errore se l'input non è una stringa UTF-8 valida.
- try_validate_utf8 restituisce
NULL
se l'input non è una stringa UTF-8 valida.
funzioni to_avro e from_avro
Le funzioni to_avro e from_avro consentono la conversione di tipi SQL in dati binari Avro e indietro.
API del set di dati tipizzato con funzioni definite dall'utente scala
Questa versione include il supporto aggiunto per le API del set di dati tipizzato con funzioni definite dall'utente scala (escluse le funzioni di aggregazione definite dall'utente) nel calcolo abilitato per Unity Catalog con modalità di accesso condiviso. Vedere API del set di dati tipizzato.
Abilitare UniForm Iceberg con ALTER TABLE
È ora possibile abilitare UniForm Iceberg nelle tabelle esistenti senza riscrivere i file di dati. Vedere Abilitare modificando una tabella esistente.
funzione try_url_decode
Questa versione introduce la funzione try_url_decode che decodifica una stringa con codifica URL. Se la stringa non è nel formato corretto, la funzione restituisce NULL
anziché generare un errore.
Facoltativamente, consentire all'ottimizzatore di basarsi su vincoli di chiave esterna non attivati
Per migliorare le prestazioni delle query, è ora possibile specificare la parola chiave RELY
sui vincoli FOREIGN KEY
quando si usano CREATE o ALTER per una tabella.
Esecuzioni di processi parallelizzati per sovrascritture selettive
Le sovrascritture selettive che usano replaceWhere
ora eseguono processi che eliminano i dati e inseriscono nuovi dati in parallelo, migliorando le prestazioni delle query e l'utilizzo del cluster.
Miglioramento delle prestazioni per il feed di dati delle modifiche con sovrascritture selettive
Le sovrascritture selettive che usano replaceWhere
nelle tabelle con feed di dati delle modifiche non scrivono più file di dati di modifica separati per i dati inseriti. Queste operazioni usano una colonna _change_type
nascosta presente nei file di dati Parquet sottostanti per registrare le modifiche senza amplificazione di scrittura.
Miglioramento della latenza delle query per il COPY INTO
comando
Questa versione include una modifica che migliora la latenza della query per il comando COPY INTO
. Questo miglioramento viene implementato rendendo asincrono il caricamento dello stato dall'archivio stati RocksDB. Con questa modifica, si noterà un miglioramento dei tempi di inizio per le query con stati di grandi dimensioni, ad esempio le query con un numero elevato di file già inseriti.
Supporto per l'eliminazione della funzionalità della tabella dei vincoli check
È ora possibile eliminare la checkConstraints
funzionalità tabella da una tabella Delta usando ALTER TABLE table_name DROP FEATURE checkConstraints
. Vedere Disabilitare i vincoli check.
Il calcolo utente singolo supporta il controllo di accesso con granularità fine, le viste materializzate e le tabelle di streaming (anteprima pubblica)
Quando un'area di lavoro è abilitata per il calcolo serverless, Databricks Runtime 15.4 LTS aggiunge il supporto per il controllo di accesso con granularità fine in un ambiente di calcolo singolo utente. Quando una query accede a uno degli oggetti seguenti, la singola risorsa di calcolo utente in Databricks Runtime 15.4 LTS passa la query al calcolo serverless per eseguire il filtro dei dati:
- Viste definite sulle tabelle in cui l'utente non dispone dei
SELECT
privilegi. - Visualizzazioni dinamiche.
- Tabelle con filtri di riga o maschere di colonna applicate.
- Viste materializzate e tabelle di streaming.
Queste query non sono supportate nel calcolo a singolo utente che esegue Databricks Runtime 15.3 e versioni successive.
Per altre informazioni, vedere Controllo di accesso con granularità fine per il calcolo di un singolo utente.
Supporto esteso per le librerie Java e Scala
A partire da Databricks Runtime 15.4 LTS, tutte le librerie Java e Scala in bundle con Databricks Runtime sono disponibili in tutte le modalità di accesso alle risorse di calcolo quando si usa Unity Catalog. Per altre informazioni sul supporto del linguaggio nelle risorse di calcolo abilitate per Unity Catalog, vedere Limitazioni della modalità di accesso alle risorse di calcolo per il catalogo unity.
Supporto espanso per le operazioni del set di dati Scala
Con questa versione, le risorse di calcolo abilitate per Unity Catalog che usano la modalità di accesso condiviso supportano le operazioni Scala Dataset
seguenti: map
, mapPartitions
foreachPartition
, flatMap
, reduce
e filter
.
Scala è disponibile a livello generale nel calcolo condiviso del catalogo unity
Con questa versione Scala è disponibile a livello generale nelle risorse di calcolo abilitate per il catalogo Unity in modalità di accesso condiviso, incluso il supporto per le funzioni definite dall'utente scalari. Le funzioni di aggregazione Structured Streaming, Hive UDF e Hive definite dall’utente non sono supportate. Per un elenco completo delle limitazioni, consultare Limitazioni della modalità di accesso alle risorse di calcolo per il catalogo unity.
Accesso regolamentato dal catalogo Unity ai servizi cloud esterni usando le credenziali del servizio (anteprima pubblica)
Le credenziali del servizio consentono l'autenticazione semplice e sicura con i servizi del tenant cloud usando identità gestite di Azure (MI) e Il catalogo Unity. Vedere Gestire l'accesso ai servizi cloud esterni usando le credenziali del servizio.
Correzioni di bug
Aggiornamenti della libreria
- Librerie Python aggiornate:
- azure-core da 1.30.1 a 1.30.2
- google-auth dalla versione 2.29.0 alla versione 2.31.0
- google-cloud-storage dalla versione 2.16.0 alla versione 2.17.0
- Google-resumable-media da 2.7.0 a 2.7.1
- googleapis-common-protos da 1.63.0 a 1.63.2
- mlflow-skinny da 2.11.3 a 2.11.4
- proto-plus da 1.23.0 a 1.24.0
- s3transfer from 0.10.1 to 0.10.2
- Librerie R aggiornate:
- Librerie Java aggiornate:
- com.databricks.databricks-sdk-java da 0.17.1 a 0.27.0
- com.ibm.icu.icu4j da 72.1 a 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider da 1.6.1-linux-x86_64 a 1.6.2-linux-x86_64
Apache Spark
Databricks Runtime 15.4 LTS include Apache Spark 3.5.0. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 15.3 e le correzioni e i miglioramenti di bug aggiuntivi seguenti apportati a Spark:
- [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Consentire il raggruppamento delle espressioni nelle sottoquery scalari, se associate a righe esterne
- [SPARK-48834] [SI COMPORTA-79][SC-170972][SQL] Disabilitare input/output variant in UDF scalari Python, UDF, funzioni definite dall'utente, funzioni definite dall'utente durante la compilazione delle query
- [SPARK-48441] [SC-170980][SQL][WARMFIX] Correzione del comportamento stringTrim per regole di confronto non UTF8_BINARY
- [SPARK-48440] [SC-170895][SQL][WARMFIX] Correzione del comportamento stringTranslate per regole di confronto non UTF8_BINARY
- [SPARK-48872] [SC-170866][PYTHON] Ridurre il sovraccarico di _capture_call_site
- [SPARK-48862] [SC-170845][PYTHON][CONNECT] Evitare di chiamare
_proto_to_string
quando il livello INFO non è abilitato - [SPARK-48852] [SC-170837][CONNECT] Correzione della funzione di taglio della stringa in connect
- [SPARK-48791] [SC-170658][CORE] Correzione della regressione delle prestazioni causata dal sovraccarico di registrazione degli analizzatori tramite CopyOnWriteArrayList
- [SPARK-48118] [SQL] Supportare la
SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
variabile env - [SPARK-48241] [SC-165811][SQL] Errore di analisi CSV con colonne di tipo char/varchar
- [SPARK-48168] [SC-166900][SQL] Aggiungere operatori di spostamento bit per bit supportati
- [SPARK-48148] [SC-165630][CORE] Gli oggetti JSON non devono essere modificati quando vengono letti come STRING
- [SPARK-46625] [SC-170561] CTE con clausola Identifier come riferimento
- [SPARK-48771] [SC-170546][SQL] Velocizzare
LogicalPlanIntegrity.validateExprIdUniqueness
i piani di query di grandi dimensioni - [SPARK-48831] [SI COMPORTA-76][SC-170554][CONNECT] Rendere compatibile il nome di colonna predefinito con
cast
Spark Classic - [SPARK-48623] [SC-170544][CORE] Migrazioni di registrazione strutturata [Parte 2]
- [SPARK-48296] [SC-166138][SQL] Supporto di Codegen per
to_xml
- [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter per il join a più livelli deve controllare il tipo di join figlio
- [SPARK-48686] [SC-170365][SQL] Migliorare le prestazioni di ParserUtils.unescapeSQLString
- [SPARK-48798] [SC-170588][PYTHON] Introduzione
spark.profile.render
alla profilatura basata su SparkSession - [SPARK-48048] [SC-169099] Ripristinare "[SC-164846][CONNECT][SS] Aggiunta del supporto del listener lato client per Scala"
- [SPARK-47910] [SC-168929][CORE] chiudere il flusso quando DiskBlockObjectWriter closeResources per evitare perdite di memoria
- [SPARK-48816] [SC-170547][SQL] Sintassi abbreviata per i convertitori di intervalli in UnivocityParser
- [SPARK-48589] [SC-170132][SQL][SS] Aggiungere snapshot dell'opzioneStartBatchId e snapshotPartitionId all'origine dati di stato
- [SPARK-48280] [SC-170293][SQL] Migliorare l'area di attacco di test delle regole di confronto usando l'espressione walking
- [SPARK-48837] [SC-170540][ML] In CountVectorizer, leggere solo il parametro binario una volta per ogni trasformazione, non una volta per riga
- [SPARK-48803] [SC-170541][SQL] Generare un errore interno nel serializzatore Orc(De)per allinearsi a ParquetWriteSupport
- [SPARK-48764] [SC-170129][PYTHON] Filtro dei frame correlati a IPython dallo stack di utenti
- [SPARK-48818] [SC-170414][PYTHON] Semplificare le
percentile
funzioni - [SPARK-48479] [SC-169079][SQL] Supporto per la creazione di funzioni definite dall'utente sql scalari e di tabella nel parser
- [SPARK-48697] [SC-170122][LC-4703][SQL] Aggiungere filtri stringa con riconoscimento delle regole di confronto
- [SPARK-48800] [SC-170409][CONNECT][SS] Deflake ClientStreamingQuerySuite
- [SPARK-48738] [SC-169814][SQL] Corretto perché la versione per l'alias
random
func predefinito , ,position
mod
,cardinality
, ,session_user
char_length
current_schema
user
character_length
- [SPARK-48638] [SC-169575][CONNECT] Aggiungere il supporto ExecutionInfo per DataFrame
- [SPARK-48064] [SC-164697][SQL] Aggiornare i messaggi di errore per le classi di errore correlate alla routine
- [SPARK-48810] [CONNECT] L'API di arresto della sessione () deve essere idempotente e non ha esito negativo se la sessione è già chiusa dal server
- [SPARK-48650] [15.x][PYTHON] Visualizzare il sito di chiamata corretto da IPython Notebook
- [SPARK-48271] [SC-166076][SQL] Trasformare l'errore di corrispondenza in RowEncoder in UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][SQL] Correzione della mancata corrispondenza della risoluzione dei tipi varchar per DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][SQL] Correzione della regressione per INSERT con elenco di colonne parziale in una tabella con char/varchar
- [SPARK-48767] [SC-170330][SQL] Correzione di alcune richieste di errore quando
variant
i dati di tipo non sono validi - [SPARK-48719] [SC-170339][SQL] Correggere il bug di calcolo di
RegrSlope
&RegrIntercept
quando il primo parametro è Null - [SPARK-48815] [SC-170334][CONNECT] Aggiornare l'ambiente quando si arresta la sessione di connessione
- [SPARK-48646] [SC-169020][PYTHON] Ridefinire la documentazione dell'API dell'origine dati Python e gli hint per il tipo
- [SPARK-48806] [SC-170310][SQL] Passare un'eccezione effettiva quando url_decode ha esito negativo
- [SPARK-47777] [SC-168818] Correzione del test di connessione dell'origine dati di flusso Python
- [SPARK-48732] [SC-169793][SQL] Pulizia dell'utilizzo dell'API deprecato correlato a
JdbcDialect.compileAggregate
- [SPARK-48675] [SC-169538][SQL] Correzione della tabella della cache con colonna collated
- [SPARK-48623] [SC-169034][CORE] Migrazioni di registrazione strutturata
- [SPARK-48655] [SC-169542][SQL] SPJ: aggiungere test per ignorare casualmente le query di aggregazione
- [SPARK-48586] [SC-169808][SS] Rimuovere l'acquisizione del blocco in doMaintenance() eseguendo una copia completa dei mapping di file in RocksDBFileManager in load()
- [SPARK-48799] [Backport][15.x][SC-170283][SS] Effettuare il refactoring delle versioni per i metadati dell'operatore in lettura/scrittura e chiamanti
- [SPARK-48808] [SC-170309][SQL] Correggere npe durante la connessione di thriftserver tramite Hive 1.2.1 e lo schema dei risultati è vuoto
- [SPARK-48715] [SC-170291][SQL] Integrare la convalida UTF8String nelle implementazioni di funzioni stringa in grado di supportare le regole di confronto
- [SPARK-48747] [SC-170120][SQL] Aggiungere l'iteratore del punto di codice a UTF8String
- [SPARK-48748] [SC-170115][SQL] Cache numChars in UTF8String
- [SPARK-48744] [SC-169817][Core] La voce di log deve essere costruita una sola volta
- [SPARK-46122] [SC-164313][SQL] Impostare su
spark.sql.legacy.createHiveTableByDefault
false
per impostazione predefinita - [SPARK-48765] [SC-170119][DEPLOY] Migliorare la valutazione del valore predefinito per SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][SQL] Aggiungere la documentazione sulla migrazione per CREATE TABLE AS SELECT modifica del comportamento a partire da Spark 3.4
- [SPARK-48598] [SC-169484][PYTHON][CONNECT] Propagare lo schema memorizzato nella cache nelle operazioni del frame di dati
- [SPARK-48766] [SC-170126][PYTHON] Documentare la differenza di comportamento tra
extraction
element_at
etry_element_at
- [SPARK-48768] [SC-170124][PYTHON][CONNECT] Non deve memorizzare nella cache
explain
- [SPARK-48770] [Backport][15.x][SC-170133][SS] Passare alla lettura dei metadati dell'operatore una sola volta sul driver per verificare se è possibile trovare informazioni per numColsPrefixKey usato per le query di attivazione/disattivazione della finestra di sessione
- [SPARK-48656] [SC-169529][CORE] Eseguire un controllo di lunghezza e generare COLLECTION_SIZE_LIMIT_EXCEEDED errore in
CartesianRDD.getPartitions
- [SPARK-48597] [SC-168817][SQL] Introdurre un marcatore per la proprietà isStreaming nella rappresentazione testuale del piano logico
- [SPARK-48472] [SC-169044][SQL] Abilitare le espressioni reflect con stringhe collate
- [SPARK-48699] [SC-169597][SQL] Perfezionare l'API delle regole di confronto
- [SPARK-48682] [SC-169812][SQL][SI COMPORTA-58] Usare L'ICU nell'espressione InitCap per UTF8_BINARY stringhe
- [SPARK-48282] [SC-169813][SQL] Modificare la logica di ricerca di stringhe per le regole di confronto UTF8_BINARY_LCASE (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][SQL] Abilitare il supporto delle regole di confronto per l'espressione Mode
- [SPARK-48320] [SPARK-48490] Sincronizzare i test case e i tratti di registrazione più recenti da OSS Spark
- [SPARK-48629] [SC-169479] Eseguire la migrazione del codice residuo al framework di registrazione strutturato
- [SPARK-48681] [SC-169469][SQL][SI COMPORTA-58] Usare l'ICU nelle espressioni Lower/Upper per le stringhe UTF8_BINARY
- [SPARK-48573] [15.x][SC-169582][SQL] Aggiornare la versione di ICU
- [SPARK-48687] [Backport][15.x][SS] Aggiungere la modifica per eseguire la convalida dello schema di stato e aggiornare il driver per le query con stato
- [SPARK-47579] [15.x][SC-167310][CORE][PART4] Eseguire la migrazione di logInfo con variabili al framework di registrazione strutturata
- [SPARK-48008] [SC-167363][1/2] Supportare le funzioni definite dall'utente in Spark Connect
- [SPARK-48578] [SC-169505][SQL] Aggiungere funzioni correlate alla convalida delle stringhe UTF8
- [SPARK-48670] [SC-169598][SQL] Fornire un suggerimento come parte del messaggio di errore quando viene assegnato un nome di regole di confronto non valido
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][SPA... … RK-48291] Framework di log strutturato sul lato Java
- [SPARK-47599] [15.x][SC-166000][MLLIB] MLLib: Eseguire la migrazione di logWarn con variabili al framework di registrazione strutturata
- [SPARK-48706] [SC-169589][PYTHON] La funzione definita dall'utente Python in ordine superiore non deve generare un errore interno
- [SPARK-48498] [SI COMPORTA-38][SC-168060][SQL] Eseguire sempre il riempimento dei caratteri nei predicati
- [SPARK-48662] [SC-169533][SQL] Correzione dell'espressione StructsToXml con regole di confronto
- [SPARK-48482] [SC-167702][PYTHON][15.x] dropDuplicates e dropDuplicatesWIthinWatermark devono accettare argomenti di lunghezza variabile
- [SPARK-48678] [SC-169463][CORE] Ottimizzazioni delle prestazioni per SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] Rinominare UTF8_BINARY_LCASE in UTF8_LCASE
- [SPARK-47927] [SC-164123][SQL]: Correzione dell'attributo nullbility nel decodificatore UDF
- [SPARK-47579] [SC-165297][CORE][PART1] Eseguire la migrazione di logInfo con variabili al framework di registrazione strutturato (nuovo)
- [SPARK-48695] [SC-169473][PYTHON]
TimestampNTZType.fromInternal
non usare i metodi deprecati - [SPARK-48431] [SC-167290][LC-4066][SQL] Non inoltrare predicati sulle colonne collate ai lettori di file
- [SPARK-47579] Ripristinare "[SC-165297][CORE][PART1] Eseguire la migrazione di logInfo con variabili al framework di registrazione strutturata"
- [SPARK-47585] [SC-164306][SQL] Sql Core: Eseguire la migrazione di logInfo con variabili al framework di registrazione strutturata
- [SPARK-48466] [SC-169042][SQL] Creare un nodo dedicato per EmptyRelation in AQE
- [SPARK-47579] [SC-165297][CORE][PART1] Eseguire la migrazione di logInfo con variabili al framework di registrazione strutturata
- [SPARK-48410] [SC-168320][SQL] Correzione dell'espressione InitCap per le regole di confronto di UTF8_BINARY_LCASE e ICU
- [SPARK-48318] [SC-167709][SQL] Abilitare il supporto hash join per tutte le regole di confronto (tipi complessi)
- [SPARK-48435] [SC-168128][SQL] Le regole di confronto UNICODE non devono supportare l'uguaglianza binaria
- [SPARK-48555] [SC-169041][SQL][PYTHON][CONNECT] Supporto dell'uso di columns come parametri per diverse funzioni in pyspark/scala
- [SPARK-48591] [SC-169081][PYTHON] Aggiungere una funzione helper per semplificare
Column.py
- [SPARK-48574] [SC-169043][SQL] Correzione del supporto per StructType con regole di confronto
- [SPARK-48305] [SC-166390][SQL] Aggiungere il supporto delle regole di confronto per le espressioni CurrentLike
- [SPARK-48342] [SC-168941][SQL] Introduzione al parser di scripting SQL
- [SPARK-48649] [SC-169024][SQL] Aggiungere le configurazioni "ignoreInvalidPartitionPaths" e "spark.sql.files.ignoreInvalidPartitionPaths" per consentire di ignorare i percorsi di partizione non validi
- [SPARK-48000] [SC-167194][SQL] Abilitare il supporto hash join per tutte le regole di confronto (StringType)
- [SPARK-48459] [SC-168947][CONNECT][PYTHON] Implementare DataFrameQueryContext in Spark Connect
- [SPARK-48602] [SC-168692][SQL] Creare un generatore csv supporta uno stile di output diverso con spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][SQL] Modificare il confronto tra stringhe per UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830][SQL] refactoring: usare idMap ausiliario anziché OP_ID_TAG
- [SPARK-48634] [SC-169021][PYTHON][CONNECT] Evitare l'inizializzazione statica del pool di thread in ExecutePlanResponseReattachableIterator
- [SPARK-47911] [SC-164658][SQL] Introduce un binaryformatter universale per rendere coerente l'output binario
- [SPARK-48642] [SC-168889][CORE] False SparkOutOfMemoryError causato dall'eliminazione dell'attività durante la distribuzione
- [SPARK-48572] [SC-168844][SQL] Correzione di espressioni DateSub, DateAdd, WindowTime, TimeWindow e SessionWindow
- [SPARK-48600] [SC-168841][SQL] Correzione del cast implicito delle espressioni FrameLessOffsetWindowFunction
- [SPARK-48644] [SC-168933][SQL] Eseguire un controllo di lunghezza e generare COLLECTION_SIZE_LIMIT_EXCEEDED errore in Hex.hex
- [SPARK-48587] [SC-168824][VARIANT] Evitare l'amplificazione dell'archiviazione quando si accede a una variante secondaria
- [SPARK-48647] [SC-168936][PYTHON][CONNECT] Ridefinire il messaggio di errore per
YearMonthIntervalType
indf.collect
- [SPARK-48307] [SC-167802][SQL] InlineCTE deve mantenere relazioni non inlined nel nodo WithCTE originale
- [SPARK-48596] [SC-168581][SQL] Miglioramento delle prestazioni per il calcolo della stringa esadecimale per long
- [SPARK-48621] [SC-168726][SQL] Correzione della semplificazione like in Optimizer per stringhe collated
- [SPARK-47148] [SC-164179][SQL] Evitare di materializzare AQE ExchangeQueryStageExec sull'annullamento
- [SPARK-48584] [SC-168579][SQL] Miglioramento delle prestazioni per unescapePathName
- [SPARK-48281] [SC-167260][SQL] Modificare la logica di ricerca di stringhe per le regole di confronto UTF8_BINARY_LCASE (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][SQL] Sostituzione della sequenza di byte UTF-8 non valida
- [SPARK-48595] [SC-168580][CORE] Pulizia dell'utilizzo dell'API deprecato correlato a
commons-compress
- [SPARK-48030] [SC-164303][SQL] SPJ: cache rowOrdering e structType per InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][SQL] Aggiungere il tratto WriteFilesExecBase per la scrittura v1
- [SPARK-48551] [SC-168438][SQL] Miglioramento delle prestazioni per escapePathName
- [SPARK-48565] [SC-168437][interfaccia utente] Correzione della visualizzazione del dump del thread nell'interfaccia utente
- [SPARK-48364] [SC-166782][SQL] Aggiungere il cast del tipo AbstractMapType e correggere il mapping dei parametri RaiseError per lavorare con stringhe collate
- [SPARK-48421] [SC-168689][SQL] SPJ: Aggiungere la documentazione
- [SPARK-48604] [SC-168698][SQL] Sostituire una chiamata al metodo deprecata
new ArrowType.Decimal(precision, scale)
- [SPARK-46947] [SC-157561][CORE] Ritardare l'inizializzazione del gestore della memoria fino al caricamento del plug-in driver
- [SPARK-48411] [SC-168576][SS][PYTHON] Aggiungere il test E2E per DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697][SS] Tenere traccia degli errori di convalida delle righe di stato usando la classe di errore esplicita
- [SPARK-48221] [SC-167143][SQL] Modificare la logica di ricerca di stringhe per le regole di confronto UTF8_BINARY_LCASE (Contains, StartsWith, EndsWith, StringLocate)
- [SPARK-47415] [SC-168441][SQL] Aggiungere il supporto delle regole di confronto per l'espressione Levenshtein
- [SPARK-48593] [SC-168719][PYTHON][CONNECT] Correggere la rappresentazione di stringa della funzione lambda
- [SPARK-48622] [SC-168710][SQL] ottenere SQLConf una sola volta durante la risoluzione dei nomi di colonna
- [SPARK-48594] [SC-168685][PYTHON][CONNECT] Rinominare
parent
il campochild
in inColumnAlias
- [SPARK-48403] [SC-168319][SQL] Correzione delle espressioni Lower & Upper per le regole di confronto UTF8_BINARY_LCASE e ICU
- [SPARK-48162] [SC-166062][SQL] Aggiungere il supporto delle regole di confronto per le espressioni MISC
- [SPARK-48518] [SC-167718][CORE] Rendere la compressione LZF in grado di essere eseguita in parallelo
- [SPARK-48474] [SC-167447][CORE] Correggere il nome della classe del log in
SparkSubmitArguments
&SparkSubmit
- [SPARK-48012] [SC-168267][SQL] SPJ: supportare le espressioni transfrom per un lato casuale
- [SPARK-48552] [SC-168212][SQL] Anche l'inferenza dello schema CSV a più righe deve generare FAILED_READ_FILE
- [SPARK-48560] [SC-168268][SS][PYTHON] Impostare StreamingQueryListener.spark
- [SPARK-48569] [SC-168321][SS][CONNECT] Gestire i casi perimetrali in query.name
- [SPARK-47260] [SC-167323][SQL] Assegnare il nome alla classe di errore _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327][PYTHON][CONNECT] Propagare lo schema memorizzato nella cache nelle operazioni set
- [SPARK-48155] [SC-165910][SQL] AQEPropagateEmptyRelation per il join deve verificare se rimanere figlio è solo BroadcastQueryStageExec
- [SPARK-48506] [SC-167720][CORE] I nomi brevi del codec di compressione non fanno distinzione tra maiuscole e minuscole, ad eccezione della registrazione degli eventi
- [SPARK-48447] [SC-167607][SS] Controllare la classe del provider dell'archivio stati prima di richiamare il costruttore
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff e DateTimeUtils.timestampAdd non devono generare INTERNAL_ERROR eccezione
- [SPARK-48513] [Backport][15.x][SC-168085][SS] Aggiungere una classe di errore per la compatibilità dello schema di stato e il refactoring secondario
- [SPARK-48413] [SC-167669][SQL] ALTER COLUMN con regole di confronto
- [SPARK-48561] [SC-168250][PS][CONNECT] Generare
PandasNotImplementedError
un'eccezione per le funzioni di tracciamento non supportate - [SPARK-48465] [SC-167531][SQL] Evitare la propagazione delle relazioni vuote senza operazioni
- [SPARK-48553] [SC-168166][PYTHON][CONNECT] Memorizzare nella cache altre proprietà
- [SPARK-48540] [SC-168069][CORE] Evitare le impostazioni di caricamento dell'output ivy in stdout
- [SPARK-48535] [SC-168057][SS] Aggiornare la documentazione di configurazione per indicare la possibilità di perdita o danneggiamento dei dati se ignorare i valori Null per la configurazione dei join di flusso di flusso è abilitata
- [SPARK-48536] [SC-168059][PYTHON][CONNECT] Schema specificato dall'utente nella cache in applyInPandas e applyInArrow
- [SPARK-47873] [SC-163473][SQL] Scrivere stringhe con regole di confronto nel metastore Hive usando il tipo stringa normale
- [SPARK-48461] [SC-167442][SQL] Sostituire NullPointerExceptions con la classe di errore nell'espressione AssertNotNull
- [SPARK-47833] [SC-163191][SQL][CORE] Specificare stackstrace del chiamante per checkAndGlobPathIfNecessary AnalysisException
- [SPARK-47898] [SC-163146][SQL] Porta HIVE-12270: Aggiungere il supporto DBTokenStore al token di delega HS2
- [SPARK-47578] [SC-167497][R] Eseguire la migrazione di RPackageUtils con variabili al framework di registrazione strutturata
- [SPARK-47875] [SC-162935][CORE] Togliere
spark.deploy.recoverySerializer
- [SPARK-47552] [SC-160880][CORE] Impostare
spark.hadoop.fs.s3a.connection.establish.timeout
su 30 se mancante - [SPARK-47972] [SC-167692][SQL] Limitare l'espressione CAST per le regole di confronto
- [SPARK-48430] [SC-167489][SQL] Correzione dell'estrazione dei valori della mappa quando la mappa contiene stringhe con regole di confronto
- [SPARK-47318] [SC-162712][CORE][3.5] Aggiunge il round HKDF alla derivazione della chiave AuthEngine per seguire le procedure KEX standard
- [SPARK-48503] [SI COMPORTA-29][ES-1135236][SQL] Correzione di sottoquery scalari non valide con group-by in colonne non equivalenti non consentite correttamente
- [SPARK-48508] [SC-167695][CONNECT][PYTHON] Schema specificato dall'utente della cache in
DataFrame.{to, mapInPandas, mapInArrow}
- [SPARK-23015] [SC-167188][WINDOWS] Correzione di un bug in Windows in cui l'avvio di più istanze di Spark all'interno dello stesso secondo causa un errore
- [SPARK-45891] [SC-167608]Revert " Describe shredding scheme for Variant"
- [SPARK-48391] [SC-167554][CORE]Uso di addAll invece di aggiungere una funzione daAccumulatorInfos metodo della classe TaskMetrics
- [SPARK-48496] [SC-167600][CORE] Usare istanze del modello regex statico in JavaUtils.timeStringAs e JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][SQL] Correzione del messaggio di errore NPE per csv null delmiter
- [SPARK-48489] [SC-167598][SQL] Generare un errore migliore per l'utente durante la lettura di uno schema non valido dall'origine dati di testo
- [SPARK-48471] [SC-167324][CORE] Migliorare la documentazione e la guida all'utilizzo per il server di cronologia
- [SPARK-45891] [SC-167597] Descrivere lo schema di shredding per Variant
- [SPARK-47333] [SC-159043][SQL] Usare checkInputDataTypes per controllare i tipi di parametro della funzione
to_xml
- [SPARK-47387] [SC-159310][SQL] Rimuovere alcune classi di errore inutilizzate
- [SPARK-48265] [ES-1131440][SQL] Infer window group limit batch should do constant folding (Dedur window group limit batch should do constant folding)
- [SPARK-47716] [SC-167444][SQL] Evitare conflitti di nome visualizzazione nel test case di ordinamento semantico sqlQueryTestSuite
- [SPARK-48159] [SC-167141][SQL] Estensione del supporto per le stringhe con regole di confronto nelle espressioni datetime
- [SPARK-48462] [SC-167271][SQL][Test] Usare conSQLConf nei test: Eseguire il refactoring di HiveQuerySuite e HiveTableScanSuite
- [SPARK-48392] [SC-167195][CORE]
spark-defaults.conf
Caricare anche quando specificato--properties-file
- [SPARK-48468] [SC-167417] Aggiungere l'interfaccia LogicalQueryStage in catalyst
- [SPARK-47578] [SC-164988][CORE] Backport manuale per Spark PR #46309: Eseguire la migrazione del logWarning con variabili al framework di registrazione strutturata
- [SPARK-48415] [SC-167321]Ripristinare "[PYTHON] Refactoring TypeName per supportare i tipi di dati con parametri"
- [SPARK-46544] [SC-151361][SQL] Supporto v2 DESCRIBE TABLE EXTENDED con statistiche di tabella
- [SPARK-48325] [SC-166963][CORE] Specificare sempre i messaggi in ExecutorRunner.killProcess
- [SPARK-46841] [SC-167139][SQL] Aggiungere il supporto delle regole di confronto per le impostazioni locali e gli identificatori delle regole di confronto di ICU
- [SPARK-47221] [SC-157870][SQL] Usa firme da CsvParser a AbstractParser
- [SPARK-47246] [SC-158138][SQL] Sostituire
InternalRow.fromSeq
connew GenericInternalRow
per salvare una conversione della raccolta - [SPARK-47597] [SC-163932][STREAMING] Backport manuale per Spark PR #46192: Streaming: Eseguire la migrazione di logInfo con variabili al framework di registrazione strutturata
- [SPARK-48415] [SC-167130][PYTHON] Effettuare il refactoring
TypeName
per supportare tipi di dati con parametri - [SPARK-48434] [SC-167132][PYTHON][CONNECT] Usare
printSchema
lo schema memorizzato nella cache - [SPARK-48432] [ES-1097114][SQL] Evitare numeri interi unboxing in UnivocityParser
- [SPARK-47463] [SC-162840][SQL] Usare V2Predicate per eseguire il wrapping dell'espressione con tipo restituito booleano
- [SPARK-47781] [SC-162293][SQL] Gestire i decimali di scala negativi per le origini dati JDBC
- [SPARK-48394] [SC-166966][CORE] Cleanup mapIdToMapIndex on mapoutput unregister
- [SPARK-47072] [SC-156933][SQL] Correzione dei formati di intervallo supportati nei messaggi di errore
- [SPARK-47001] [SC-162487][SQL] Verifica pushdown in Optimizer
- [SPARK-48335] [SC-166387][PYTHON][CONNECT] Rendere
_parse_datatype_string
compatibile con Spark Connect - [SPARK-48329] [SC-166518][SQL] Abilita
spark.sql.sources.v2.bucketing.pushPartValues.enabled
per impostazione predefinita - [SPARK-48412] [SC-166898][PYTHON] Eseguire il refactoring dell'analisi json del tipo di dati
- [SPARK-48215] [SC-166781][SQL] Estensione del supporto per le stringhe collate nell'espressione date_format
- [SPARK-45009] [SC-166873][SQL][COMPLETAMENTO] Aggiungere la classe di errore e i test per la decorrelazione delle sottoquery del predicato nella condizione di join che fanno riferimento a entrambi gli elementi figlio di join
- [SPARK-47960] [SC-165295][SS][15.x] Consenti il concatenamento di altri operatori con stato dopo l'operatore transformWithState.
- [SPARK-48340] [SC-166468][PYTHON] Supporto della mancata prefer_timestamp_ntz dello schema di inferi timestampNTZ
- [SPARK-48157] [SC-165902][SQL] Aggiungere il supporto delle regole di confronto per le espressioni CSV
- [SPARK-48158] [SC-165652][SQL] Aggiungere il supporto delle regole di confronto per le espressioni XML
- [SPARK-48160] [SC-166064][SQL] Aggiungere il supporto delle regole di confronto per le espressioni XPATH
- [SPARK-48229] [SC-165901][SQL] Aggiungere il supporto delle regole di confronto per le espressioni inputFile
- [SPARK-48367] [SC-166487][CONNECT] Correggere lint-scala per scalafmt per rilevare i file in modo che vengano formattati correttamente
- [SPARK-47858] [SC-163095][SPARK-47852][PYTHON][SQL] Refactoring della struttura per il contesto di errore del dataframe
- [SPARK-48370] [SC-166787][CONNECT] Checkpoint e localCheckpoint nel client Scala Spark Connect
- [SPARK-48247] [SC-166028][PYTHON] Usare tutti i valori in un dict durante l'inferenza dello schema MapType
- [SPARK-48395] [SC-166794][PYTHON] Correzione
StructType.treeString
per i tipi con parametri - [SPARK-48393] [SC-166784][PYTHON] Spostare un gruppo di costanti in
pyspark.util
- [SPARK-48372] [SC-166776][SPARK-45716][PYTHON] Implementare
StructType.treeString
- [SPARK-48258] [SC-166467][PYTHON][CONNECT] Checkpoint e localCheckpoint in Spark Connect
Vedere Aggiornamenti della manutenzione di Databricks Runtime 15.4 LTS.
Ambiente di sistema
- Sistema operativo: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
asttoken | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.2 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
black | 23.3.0 | blinker | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | cloudpickle | 2.2.1 | serv | 0.1.2 |
contourpy | 1.0.5 | cryptography | 41.0.3 | cycler | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorator | 5.1.1 | distlib | 0.3.8 |
entrypoints | 0.4 | executing | 0.8.3 | facet-overview | 1.1.1 |
filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.31.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.17.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.1 | googleapis-common-protos | 1.63.2 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | packaging | 23.2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 9.4.0 | pip | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.24.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
requests | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.2 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | six | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wheel | 0.38.4 | zipp | 3.11.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot posit Gestione pacchetti CRAN.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
freccia | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | boot | 1.3-28 |
brew | 1.0-10 | brio | 1.1.4 | Scopa | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | callr | 3.7.3 |
caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
clock | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compilatore | 4.3.2 |
config | 0.3.2 | in conflitto | 1.2.0 | cpp11 | 0.4.7 |
crayon | 1.5.2 | credentials | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | datasets | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | desc | 1.4.3 | devtools | 2.4.5 |
diagramma | 1.6.5 | diffobj | 0.3.5 | digest | 0.6.34 |
downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | puntini di sospensione | 0.3.2 | evaluate | 0,23 |
fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
foreign | 0.8-85 | forge | 0.2.0 | fs | 1.6.3 |
future | 1.33.1 | future.apply | 1.11.1 | gargle | 1.5.2 |
generics | 0.1.3 | gert | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.2 | glue | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafica | 4.3.2 | grDevices | 4.3.2 | grid | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
highr | 0,10 | hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Iteratori | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1.45 | Etichettatura | 0.4.3 |
later | 1.3.2 | Lattice | 0.21-8 | Java | 1.7.3 |
lifecycle | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | markdown | 1.12 | MASS | 7.3-60 |
Matrice | 1.5-4.1 | memoise | 2.0.1 | methods | 4.3.2 |
mgcv | 1.8-42 | mime | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
parallelly | 1.36.0 | Concetto fondamentale | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | Avanzamento | 1.2.3 |
progressr | 0.14.0 | promises | 1.2.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reagibile | 0.4.4 |
reactR | 0.5.0 | readr | 2.1.5 | readxl | 1.4.3 |
ricette | 1.0.9 | rematch | 2.0.0 | rematch2 | 2.1.2 |
remotes | 2.4.2.1 | reprex | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | sass | 0.4.8 |
Scalabilità | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
Forma | 1.4.6 | shiny | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | spaziale | 7.3-15 | Spline | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
Sopravvivenza | 3.5-5 | Swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
textshaping | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0.49 | tools | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
UTF8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
vroom | 1.6.5 | waldo | 0.5.2 | whisker | 0.4.1 |
withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | zip | 2.3.1 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-consultas | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeina | caffeina | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1,5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 3.0.3 |
dev.sdk.netlib | blas | 3.0.3 |
dev.sdk.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,25 |
io.delta | delta-sharing-client_2.12 | 1.1.1 |
io.dropwizard.metrics | metrics-annotation | 4.2.19 |
io.dropwizard.metrics | metrics-core | 4.2.19 |
io.dropwizard.metrics | metrics-graphite | 4.2.19 |
io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-socks | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | formato freccia | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | freccia-vettore | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | ivy | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shim | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-all | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Spessori | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | compatibile con scalatest | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | treten-extra | 1.7.1 |
org.cortanaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |