Databricks Runtime 12.1 (EoS)
Nota
Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.
Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 12.1, basate su Apache Spark 3.3.1.
Databricks ha rilasciato questa versione a gennaio 2023.
Miglioramenti e nuove funzionalità
- Funzionalità delle tabelle Delta Lake supportate per la gestione dei protocolli
- L'I/O predittivo per gli aggiornamenti è disponibile in anteprima pubblica
- Esplora cataloghi è ora disponibile per tutti gli utenti
- Supporto per più operatori con stato in una singola query di streaming
- Il supporto per i buffer del protocollo è disponibile in anteprima pubblica
- Supporto per l'autenticazione del Registro di sistema dello schema confluent
- Supporto per la condivisione della cronologia delle tabelle con condivisioni delta
- Supporto per lo streaming con condivisioni delta sharing
- Versione della tabella che usa il timestamp ora supportato per le tabelle di condivisione delta nei cataloghi
- Supporto per WHEN NOT MATCHED BY SOURCE per MERGE INTO
- Raccolta di statistiche ottimizzata per CONVERT TO DELTA
- Supporto del catalogo Unity per l'annullamento deldro delle tabelle
Funzionalità delle tabelle Delta Lake supportate per la gestione dei protocolli
Azure Databricks ha introdotto il supporto per le funzionalità di tabella Delta Lake, che introducono flag granulari che specificano quali funzionalità sono supportate da una determinata tabella. Si veda In che modo Azure Databricks gestisce la compatibilità delle funzionalità di Delta Lake?.
L'I/O predittivo per gli aggiornamenti è disponibile in anteprima pubblica
L'I/O predittivo accelera ora le DELETE
operazioni , MERGE
e UPDATE
per le tabelle Delta con vettori di eliminazione abilitati nel calcolo abilitato per Photon. Si veda Che cos'è l'I/O predittivo?.
Esplora cataloghi è ora disponibile per tutti gli utenti
Esplora cataloghi è ora disponibile per tutti gli utenti di Azure Databricks quando si usa Databricks Runtime 7.3 LTS e versioni successive.
Supporto per più operatori con stato in una singola query di streaming
Gli utenti possono ora concatenare gli operatori con stato con modalità di accodamento nella query di streaming. Non tutti gli operatori sono completamente supportati. Join dell'intervallo di tempo del flusso di flusso e flatMapGroupsWithState
non consente la concatenazione di altri operatori con stato.
Il supporto per i buffer del protocollo è disponibile in anteprima pubblica
È possibile usare le from_protobuf
funzioni e to_protobuf
per scambiare dati tra tipi binari e struct. Vedere Buffer del protocollo di lettura e scrittura.
Supporto per l'autenticazione del Registro di sistema dello schema confluent
L'integrazione di Azure Databricks con Registro schemi Confluent supporta ora gli indirizzi del Registro di sistema dello schema esterni con l'autenticazione. Questa funzionalità è disponibile per from_avro
le funzioni , to_avro
from_protobuf
, e to_protobuf
. Vedi Protobuf o Avro.
Supporto per la condivisione della cronologia delle tabelle con condivisioni delta
È ora possibile condividere una tabella con cronologia completa usando la condivisione delta, consentendo ai destinatari di eseguire query di spostamento del tempo ed eseguire query sulla tabella usando Spark Structured Streaming. WITH HISTORY
è consigliato invece di CHANGE DATA FEED
, anche se quest'ultimo continua a essere supportato. Vedere ALTER SHARE e Aggiungere tabelle a una condivisione.
Supporto per lo streaming con condivisioni delta sharing
Spark Structured Streaming ora funziona con il formato deltasharing
in una tabella di condivisione delta di origine condivisa con WITH HISTORY
.
Versione della tabella che usa il timestamp ora supportato per le tabelle di condivisione delta nei cataloghi
È ora possibile usare la sintassi TIMESTAMP AS OF
SQL nelle SELECT
istruzioni per specificare la versione di una tabella di condivisione delta montata in un catalogo. Le tabelle devono essere condivise tramite WITH HISTORY
.
Supporto per WHEN NOT MATCHED BY SOURCE per MERGE INTO
È ora possibile aggiungere WHEN NOT MATCHED BY SOURCE
clausole a MERGE INTO
per aggiornare o eliminare righe nella tabella scelta che non hanno corrispondenze nella tabella di origine in base alla condizione di merge. La nuova clausola è disponibile in SQL, Python, Scala e Java. Vedere MERGE INTO.
Raccolta di statistiche ottimizzata per CONVERT TO DELTA
La raccolta di statistiche per l'operazione CONVERT TO DELTA
è ora molto più veloce. In questo modo si riduce il numero di carichi di lavoro che potrebbero essere usati NO STATISTICS
per l'efficienza.
Supporto del catalogo Unity per l'annullamento deldro delle tabelle
Questa funzionalità è stata inizialmente rilasciata in anteprima pubblica. È disponibile a partire dal 25 ottobre 2023.
È ora possibile eliminare una tabella gestita o esterna eliminata in uno schema esistente entro sette giorni dall'eliminazione. Vedere UNDROP TABLE e SHOW TABLES DROPPED.See UNDROP TABLE and SHOW TABLES DROPPED.
Aggiornamenti della libreria
- Librerie Python aggiornate:
- filelock da 3.8.0 a 3.8.2
- platformdirs dalla versione 2.5.4 alla versione 2.6.0
- setuptools da 58.0.4 a 61.2.0
- Librerie R aggiornate:
- Librerie Java aggiornate:
- io.delta.delta-sharing-spark_2.12 da 0.5.2 a 0.6.2
- org.apache.hive.hive-storage-api dalla versione 2.7.2 alla versione 2.8.1
- org.apache.parquet-column da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.common da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet.encoding da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet-format-structures da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet-hadoop da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.apache.parquet-jackson da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
- org.portalaani.xz da 1.8 a 1.9
Apache Spark
Databricks Runtime 12.1 include Apache Spark 3.3.1. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 12.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:
- [SPARK-41405] [SC-119769][12.1.0] Ripristinare "[SC-119411][SQL] Centralizzare la logica di risoluzione delle colonne" e "[SC-117170][SPARK-41338][SQL] Risolvere i riferimenti esterni e le colonne normali nello stesso batch analizzatore"
- [SPARK-41405] [SC-119411][SQL] Centralizzare la logica di risoluzione delle colonne
- [SPARK-41859] [SC-119514][SQL] CreateHiveTableAsSelectCommand deve impostare correttamente il flag di sovrascrittura
- [SPARK-41659] [SC-119526][CONNECT][12.X] Abilitare doctests in pyspark.sql.connect.readwriter
- [SPARK-41858] [SC-119427][SQL] Correzione della regressione delle prestazioni del lettore ORC a causa della funzionalità VALORE PREDEFINITO
- [SPARK-41807] [SC-119399][CORE] Rimuovere la classe di errore inesistente: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
- [SPARK-41578] [12.x][SC-119273][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2141
- [SPARK-41571] [SC-119362][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2310
- [SPARK-41810] [SC-119373][CONNECT] Dedurre i nomi da un elenco di dizionari in SparkSession.createDataFrame
- [SPARK-40993] [SC-119504][SPARK-41705][CONNECT][12.X] Spostare la documentazione e lo script di Spark Connect nella documentazione di Sviluppo/Python
- [SPARK-41534] [SC-119456][CONNECT][SQL][12.x] Configurare il modulo client iniziale per Spark Connect
- [SPARK-41365] [SC-118498][interfaccia utente][3.3] La pagina fasi dell'interfaccia utente non viene caricata per il proxy in un ambiente yarn specifico
- [SPARK-41481] [SC-118150][CORE][SQL] Riutilizzare
INVALID_TYPED_LITERAL
invece di_LEGACY_ERROR_TEMP_0020
- [SPARK-41049] [SC-119305][SQL] Rivedere la gestione delle espressioni con stato
- [SPARK-41726] [SC-119248][SQL] Togliere
OptimizedCreateHiveTableAsSelectCommand
- [SPARK-41271] [SC-118648][SC-118348][SQL] Supportare query SQL con parametri in base a
sql()
- [SPARK-41066] [SC-119344][CONNECT][PYTHON] Implementare
DataFrame.sampleBy
eDataFrame.stat.sampleBy
- [SPARK-41407] [SC-119402][SC-119012][SQL][TUTTI I TEST] Estrarre la scrittura v1 in WriteFiles
- [SPARK-41565] [SC-118868][SQL] Aggiungere la classe error
UNRESOLVED_ROUTINE
- [SPARK-41668] [SC-118925][SQL] La funzione DECODE restituisce risultati errati quando è stato passato NULL
- [SPARK-41554] [SC-119274] correzione della modifica della scala decimale quando la scala è diminuita di m...
- [SPARK-41065] [SC-119324][CONNECT][PYTHON] Implementare
DataFrame.freqItems
eDataFrame.stat.freqItems
- [SPARK-41742] [SC-119404][SPARK-41745][CONNECT][12.X] Riprovare i test della documentazione e aggiungere l'alias di colonna mancante a count()
- [SPARK-41069] [SC-119310][CONNECT][PYTHON] Implementare
DataFrame.approxQuantile
eDataFrame.stat.approxQuantile
- [SPARK-41809] [SC-119367][CONNECT][PYTHON] Make function
from_json
support DataType Schema - [SPARK-41804] [SC-119382][SQL] Scegliere le dimensioni corrette degli elementi in
InterpretedUnsafeProjection
per la matrice di tipi definiti dall'utente - [SPARK-41786] [SC-119308][CONNECT][PYTHON] Funzioni helper deduplicate
- [SPARK-41745] [SC-119378][SPARK-41789][12.X] Creare
createDataFrame
un elenco di righe di supporto - [SPARK-41344] [SC-119217][SQL] Rendere più chiaro l'errore quando la tabella non è stata trovata nel catalogo SupportsCatalogOptions
- [SPARK-41803] [SC-119380][CONNECT][PYTHON] Aggiungere una funzione mancante
log(arg1, arg2)
- [SPARK-41808] [SC-119356][CONNECT][PYTHON] Opzioni di supporto per le funzioni JSON
- [SPARK-41779] [SC-119275][SPARK-41771][CONNECT][PYTHON] Applicare
__getitem__
il filtro di supporto e selezionare - [SPARK-41783] [SC-119288][SPARK-41770][CONNECT][PYTHON] Supporto delle colonne none
- [SPARK-41440] [SC-119279][CONNECT][PYTHON] Evitare l'operatore cache per l'esempio generale.
- [SPARK-41785] [SC-119290][CONNECT][PYTHON] Implementare
GroupedData.mean
- [SPARK-41629] [SC-119276][CONNECT] Supporto per le estensioni del protocollo in relazione ed espressione
- [SPARK-41417] [SC-118000][CORE][SQL] Rinominare
_LEGACY_ERROR_TEMP_0019
inINVALID_TYPED_LITERAL
- [SPARK-41533] [SC-119342][CONNECT][12.X] Gestione degli errori corretta per il server Spark Connect/client
- [SPARK-41292] [SC-119357][CONNECT][12.X] Finestra di supporto nello spazio dei nomi pyspark.sql.window
- [SPARK-41493] [SC-119339][CONNECT][PYTHON] Opzioni di supporto per le funzioni CSV
- [SPARK-39591] [SC-118675][SS] Rilevamento dello stato asincrono
- [SPARK-41767] [SC-119337][CONNECT][PYTHON][12.X] Implementare
Column.{withField, dropFields}
- [SPARK-41068] [SC-119268][CONNECT][PYTHON] Implementare
DataFrame.stat.corr
- [SPARK-41655] [SC-119323][CONNECT][12.X] Abilitare doctests in pyspark.sql.connect.column
- [SPARK-41738] [SC-119170][CONNECT] Mix ClientId nella cache SparkSession
- [SPARK-41354] [SC-119194][CONNECT] Aggiungi
RepartitionByExpression
al proto - [SPARK-41784] [SC-119289][CONNECT][PYTHON] Aggiungi mancante
__rmod__
nella colonna - [SPARK-41778] [SC-119262][SQL] Aggiungere un alias "reduce" a ArrayAggregate
- [SPARK-41067] [SC-119171][CONNECT][PYTHON] Implementare
DataFrame.stat.cov
- [SPARK-41764] [SC-119216][CONNECT][PYTHON] Rendere coerente il nome operativo della stringa interna con FunctionRegistry
- [SPARK-41734] [SC-119160][CONNECT] Aggiungere un messaggio padre per Catalog
- [SPARK-41742] [SC-119263] Supporto di df.groupBy().agg({"*":"count"})
- [SPARK-41761] [SC-119213][CONNECT][PYTHON] Correzione delle operazioni aritmetiche:
__neg__
,__pow__
,__rpow__
- [SPARK-41062] [SC-118182][SQL] Rinominare
UNSUPPORTED_CORRELATED_REFERENCE
inCORRELATED_REFERENCE
- [SPARK-41751] [SC-119211][CONNECT][PYTHON] Correzione
Column.{isNull, isNotNull, eqNullSafe}
- [SPARK-41728] [SC-119164][CONNECT][PYTHON][12.X] Implementare
unwrap_udt
la funzione - [SPARK-41333] [SC-119195][SPARK-41737] Implementare
GroupedData.{min, max, avg, sum}
- [SPARK-41751] [SC-119206][CONNECT][PYTHON] Correzione
Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
- [SPARK-41631] [SC-101081][SQL] Supportare la risoluzione implicita degli alias di colonna laterale in Aggregate
- [SPARK-41529] [SC-119207][CONNECT][12.X] Implementare SparkSession.stop
- [SPARK-41729] [SC-119205][CORE][SQL][12.X] Rinominare
_LEGACY_ERROR_TEMP_0011
inUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
- [SPARK-41717] [SC-119078][CONNECT][12.X] Stampa deduplicare e repr_html in LogicalPlan
- [SPARK-41740] [SC-119169][CONNECT][PYTHON] Implementare
Column.name
- [SPARK-41733] [SC-119163][SQL][SS] Applicare l'eliminazione basata su pattern ad albero per la regola ResolveWindowTime
- [SPARK-41732] [SC-119157][SQL][SS] Applicare l'eliminazione basata su pattern ad albero per la regola SessionWindowing
- [SPARK-41498] [SC-119018] Propagare i metadati tramite Union
- [SPARK-41731] [SC-119166][CONNECT][PYTHON][12.X] Implementare la funzione di accesso alle colonne
- [SPARK-41736] [SC-119161][CONNECT][PYTHON]
pyspark_types_to_proto_types
deve supportareArrayType
- [SPARK-41473] [SC-119092][CONNECT][PYTHON] Implementare
format_number
la funzione - [SPARK-41707] [SC-119141][CONNECT][12.X] Implementare l'API catalogo in Spark Connect
- [SPARK-41710] [SC-119062][CONNECT][PYTHON] Implementare
Column.between
- [SPARK-41235] [SC-119088][SQL][PYTHON]Funzione di ordine elevato: implementazione array_compact
- [SPARK-41518] [SC-118453][SQL] Assegnare un nome alla classe error
_LEGACY_ERROR_TEMP_2422
- [SPARK-41723] [SC-119091][CONNECT][PYTHON] Implementare
sequence
la funzione - [SPARK-41703] [SC-119060][CONNECT][PYTHON] Combinare NullType e typed_null nel valore letterale
- [SPARK-41722] [SC-119090][CONNECT][PYTHON] Implementare 3 funzioni di intervallo di tempo mancanti
- [SPARK-41503] [SC-119043][CONNECT][PYTHON] Implementare funzioni di trasformazione partizione
- [SPARK-41413] [SC-118968][SQL] Evitare lo shuffle in Join partizionato dall'archiviazione quando le chiavi di partizione non corrispondono, ma le espressioni join sono compatibili
- [SPARK-41700] [SC-119046][CONNECT][PYTHON] Togliere
FunctionBuilder
- [SPARK-41706] [SC-119094][CONNECT][PYTHON]
pyspark_types_to_proto_types
deve supportareMapType
- [SPARK-41702] [SC-119049][CONNECT][PYTHON] Aggiungere operazioni di colonna non valide
- [SPARK-41660] [SC-118866][SQL] Propagare solo le colonne di metadati se vengono usate
- [SPARK-41637] [SC-119003][SQL] ORDER BY ALL
- [SPARK-41513] [SC-118945][SQL] Implementare un enumeratore per raccogliere le metriche del conteggio delle righe per mapper
- [SPARK-41647] [SC-119064][CONNECT][12.X] Deduplicare docstrings in pyspark.sql.connect.functions
- [SPARK-41701] [SC-119048][CONNECT][PYTHON] Supporto per le operazioni di colonna
decimal
- [SPARK-41383] [SC-119015][SPARK-41692][SPARK-41693] Implementare
rollup
,cube
epivot
- [SPARK-41635] [SC-118944][SQL] RAGGRUPPA PER TUTTI
- [SPARK-41645] [SC-119057][CONNECT][12.X] Deduplicate docstrings in pyspark.sql.connect.dataframe
- [SPARK-41688] [SC-118951][CONNECT][PYTHON] Spostare espressioni in expressions.py
- [SPARK-41687] [SC-118949][CONNECT] Deduplicate docstrings in pyspark.sql.connect.group
- [SPARK-41649] [SC-118950][CONNECT] Deduplicate docstrings in pyspark.sql.connect.window
- [SPARK-41681] [SC-118939][CONNECT] Factor GroupedData su group.py
- [SPARK-41292] [SC-119038][SPARK-41640][SPARK-41641][CONNECT][PYTHON][12.X] Implementare
Window
le funzioni - [SPARK-41675] [SC-119031][SC-118934][CONNECT][PYTHON][12.X] Supporto per le operazioni di colonna
datetime
- [SPARK-41672] [SC-118929][CONNECT][PYTHON] Abilitare le funzioni deprecate
- [SPARK-41673] [SC-118932][CONNECT][PYTHON] Implementare
Column.astype
- [SPARK-41364] [SC-118865][CONNECT][PYTHON] Implementare
broadcast
la funzione - [SPARK-41648] [SC-118914][CONNECT][12.X] Deduplicate docstrings in pyspark.sql.connect.readwriter
- [SPARK-41646] [SC-118915][CONNECT][12.X] Deduplicate docstrings in pyspark.sql.connect.session
- [SPARK-41643] [SC-118862][CONNECT][12.X] Deduplicate docstrings in pyspark.sql.connect.column
- [SPARK-41663] [SC-118936][CONNECT][PYTHON][12.X] Implementare il resto delle funzioni lambda
- [SPARK-41441] [SC-118557][SQL] Supporto della generazione senza output figlio necessario per ospitare riferimenti esterni
- [SPARK-41669] [SC-118923][SQL] Eliminazione anticipata in canCollapseExpressions
- [SPARK-41639] [SC-118927][SQL][PROTOBUF] : Rimuovere ScalaReflectionLock da SchemaConverters
- [SPARK-41464] [SC-118861][CONNECT][PYTHON] Implementare
DataFrame.to
- [SPARK-41434] [SC-118857][CONNECT][PYTHON] Implementazione iniziale
LambdaFunction
- [SPARK-41539] [SC-118802][SQL] Eseguire il mapping delle statistiche e dei vincoli rispetto all'output nel piano logico per LogicalRDD
- [SPARK-41396] [SC-118786][SQL][PROTOBUF] Supporto dei campi OneOf e controlli di ricorsione
- [SPARK-41528] [SC-118769][CONNECT][12.X] Unire lo spazio dei nomi dell'API Spark Connect e PySpark
- [SPARK-41568] [SC-118715][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1236
- [SPARK-41440] [SC-118788][CONNECT][PYTHON] Implementare
DataFrame.randomSplit
- [SPARK-41583] [SC-118718][SC-118642][CONNECT][PROTOBUF] Aggiungere Spark Connect e protobuf in setup.py con la specifica delle dipendenze
- [SPARK-27561] [SC-101081][12.x][SQL] Supportare la risoluzione implicita degli alias di colonna laterale in Project
- [SPARK-41535] [SC-118645][SQL] Impostare null correttamente per i campi intervallo di calendario in
InterpretedUnsafeProjection
eInterpretedMutableProjection
- [SPARK-40687] [SC-118439][SQL] Supportare la funzione predefinita di maschera dati 'mask'
- [SPARK-41520] [SC-118440][SQL] Split AND_OR TreePattern per separare AND e OR TreePatterns
- [SPARK-41349] [SC-118668][CONNECT][PYTHON] Implementare DataFrame.hint
- [SPARK-41546] [SC-118541][CONNECT][PYTHON]
pyspark_types_to_proto_types
deve supportare StructType. - [SPARK-41334] [SC-118549][CONNECT][PYTHON] Spostare
SortOrder
proto dalle relazioni alle espressioni - [SPARK-41387] [SC-118450][SS] Asserire l'offset di fine corrente dall'origine dati Kafka per Trigger.AvailableNow
- [SPARK-41508] [SC-118445][CORE][SQL] Rinominare
_LEGACY_ERROR_TEMP_1180
UNEXPECTED_INPUT_TYPE
e rimuovere_LEGACY_ERROR_TEMP_1179
- [SPARK-41319] [SC-118441][CONNECT][PYTHON] Implementare la colonna. {quando, in caso contrario} e funzione
when
conUnresolvedFunction
- [SPARK-41541] [SC-118460][SQL] Correzione della chiamata a un metodo figlio errato in SQLShuffleWriteMetricsReporter.decRecordsWritten()
- [SPARK-41453] [SC-118458][CONNECT][PYTHON] Implementare
DataFrame.subtract
- [SPARK-41248] [SC-118436][SC-118303][SQL] Aggiungere "spark.sql.json.enablePartialResults" per abilitare/disabilitare i risultati parziali JSON
- [SPARK-41437] Ripristinare "[SC-117601][SQL] Non ottimizzare la query di input due volte per il fallback di scrittura v1"
- [SPARK-41472] [SC-118352][CONNECT][PYTHON] Implementare il resto delle funzioni stringa/binaria
- [SPARK-41526] [SC-118355][CONNECT][PYTHON] Implementare
Column.isin
- [SPARK-32170] [SC-118384] [CORE] Migliorare la speculazione tramite le metriche delle attività di fase.
- [SPARK-41524] [SC-118399][SS] Distinguere SQLConf ed extraOptions in StateStoreConf per l'utilizzo in RocksDBConf
- [SPARK-41465] [SC-118381][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][SQL] Supporto di LongToUnsafeRowMap ignoresDuplicatedKey
- [SPARK-41409] [SC-118302][CORE][SQL] Rinominare
_LEGACY_ERROR_TEMP_1043
inWRONG_NUM_ARGS.WITHOUT_SUGGESTION
- [SPARK-41438] [SC-118344][CONNECT][PYTHON] Implementare
DataFrame.colRegex
- [SPARK-41437] [SC-117601][SQL] Non ottimizzare due volte la query di input per il fallback di scrittura v1
- [SPARK-41314] [SC-117172][SQL] Assegnare un nome alla classe error
_LEGACY_ERROR_TEMP_1094
- [SPARK-41443] [SC-118004][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][CONNECT][PYTHON] Refactoring LiteralExpression per supportare DataType
- [SPARK-41448] [SC-118046] Rendere coerenti gli ID processo MR in FileBatchWriter e FileFormatWriter
- [SPARK-41456] [SC-117970][SQL] Migliorare le prestazioni di try_cast
- [SPARK-41495] [SC-118125][CONNECT][PYTHON] Implementare
collection
funzioni: P~Z - [SPARK-41478] [SC-118167][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1234
- [SPARK-41406] [SC-118161][SQL] Refactoring del messaggio di errore per
NUM_COLUMNS_MISMATCH
renderlo più generico - [SPARK-41404] [SC-118016][SQL] Effettuare il refactoring
ColumnVectorUtils#toBatch
per rendereColumnarBatchSuite#testRandomRows
il test più primitivo dataType - [SPARK-41468] [SC-118044][SQL] Correzione della gestione di PlanExpression in EquivalentExpressions
- [SPARK-40775] [SC-118045][SQL] Correzione delle voci di descrizione duplicate per le analisi dei file V2
- [SPARK-41492] [SC-118042][CONNECT][PYTHON] Implementare funzioni MISC
- [SPARK-41459] [SC-118005][SQL] Correzione dell'output del log operazioni del server thrift vuoto
- [SPARK-41395] [SC-117899][SQL]
InterpretedMutableProjection
deve usaresetDecimal
per impostare i valori Null per i decimali in una riga non sicura - [SPARK-41376] [SC-117840][CORE][3.3] Correggere la logica di controllo Netty preferDirectBufs all'avvio dell'executor
- [SPARK-41484] [SC-118159][SC-118036][CONNECT][PYTHON][12.x] Implementare
collection
funzioni: E~M - [SPARK-41389] [SC-117426][CORE][SQL] Riutilizzare
WRONG_NUM_ARGS
invece di_LEGACY_ERROR_TEMP_1044
- [SPARK-41462] [SC-117920][SQL] Il tipo di data e timestamp può essere eseguito il cast in TimestampNTZ
- [SPARK-41435] [SC-117810][SQL] Modificare per chiamare
invalidFunctionArgumentsError
quandocurdate()
expressions
non è vuoto - [SPARK-41187] [SC-118030][CORE] LiveExecutor MemoryLeak in AppStatusListener quando si verifica ExecutorLost
- [SPARK-41360] [SC-118083][CORE] Evitare la ripetizione della registrazione di BlockManager se l'executor è stato perso
- [SPARK-41378] [SC-117686][SQL] Supporto delle statistiche delle colonne in DS v2
- [SPARK-41402] [SC-117910][SQL][CONNECT][12.X] Eseguire l'override di prettyName di StringDecode
- [SPARK-41414] [SC-118041][CONNECT][PYTHON][12.x] Implementare funzioni di data/timestamp
- [SPARK-41329] [SC-117975][CONNECT] Risolvere le importazioni circolari in Spark Connect
- [SPARK-41477] [SC-118025][CONNECT][PYTHON] Dedurre correttamente il tipo di dati dei numeri interi letterali
- [SPARK-41446] [SC-118024][CONNECT][PYTHON][12.x] Creare
createDataFrame
uno schema di supporto e più tipi di set di dati di input - [SPARK-41475] [SC-117997][CONNECT] Correzione dell'errore del comando lint-scala e dell'errore di digitazione
- [SPARK-38277] [SC-117799][SS] Cancellare il batch di scrittura dopo il commit dell'archivio stati di RocksDB
- [SPARK-41375] [SC-117801][SS] Evitare la versione più recente di KafkaSourceOffset
- [SPARK-41412] [SC-118015][CONNECT] Implementare
Column.cast
- [SPARK-41439] [SC-117893][CONNECT][PYTHON] Implementare
DataFrame.melt
eDataFrame.unpivot
- [SPARK-41399] [SC-118007][SC-117474][CONNECT] Effettuare il refactoring dei test correlati alla colonna per test_connect_column
- [SPARK-41351] [SC-117957][SC-117412][CONNECT][12.x] La colonna deve supportare l'operatore !=
- [SPARK-40697] [SC-117806][SC-112787][SQL] Aggiungere la spaziatura interna dei caratteri in lettura per coprire i file di dati esterni
- [SPARK-41349] [SC-117594][CONNECT][12.X] Implementare DataFrame.hint
- [SPARK-41338] [SC-117170][SQL] Risolvere i riferimenti esterni e le colonne normali nello stesso batch analizzatore
- [SPARK-41436] [SC-117805][CONNECT][PYTHON] Implementare
collection
funzioni: A~C - [SPARK-41445] [SC-117802][CONNECT] Implementare DataFrameReader.parquet
- [SPARK-41452] [SC-117865][SQL]
to_char
deve restituire null quando format è null - [SPARK-41444] [SC-117796][CONNECT] Supporto read.json()
- [SPARK-41398] [SC-117508][SQL] Ridurre i vincoli per l'aggiunta partizionata all'archiviazione quando le chiavi di partizione dopo il filtro di runtime non corrispondono
- [SPARK-41228] [SC-117169][SQL] Rinomina e migliora il messaggio di errore per
COLUMN_NOT_IN_GROUP_BY_CLAUSE
. - [SPARK-41381] [SC-117593][CONNECT][PYTHON] Implementare
count_distinct
esum_distinct
funzioni - [SPARK-41433] [SC-117596][CONNECT] Rendere configurabile Max Arrow BatchSize
- [SPARK-41397] [SC-117590][CONNECT][PYTHON] Implementare parte delle funzioni stringa/binaria
- [SPARK-41382] [SC-117588][CONNECT][PYTHON] Implementare
product
la funzione - [SPARK-41403] [SC-117595][CONNECT][PYTHON] Implementare
DataFrame.describe
- [SPARK-41366] [SC-117580][CONNECT] DF.groupby.agg() deve essere compatibile
- [SPARK-41369] [SC-117584][CONNECT] Aggiungere la connessione comune al file JAR ombreggiato dei server
- [SPARK-41411] [SC-117562][SS] Correzione di bug per la filigrana dell'operatore con più stati
- [SPARK-41176] [SC-116630][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][CONNECT][PYTHON][12.X] Implementare funzioni di aggregazione
- [SPARK-41363] [SC-117470][CONNECT][PYTHON][12.X] Implementare funzioni normali
- [SPARK-41305] [SC-117411][CONNECT] Migliorare la documentazione per command proto
- [SPARK-41372] [SC-117427][CONNECT][PYTHON] Implementare TempView del dataframe
- [SPARK-41379] [SC-117420][SS][PYTHON] Fornire una sessione Spark clonata nel dataframe nella funzione utente per il sink foreachBatch in PySpark
- [SPARK-41373] [SC-117405][SQL][ERRORE] Rinominare CAST_WITH_FUN_SUGGESTION in CAST_WITH_FUNC_SUGGESTION
- [SPARK-41358] [SC-117417][SQL] Refactoring
ColumnVectorUtils#populate
del metodo da usarePhysicalDataType
invece diDataType
- [SPARK-41355] [SC-117423][SQL] Soluzione alternativa del problema di convalida del nome della tabella Hive
- [SPARK-41390] [SC-117429][SQL] Aggiornare lo script usato per generare
register
la funzione inUDFRegistration
- [SPARK-41206] [SC-117233][SC-116381][SQL] Rinominare la classe
_LEGACY_ERROR_TEMP_1233
di errore inCOLUMN_ALREADY_EXISTS
- [SPARK-41357] [SC-117310][CONNECT][PYTHON][12.X] Implementare funzioni matematiche
- [SPARK-40970] [SC-117308][CONNECT][PYTHON] Elenco di supporto[Colonna] per l'argomento Join
- [SPARK-41345] [SC-117178][CONNECT] Aggiungere hint per connettere Proto
- [SPARK-41226] [SC-117194][SQL][12.x] Eseguire il refactoring dei tipi Spark introducendo tipi fisici
- [SPARK-41317] [SC-116902][CONNECT][PYTHON][12.X] Aggiungere il supporto di base per DataFrameWriter
- [SPARK-41347] [SC-117173][CONNECT] Aggiungere cast al proto dell'espressione
- [SPARK-41323] [SC-117128][SQL] Current_schema di supporto
- [SPARK-41339] [SC-117171][SQL] Chiudere e ricreare il batch di scrittura di RocksDB anziché semplicemente cancellare
- [SPARK-41227] [SC-117165][CONNECT][PYTHON] Implementare il cross join tra dataframe
- [SPARK-41346] [SC-117176][CONNECT][PYTHON] Implementare
asc
edesc
funzioni - [SPARK-41343] [SC-117166][CONNECT] Spostare l'analisi di FunctionName sul lato server
- [SPARK-41321] [SC-117163][CONNECT] Campo di destinazione del supporto per UnresolvedStar
- [SPARK-41237] [SC-117167][SQL] Riutilizzare la classe
UNSUPPORTED_DATATYPE
di errore per_LEGACY_ERROR_TEMP_0030
- [SPARK-41309] [SC-116916][SQL] Riutilizzare
INVALID_SCHEMA.NON_STRING_LITERAL
invece di_LEGACY_ERROR_TEMP_1093
- [SPARK-41276] [SC-117136][SQL][ML][MLLIB][PROTOBUF][PYTHON][R][SS][AVRO] Ottimizzare l'uso del costruttore di
StructType
- [SPARK-41335] [SC-117135][CONNECT][PYTHON] Supporto di IsNull e IsNotNull nella colonna
- [SPARK-41332] [SC-117131][CONNECT][PYTHON] Correzione
nullOrdering
inSortOrder
- [SPARK-41325] [SC-117132][CONNECT][12.X] Correzione di avg() mancante per GroupBy in DF
- [SPARK-41327] [SC-117137][CORE] Correzione
SparkStatusTracker.getExecutorInfos
tramite l'opzione On/OffHeapStorageMemory info - [SPARK-41315] [SC-117129][CONNECT][PYTHON] Implementare
DataFrame.replace
eDataFrame.na.replace
- [SPARK-41328] [SC-117125][CONNECT][PYTHON] Aggiungere l'API logica e stringa a Column
- [SPARK-41331] [SC-117127][CONNECT][PYTHON] Aggiungere
orderBy
edrop_duplicates
- [SPARK-40987] [SC-117124][CORE]
BlockManager#removeBlockInternal
assicurarsi che il blocco sia sbloccato normalmente - [SPARK-41268] [SC-117102][SC-116970][CONNECT][PYTHON] Eseguire il refactoring della "colonna" per la compatibilità dell'API
- [SPARK-41312] [SC-116881][CONNECT][PYTHON][12.X] Implementare DataFrame.withColumnRenamed
- [SPARK-41221] [SC-116607][SQL] Aggiungere la classe error
INVALID_FORMAT
- [SPARK-41272] [SC-116742][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_2019
- [SPARK-41180] [SC-116760][SQL] Riutilizzare
INVALID_SCHEMA
invece di_LEGACY_ERROR_TEMP_1227
- [SPARK-41260] [SC-116880][PYTHON][SS][12.X] Eseguire il cast delle istanze NumPy in tipi primitivi Python nell'aggiornamento di GroupState
- [SPARK-41174] [SC-116609][CORE][SQL] Propagare una classe di errore agli utenti per un valore non valido
format
to_binary()
- [SPARK-41264] [SC-116971][CONNECT][PYTHON] Rendere il supporto di valori letterali più tipi di dati
- [SPARK-41326] [SC-116972] [CONNECT] Correzione deduplicazione mancante input
- [SPARK-41316] [SC-116900][SQL] Abilitare la ricorsione della parte finale laddove possibile
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Supportare le espressioni stringa nel filtro.
- [SPARK-41256] [SC-116932][SC-116883][CONNECT] Implementare DataFrame.withColumn(s)
- [SPARK-41182] [SC-116632][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][SQL] Eseguire la migrazione degli errori delle opzioni della mappa nelle classi di errore
- [SPARK-40940] [SC-115993][12.x] Rimuovere i controlli degli operatori con più stati per le query di streaming.
- [SPARK-41310] [SC-116885][CONNECT][PYTHON] Implementare DataFrame.toDF
- [SPARK-41179] [SC-116631][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][SQL] BHJ LeftAnti non aggiorna numOutputRows quando codegen è disabilitato
- [SPARK-41148] [SC-116878][CONNECT][PYTHON] Implementare
DataFrame.dropna
eDataFrame.na.drop
- [SPARK-41217] [SC-116380][SQL] Aggiungere la classe error
FAILED_FUNCTION_CALL
- [SPARK-41308] [SC-116875][CONNECT][PYTHON] Migliorare DataFrame.count()
- [SPARK-41301] [SC-116786] [CONNECT] Comportamento omogeneo per SparkSession.range()
- [SPARK-41306] [SC-116860][CONNECT] Migliorare la documentazione proto di Connect Expression
- [SPARK-41280] [SC-116733][CONNECT] Implementare DataFrame.tail
- [SPARK-41300] [SC-116751] [CONNECT] Lo schema unset viene interpretato come schema
- [SPARK-41255] [SC-116730][SC-116695] [CONNECT] Rinominare RemoteSparkSession
- [SPARK-41250] [SC-116788][SC-116633][CONNECT][PYTHON] DataFrame. toPandas non deve restituire il dataframe pandas facoltativo
- [SPARK-41291] [SC-116738][CONNECT][PYTHON]
DataFrame.explain
deve stampare e restituire Nessuno - [SPARK-41278] [SC-116732][CONNECT] Pulire l'attributo QualifiedAttribute inutilizzato in Expression.proto
- [SPARK-41097] [SC-116653][CORE][SQL][SS][PROTOBUF] Rimuovere la conversione della raccolta ridondante in base al codice Scala 2.13
- [SPARK-41261] [SC-116718][PYTHON][SS] Correzione del problema relativo a applyInPandasWithState quando le colonne delle chiavi di raggruppamento non vengono inserite in ordine dal primo
- [SPARK-40872] [SC-116717][3.3] Il fallback al blocco casuale originale quando un blocco shuffle unito push è di dimensioni zero
- [SPARK-41114] [SC-116628][CONNECT] Supporto dei dati locali per LocalRelation
- [SPARK-41216] [SC-116678][CONNECT][PYTHON] Implementare
DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
- [SPARK-41238] [SC-116670][CONNECT][PYTHON] Supportare più tipi di dati predefiniti
- [SPARK-41230] [SC-116674][CONNECT][PYTHON] Rimuovere
str
dal tipo di espressione aggregate - [SPARK-41224] [SC-116652][SPARK-41165][SPARK-41184][CONNECT] Implementazione di raccolta basata su freccia ottimizzata per lo streaming dal server al client
- [SPARK-41222] [SC-116625][CONNECT][PYTHON] Unificare le definizioni di digitazione
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Disabilitare le funzioni non supportate.
- [SPARK-41201] [SC-116526][CONNECT][PYTHON] Implementare
DataFrame.SelectExpr
nel client Python - [SPARK-41203] [SC-116258] [CONNECT] Supporto di Dataframe.tansform nel client Python.
- [SPARK-41213] [SC-116375][CONNECT][PYTHON] Implementare
DataFrame.__repr__
eDataFrame.dtypes
- [SPARK-41169] [SC-116378][CONNECT][PYTHON] Implementare
DataFrame.drop
- [SPARK-41172] [SC-116245][SQL] Eseguire la migrazione dell'errore di riferimento ambiguo a una classe di errore
- [SPARK-41122] [SC-116141][CONNECT] Spiegare l'API può supportare diverse modalità
- [SPARK-41209] [SC-116584][SC-116376][PYTHON] Migliorare l'inferenza del tipo PySpark nel metodo _merge_type
- [SPARK-41196] [SC-116555][SC-116179] [CONNECT] Omogeneizzare la versione protobuf nel server di connessione Spark per usare la stessa versione principale.
- [SPARK-35531] [SC-116409][SQL] Aggiornare le statistiche della tabella Hive senza la conversione non necessaria
- [SPARK-41154] [SC-116289][SQL] Memorizzazione nella cache delle relazioni non corretta per le query con specifiche di spostamento temporale
- [SPARK-41212] [SC-116554][SC-116389][CONNECT][PYTHON] Implementare
DataFrame.isEmpty
- [SPARK-41135] [SC-116400][SQL] Rinominare
UNSUPPORTED_EMPTY_LOCATION
inINVALID_EMPTY_LOCATION
- [SPARK-41183] [SC-116265][SQL] Aggiungere un'API di estensione per pianificare la normalizzazione per la memorizzazione nella cache
- [SPARK-41054] [SC-116447][interfaccia utente][CORE] Supporto di RocksDB come KVStore nell'interfaccia utente dinamica
- [SPARK-38550] [SC-115223]Ripristinare "[SQL][CORE] Usare un archivio basato su disco per salvare altre informazioni di debug per l'interfaccia utente dinamica"
- [SPARK-41173] [SC-116185][SQL] Spostarsi
require()
dai costruttori delle espressioni stringa - [SPARK-41188] [SC-116242][CORE][ML] Impostare executorEnv OMP_NUM_THREADS su spark.task.cpus per impostazione predefinita per i processi JVM dell'executor Spark
- [SPARK-41130] [SC-116155][SQL] Rinominare
OUT_OF_DECIMAL_TYPE_RANGE
inNUMERIC_OUT_OF_SUPPORTED_RANGE
- [SPARK-41175] [SC-116238][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][SQL] Ridurre la conversione della raccolta quando si crea AttributeMap
- [SPARK-41139] [SC-115983][SQL] Migliorare la classe di errore:
PYTHON_UDF_IN_ON_CLAUSE
- [SPARK-40657] [SC-115997][PROTOBUF] Richiedere l'ombreggiatura per il file JAR della classe Java, migliorare la gestione degli errori
- [SPARK-40999] [SC-116168] Propagazione degli hint nelle sottoquery
- [SPARK-41017] [SC-116054][SQL] Supportare l'eliminazione delle colonne con più filtri non deterministici
- [SPARK-40834] [SC-114773][SQL] Usare SparkListenerSQLExecutionEnd per tenere traccia dello stato SQL finale nell'interfaccia utente
- [SPARK-41118] [SC-116027][SQL]
to_number
/try_to_number
deve restituirenull
quando il formato ènull
- [SPARK-39799] [SC-115984][SQL] DataSourceV2: Visualizzare l'interfaccia del catalogo
- [SPARK-40665] [SC-116210][SC-112300][CONNECT] Evitare di incorporare Spark Connect nella versione binaria di Apache Spark
- [SPARK-41048] [SC-116043][SQL] Migliorare il partizionamento e l'ordinamento dell'output con la cache AQE
- [SPARK-41198] [SC-116256][SS] Correggere le metriche nella query di streaming con origine di streaming CTE e DSv1
- [SPARK-41199] [SC-116244][SS] Correzione del problema relativo alle metriche quando l'origine di streaming DSv1 e l'origine di streaming DSv2 vengono co-usate
- [SPARK-40957] [SC-116261][SC-114706] Aggiungere la cache in memoria in HDFSMetadataLog
- [SPARK-40940] Ripristinare "[SC-115993] Rimuovere i controlli degli operatori con più stati per le query di streaming".
- [SPARK-41090] [SC-116040][SQL] Generare un'eccezione per quando
db_name.view_name
si crea una visualizzazione temporanea in base all'API del set di dati - [SPARK-41133] [SC-116085][SQL] Integrazione
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION
inNUMERIC_VALUE_OUT_OF_RANGE
- [SPARK-40557] [SC-116182][SC-111442][CONNECT] Commit del dump del codice 9
- [SPARK-40448] [SC-114447][SC-111314][CONNECT] Compilazione spark Connect come plug-in driver con dipendenze ombreggiate
- [SPARK-41096] [SC-115812][SQL] Supporto per la lettura del tipo di FIXED_LEN_BYTE_ARRAY parquet
- [SPARK-41140] [SC-115879][SQL] Rinominare la classe
_LEGACY_ERROR_TEMP_2440
di errore inINVALID_WHERE_CONDITION
- [SPARK-40918] [SC-114438][SQL] Mancata corrispondenza tra FileSourceScanExec e Orc e ParquetFileFormat per la produzione di output a colonne
- [SPARK-41155] [SC-115991][SQL] Aggiungere un messaggio di errore a SchemaColumnConvertNotSupportedException
- [SPARK-40940] [SC-115993] Rimuovere i controlli degli operatori con più stati per le query di streaming.
- [SPARK-41098] [SC-115790][SQL] Rinominare
GROUP_BY_POS_REFERS_AGG_EXPR
inGROUP_BY_POS_AGGREGATE
- [SPARK-40755] [SC-115912][SQL] Eseguire la migrazione degli errori di controllo dei tipi della formattazione dei numeri nelle classi di errore
- [SPARK-41059] [SC-115658][SQL] Rinominare
_LEGACY_ERROR_TEMP_2420
inNESTED_AGGREGATE_FUNCTION
- [SPARK-41044] [SC-115662][SQL] Convertire DATATYPE_MISMATCH. UNSPECIFIED_FRAME a INTERNAL_ERROR
- [SPARK-40973] [SC-115132][SQL] Rinominare
_LEGACY_ERROR_TEMP_0055
inUNCLOSED_BRACKETED_COMMENT
Aggiornamenti di manutenzione
Vedere Aggiornamenti della manutenzione di Databricks Runtime 12.1.
Ambiente di sistema
- Sistema operativo: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
Librerie Python installate
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttoken | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | cryptography | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0.11 | entrypoints | 0.4 | executing | 0.8.3 |
facet-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.8.2 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.0 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.8 | numpy | 1.21.5 | packaging | 21.3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.0 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
requests | 2.27.1 | requests-unixsocket | 0.2.0 | rope | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
six | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.3 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Librerie R installate
Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2022-11-11.
Library | Versione | Library | Versione | Library | Versione |
---|---|---|---|---|---|
freccia | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1.0-8 | brio | 1.1.3 |
Scopa | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | class | 7.3-20 | cli | 3.4.1 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-18 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compilatore | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credentials | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | datasets | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
puntini di sospensione | 0.3.2 | evaluate | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generics | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
Gower | 1.0.0 | grafica | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | Iteratori | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1,40 |
Etichettatura | 0.4.2 | later | 1.3.0 | Lattice | 0.20-45 |
Java | 1.7.0 | lifecycle | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58 | Matrice | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0.12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-160 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | Concetto fondamentale | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | Proc | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | Avanzamento | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | ricette | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2.18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-11 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | Scalabilità | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | Forma | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.1 | spaziale | 7.3-11 | Spline | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
Sopravvivenza | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0,42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | UTF8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0.4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Librerie Java e Scala installate (versione del cluster Scala 2.12)
ID gruppo | ID artefatto | Versione |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-distribuisci-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-consultas | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | stream | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.mdfsoftware | kryo-shaded | 4.0.2 |
com.mdfsoftware | minlog | 1.3.0 |
com.fasterxml | compagno di classe | 1.3.4 |
com.fasterxml.jackson.core | annotazioni jackson | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeina | caffeina | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guaiava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | JSON | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocità | univocità-parser | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.sdk.netlib | arpack | 2.2.1 |
dev.sdk.netlib | blas | 2.2.1 |
dev.sdk.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.21 |
io.delta | delta-sharing-spark_2.12 | 0.6.2 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | agente di raccolta | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | sottaceto | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | formato freccia | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | freccia-vettore | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curatore-cliente | 2.13.0 |
org.apache.curator | curatore-framework | 2.13.0 |
org.apache.curator | ricette curatori | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shim | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | codifica parquet | 1.12.3-databricks-0002 |
org.apache.parquet | strutture parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | annotazioni del gruppo di destinatari | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
org.glassfish.jersey.core | jersey-client | 2.36 |
org.glassfish.jersey.core | maglia-comune | 2.36 |
org.glassfish.jersey.core | jersey-server | 2.36 |
org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 1.27.0 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | Spessori | 0.9.25 |
org.rocksdb | rocksdbjni | 6.24.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | inutilizzato | 1.0.0 |
org.threeten | treten-extra | 1.5.0 |
org.cortanaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1,5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |