Condividi tramite


Databricks Runtime 12.1 (EoS)

Nota

Il supporto per questa versione di Databricks Runtime è terminato. Per la data di fine del supporto, vedere Cronologia di fine del supporto. Per tutte le versioni supportate di Databricks Runtime, vedere Versioni e compatibilità delle note sulla versione di Databricks Runtime.

Le note sulla versione seguenti forniscono informazioni su Databricks Runtime 12.1, basate su Apache Spark 3.3.1.

Databricks ha rilasciato questa versione a gennaio 2023.

Miglioramenti e nuove funzionalità

Funzionalità delle tabelle Delta Lake supportate per la gestione dei protocolli

Azure Databricks ha introdotto il supporto per le funzionalità di tabella Delta Lake, che introducono flag granulari che specificano quali funzionalità sono supportate da una determinata tabella. Si veda In che modo Azure Databricks gestisce la compatibilità delle funzionalità di Delta Lake?.

L'I/O predittivo per gli aggiornamenti è disponibile in anteprima pubblica

L'I/O predittivo accelera ora le DELETEoperazioni , MERGEe UPDATE per le tabelle Delta con vettori di eliminazione abilitati nel calcolo abilitato per Photon. Si veda Che cos'è l'I/O predittivo?.

Esplora cataloghi è ora disponibile per tutti gli utenti

Esplora cataloghi è ora disponibile per tutti gli utenti di Azure Databricks quando si usa Databricks Runtime 7.3 LTS e versioni successive.

Supporto per più operatori con stato in una singola query di streaming

Gli utenti possono ora concatenare gli operatori con stato con modalità di accodamento nella query di streaming. Non tutti gli operatori sono completamente supportati. Join dell'intervallo di tempo del flusso di flusso e flatMapGroupsWithState non consente la concatenazione di altri operatori con stato.

Il supporto per i buffer del protocollo è disponibile in anteprima pubblica

È possibile usare le from_protobuf funzioni e to_protobuf per scambiare dati tra tipi binari e struct. Vedere Buffer del protocollo di lettura e scrittura.

Supporto per l'autenticazione del Registro di sistema dello schema confluent

L'integrazione di Azure Databricks con Registro schemi Confluent supporta ora gli indirizzi del Registro di sistema dello schema esterni con l'autenticazione. Questa funzionalità è disponibile per from_avrole funzioni , to_avrofrom_protobuf, e to_protobuf . Vedi Protobuf o Avro.

Supporto per la condivisione della cronologia delle tabelle con condivisioni delta

È ora possibile condividere una tabella con cronologia completa usando la condivisione delta, consentendo ai destinatari di eseguire query di spostamento del tempo ed eseguire query sulla tabella usando Spark Structured Streaming. WITH HISTORY è consigliato invece di CHANGE DATA FEED, anche se quest'ultimo continua a essere supportato. Vedere ALTER SHARE e Aggiungere tabelle a una condivisione.

Supporto per lo streaming con condivisioni delta sharing

Spark Structured Streaming ora funziona con il formato deltasharing in una tabella di condivisione delta di origine condivisa con WITH HISTORY.

Versione della tabella che usa il timestamp ora supportato per le tabelle di condivisione delta nei cataloghi

È ora possibile usare la sintassi TIMESTAMP AS OF SQL nelle SELECT istruzioni per specificare la versione di una tabella di condivisione delta montata in un catalogo. Le tabelle devono essere condivise tramite WITH HISTORY.

Supporto per WHEN NOT MATCHED BY SOURCE per MERGE INTO

È ora possibile aggiungere WHEN NOT MATCHED BY SOURCE clausole a MERGE INTO per aggiornare o eliminare righe nella tabella scelta che non hanno corrispondenze nella tabella di origine in base alla condizione di merge. La nuova clausola è disponibile in SQL, Python, Scala e Java. Vedere MERGE INTO.

Raccolta di statistiche ottimizzata per CONVERT TO DELTA

La raccolta di statistiche per l'operazione CONVERT TO DELTA è ora molto più veloce. In questo modo si riduce il numero di carichi di lavoro che potrebbero essere usati NO STATISTICS per l'efficienza.

Supporto del catalogo Unity per l'annullamento deldro delle tabelle

Questa funzionalità è stata inizialmente rilasciata in anteprima pubblica. È disponibile a partire dal 25 ottobre 2023.

È ora possibile eliminare una tabella gestita o esterna eliminata in uno schema esistente entro sette giorni dall'eliminazione. Vedere UNDROP TABLE e SHOW TABLES DROPPED.See UNDROP TABLE and SHOW TABLES DROPPED.

Aggiornamenti della libreria

  • Librerie Python aggiornate:
    • filelock da 3.8.0 a 3.8.2
    • platformdirs dalla versione 2.5.4 alla versione 2.6.0
    • setuptools da 58.0.4 a 61.2.0
  • Librerie R aggiornate:
  • Librerie Java aggiornate:
    • io.delta.delta-sharing-spark_2.12 da 0.5.2 a 0.6.2
    • org.apache.hive.hive-storage-api dalla versione 2.7.2 alla versione 2.8.1
    • org.apache.parquet-column da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.common da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.encoding da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet-format-structures da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet-hadoop da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet-jackson da 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.portalaani.xz da 1.8 a 1.9

Apache Spark

Databricks Runtime 12.1 include Apache Spark 3.3.1. Questa versione include tutte le correzioni e i miglioramenti di Spark inclusi in Databricks Runtime 12.0 (EoS), nonché le correzioni di bug e i miglioramenti aggiuntivi seguenti apportati a Spark:

  • [SPARK-41405] [SC-119769][12.1.0] Ripristinare "[SC-119411][SQL] Centralizzare la logica di risoluzione delle colonne" e "[SC-117170][SPARK-41338][SQL] Risolvere i riferimenti esterni e le colonne normali nello stesso batch analizzatore"
  • [SPARK-41405] [SC-119411][SQL] Centralizzare la logica di risoluzione delle colonne
  • [SPARK-41859] [SC-119514][SQL] CreateHiveTableAsSelectCommand deve impostare correttamente il flag di sovrascrittura
  • [SPARK-41659] [SC-119526][CONNECT][12.X] Abilitare doctests in pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][SQL] Correzione della regressione delle prestazioni del lettore ORC a causa della funzionalità VALORE PREDEFINITO
  • [SPARK-41807] [SC-119399][CORE] Rimuovere la classe di errore inesistente: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
  • [SPARK-41578] [12.x][SC-119273][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2141
  • [SPARK-41571] [SC-119362][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_2310
  • [SPARK-41810] [SC-119373][CONNECT] Dedurre i nomi da un elenco di dizionari in SparkSession.createDataFrame
  • [SPARK-40993] [SC-119504][SPARK-41705][CONNECT][12.X] Spostare la documentazione e lo script di Spark Connect nella documentazione di Sviluppo/Python
  • [SPARK-41534] [SC-119456][CONNECT][SQL][12.x] Configurare il modulo client iniziale per Spark Connect
  • [SPARK-41365] [SC-118498][interfaccia utente][3.3] La pagina fasi dell'interfaccia utente non viene caricata per il proxy in un ambiente yarn specifico
  • [SPARK-41481] [SC-118150][CORE][SQL] Riutilizzare INVALID_TYPED_LITERAL invece di _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][SQL] Rivedere la gestione delle espressioni con stato
  • [SPARK-41726] [SC-119248][SQL] Togliere OptimizedCreateHiveTableAsSelectCommand
  • [SPARK-41271] [SC-118648][SC-118348][SQL] Supportare query SQL con parametri in base a sql()
  • [SPARK-41066] [SC-119344][CONNECT][PYTHON] Implementare DataFrame.sampleBy e DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][SC-119012][SQL][TUTTI I TEST] Estrarre la scrittura v1 in WriteFiles
  • [SPARK-41565] [SC-118868][SQL] Aggiungere la classe error UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][SQL] La funzione DECODE restituisce risultati errati quando è stato passato NULL
  • [SPARK-41554] [SC-119274] correzione della modifica della scala decimale quando la scala è diminuita di m...
  • [SPARK-41065] [SC-119324][CONNECT][PYTHON] Implementare DataFrame.freqItems e DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][SPARK-41745][CONNECT][12.X] Riprovare i test della documentazione e aggiungere l'alias di colonna mancante a count()
  • [SPARK-41069] [SC-119310][CONNECT][PYTHON] Implementare DataFrame.approxQuantile e DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][CONNECT][PYTHON] Make function from_json support DataType Schema
  • [SPARK-41804] [SC-119382][SQL] Scegliere le dimensioni corrette degli elementi in InterpretedUnsafeProjection per la matrice di tipi definiti dall'utente
  • [SPARK-41786] [SC-119308][CONNECT][PYTHON] Funzioni helper deduplicate
  • [SPARK-41745] [SC-119378][SPARK-41789][12.X] Creare createDataFrame un elenco di righe di supporto
  • [SPARK-41344] [SC-119217][SQL] Rendere più chiaro l'errore quando la tabella non è stata trovata nel catalogo SupportsCatalogOptions
  • [SPARK-41803] [SC-119380][CONNECT][PYTHON] Aggiungere una funzione mancante log(arg1, arg2)
  • [SPARK-41808] [SC-119356][CONNECT][PYTHON] Opzioni di supporto per le funzioni JSON
  • [SPARK-41779] [SC-119275][SPARK-41771][CONNECT][PYTHON] Applicare __getitem__ il filtro di supporto e selezionare
  • [SPARK-41783] [SC-119288][SPARK-41770][CONNECT][PYTHON] Supporto delle colonne none
  • [SPARK-41440] [SC-119279][CONNECT][PYTHON] Evitare l'operatore cache per l'esempio generale.
  • [SPARK-41785] [SC-119290][CONNECT][PYTHON] Implementare GroupedData.mean
  • [SPARK-41629] [SC-119276][CONNECT] Supporto per le estensioni del protocollo in relazione ed espressione
  • [SPARK-41417] [SC-118000][CORE][SQL] Rinominare _LEGACY_ERROR_TEMP_0019 in INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][CONNECT][12.X] Gestione degli errori corretta per il server Spark Connect/client
  • [SPARK-41292] [SC-119357][CONNECT][12.X] Finestra di supporto nello spazio dei nomi pyspark.sql.window
  • [SPARK-41493] [SC-119339][CONNECT][PYTHON] Opzioni di supporto per le funzioni CSV
  • [SPARK-39591] [SC-118675][SS] Rilevamento dello stato asincrono
  • [SPARK-41767] [SC-119337][CONNECT][PYTHON][12.X] Implementare Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][CONNECT][PYTHON] Implementare DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][CONNECT][12.X] Abilitare doctests in pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][CONNECT] Mix ClientId nella cache SparkSession
  • [SPARK-41354] [SC-119194][CONNECT] Aggiungi RepartitionByExpression al proto
  • [SPARK-41784] [SC-119289][CONNECT][PYTHON] Aggiungi mancante __rmod__ nella colonna
  • [SPARK-41778] [SC-119262][SQL] Aggiungere un alias "reduce" a ArrayAggregate
  • [SPARK-41067] [SC-119171][CONNECT][PYTHON] Implementare DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][CONNECT][PYTHON] Rendere coerente il nome operativo della stringa interna con FunctionRegistry
  • [SPARK-41734] [SC-119160][CONNECT] Aggiungere un messaggio padre per Catalog
  • [SPARK-41742] [SC-119263] Supporto di df.groupBy().agg({"*":"count"})
  • [SPARK-41761] [SC-119213][CONNECT][PYTHON] Correzione delle operazioni aritmetiche: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][SQL] Rinominare UNSUPPORTED_CORRELATED_REFERENCE in CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][CONNECT][PYTHON] Correzione Column.{isNull, isNotNull, eqNullSafe}
  • [SPARK-41728] [SC-119164][CONNECT][PYTHON][12.X] Implementare unwrap_udt la funzione
  • [SPARK-41333] [SC-119195][SPARK-41737] Implementare GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][CONNECT][PYTHON] Correzione Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][SQL] Supportare la risoluzione implicita degli alias di colonna laterale in Aggregate
  • [SPARK-41529] [SC-119207][CONNECT][12.X] Implementare SparkSession.stop
  • [SPARK-41729] [SC-119205][CORE][SQL][12.X] Rinominare _LEGACY_ERROR_TEMP_0011 in UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][CONNECT][12.X] Stampa deduplicare e repr_html in LogicalPlan
  • [SPARK-41740] [SC-119169][CONNECT][PYTHON] Implementare Column.name
  • [SPARK-41733] [SC-119163][SQL][SS] Applicare l'eliminazione basata su pattern ad albero per la regola ResolveWindowTime
  • [SPARK-41732] [SC-119157][SQL][SS] Applicare l'eliminazione basata su pattern ad albero per la regola SessionWindowing
  • [SPARK-41498] [SC-119018] Propagare i metadati tramite Union
  • [SPARK-41731] [SC-119166][CONNECT][PYTHON][12.X] Implementare la funzione di accesso alle colonne
  • [SPARK-41736] [SC-119161][CONNECT][PYTHON] pyspark_types_to_proto_types deve supportare ArrayType
  • [SPARK-41473] [SC-119092][CONNECT][PYTHON] Implementare format_number la funzione
  • [SPARK-41707] [SC-119141][CONNECT][12.X] Implementare l'API catalogo in Spark Connect
  • [SPARK-41710] [SC-119062][CONNECT][PYTHON] Implementare Column.between
  • [SPARK-41235] [SC-119088][SQL][PYTHON]Funzione di ordine elevato: implementazione array_compact
  • [SPARK-41518] [SC-118453][SQL] Assegnare un nome alla classe error _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][CONNECT][PYTHON] Implementare sequence la funzione
  • [SPARK-41703] [SC-119060][CONNECT][PYTHON] Combinare NullType e typed_null nel valore letterale
  • [SPARK-41722] [SC-119090][CONNECT][PYTHON] Implementare 3 funzioni di intervallo di tempo mancanti
  • [SPARK-41503] [SC-119043][CONNECT][PYTHON] Implementare funzioni di trasformazione partizione
  • [SPARK-41413] [SC-118968][SQL] Evitare lo shuffle in Join partizionato dall'archiviazione quando le chiavi di partizione non corrispondono, ma le espressioni join sono compatibili
  • [SPARK-41700] [SC-119046][CONNECT][PYTHON] Togliere FunctionBuilder
  • [SPARK-41706] [SC-119094][CONNECT][PYTHON] pyspark_types_to_proto_types deve supportare MapType
  • [SPARK-41702] [SC-119049][CONNECT][PYTHON] Aggiungere operazioni di colonna non valide
  • [SPARK-41660] [SC-118866][SQL] Propagare solo le colonne di metadati se vengono usate
  • [SPARK-41637] [SC-119003][SQL] ORDER BY ALL
  • [SPARK-41513] [SC-118945][SQL] Implementare un enumeratore per raccogliere le metriche del conteggio delle righe per mapper
  • [SPARK-41647] [SC-119064][CONNECT][12.X] Deduplicare docstrings in pyspark.sql.connect.functions
  • [SPARK-41701] [SC-119048][CONNECT][PYTHON] Supporto per le operazioni di colonna decimal
  • [SPARK-41383] [SC-119015][SPARK-41692][SPARK-41693] Implementare rollup, cube e pivot
  • [SPARK-41635] [SC-118944][SQL] RAGGRUPPA PER TUTTI
  • [SPARK-41645] [SC-119057][CONNECT][12.X] Deduplicate docstrings in pyspark.sql.connect.dataframe
  • [SPARK-41688] [SC-118951][CONNECT][PYTHON] Spostare espressioni in expressions.py
  • [SPARK-41687] [SC-118949][CONNECT] Deduplicate docstrings in pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][CONNECT] Deduplicate docstrings in pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][CONNECT] Factor GroupedData su group.py
  • [SPARK-41292] [SC-119038][SPARK-41640][SPARK-41641][CONNECT][PYTHON][12.X] Implementare Window le funzioni
  • [SPARK-41675] [SC-119031][SC-118934][CONNECT][PYTHON][12.X] Supporto per le operazioni di colonna datetime
  • [SPARK-41672] [SC-118929][CONNECT][PYTHON] Abilitare le funzioni deprecate
  • [SPARK-41673] [SC-118932][CONNECT][PYTHON] Implementare Column.astype
  • [SPARK-41364] [SC-118865][CONNECT][PYTHON] Implementare broadcast la funzione
  • [SPARK-41648] [SC-118914][CONNECT][12.X] Deduplicate docstrings in pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][CONNECT][12.X] Deduplicate docstrings in pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][CONNECT][12.X] Deduplicate docstrings in pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][CONNECT][PYTHON][12.X] Implementare il resto delle funzioni lambda
  • [SPARK-41441] [SC-118557][SQL] Supporto della generazione senza output figlio necessario per ospitare riferimenti esterni
  • [SPARK-41669] [SC-118923][SQL] Eliminazione anticipata in canCollapseExpressions
  • [SPARK-41639] [SC-118927][SQL][PROTOBUF] : Rimuovere ScalaReflectionLock da SchemaConverters
  • [SPARK-41464] [SC-118861][CONNECT][PYTHON] Implementare DataFrame.to
  • [SPARK-41434] [SC-118857][CONNECT][PYTHON] Implementazione iniziale LambdaFunction
  • [SPARK-41539] [SC-118802][SQL] Eseguire il mapping delle statistiche e dei vincoli rispetto all'output nel piano logico per LogicalRDD
  • [SPARK-41396] [SC-118786][SQL][PROTOBUF] Supporto dei campi OneOf e controlli di ricorsione
  • [SPARK-41528] [SC-118769][CONNECT][12.X] Unire lo spazio dei nomi dell'API Spark Connect e PySpark
  • [SPARK-41568] [SC-118715][SQL] Assegnare un nome a _LEGACY_ERROR_TEMP_1236
  • [SPARK-41440] [SC-118788][CONNECT][PYTHON] Implementare DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][SC-118642][CONNECT][PROTOBUF] Aggiungere Spark Connect e protobuf in setup.py con la specifica delle dipendenze
  • [SPARK-27561] [SC-101081][12.x][SQL] Supportare la risoluzione implicita degli alias di colonna laterale in Project
  • [SPARK-41535] [SC-118645][SQL] Impostare null correttamente per i campi intervallo di calendario in InterpretedUnsafeProjection e InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][SQL] Supportare la funzione predefinita di maschera dati 'mask'
  • [SPARK-41520] [SC-118440][SQL] Split AND_OR TreePattern per separare AND e OR TreePatterns
  • [SPARK-41349] [SC-118668][CONNECT][PYTHON] Implementare DataFrame.hint
  • [SPARK-41546] [SC-118541][CONNECT][PYTHON] pyspark_types_to_proto_types deve supportare StructType.
  • [SPARK-41334] [SC-118549][CONNECT][PYTHON] Spostare SortOrder proto dalle relazioni alle espressioni
  • [SPARK-41387] [SC-118450][SS] Asserire l'offset di fine corrente dall'origine dati Kafka per Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][CORE][SQL] Rinominare _LEGACY_ERROR_TEMP_1180 UNEXPECTED_INPUT_TYPE e rimuovere _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][CONNECT][PYTHON] Implementare la colonna. {quando, in caso contrario} e funzione when con UnresolvedFunction
  • [SPARK-41541] [SC-118460][SQL] Correzione della chiamata a un metodo figlio errato in SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][CONNECT][PYTHON] Implementare DataFrame.subtract
  • [SPARK-41248] [SC-118436][SC-118303][SQL] Aggiungere "spark.sql.json.enablePartialResults" per abilitare/disabilitare i risultati parziali JSON
  • [SPARK-41437] Ripristinare "[SC-117601][SQL] Non ottimizzare la query di input due volte per il fallback di scrittura v1"
  • [SPARK-41472] [SC-118352][CONNECT][PYTHON] Implementare il resto delle funzioni stringa/binaria
  • [SPARK-41526] [SC-118355][CONNECT][PYTHON] Implementare Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Migliorare la speculazione tramite le metriche delle attività di fase.
  • [SPARK-41524] [SC-118399][SS] Distinguere SQLConf ed extraOptions in StateStoreConf per l'utilizzo in RocksDBConf
  • [SPARK-41465] [SC-118381][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][SQL] Supporto di LongToUnsafeRowMap ignoresDuplicatedKey
  • [SPARK-41409] [SC-118302][CORE][SQL] Rinominare _LEGACY_ERROR_TEMP_1043 in WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][CONNECT][PYTHON] Implementare DataFrame.colRegex
  • [SPARK-41437] [SC-117601][SQL] Non ottimizzare due volte la query di input per il fallback di scrittura v1
  • [SPARK-41314] [SC-117172][SQL] Assegnare un nome alla classe error _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][CONNECT][PYTHON] Refactoring LiteralExpression per supportare DataType
  • [SPARK-41448] [SC-118046] Rendere coerenti gli ID processo MR in FileBatchWriter e FileFormatWriter
  • [SPARK-41456] [SC-117970][SQL] Migliorare le prestazioni di try_cast
  • [SPARK-41495] [SC-118125][CONNECT][PYTHON] Implementare collection funzioni: P~Z
  • [SPARK-41478] [SC-118167][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][SQL] Refactoring del messaggio di errore per NUM_COLUMNS_MISMATCH renderlo più generico
  • [SPARK-41404] [SC-118016][SQL] Effettuare il refactoring ColumnVectorUtils#toBatch per rendere ColumnarBatchSuite#testRandomRows il test più primitivo dataType
  • [SPARK-41468] [SC-118044][SQL] Correzione della gestione di PlanExpression in EquivalentExpressions
  • [SPARK-40775] [SC-118045][SQL] Correzione delle voci di descrizione duplicate per le analisi dei file V2
  • [SPARK-41492] [SC-118042][CONNECT][PYTHON] Implementare funzioni MISC
  • [SPARK-41459] [SC-118005][SQL] Correzione dell'output del log operazioni del server thrift vuoto
  • [SPARK-41395] [SC-117899][SQL] InterpretedMutableProjection deve usare setDecimal per impostare i valori Null per i decimali in una riga non sicura
  • [SPARK-41376] [SC-117840][CORE][3.3] Correggere la logica di controllo Netty preferDirectBufs all'avvio dell'executor
  • [SPARK-41484] [SC-118159][SC-118036][CONNECT][PYTHON][12.x] Implementare collection funzioni: E~M
  • [SPARK-41389] [SC-117426][CORE][SQL] Riutilizzare WRONG_NUM_ARGS invece di _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][SQL] Il tipo di data e timestamp può essere eseguito il cast in TimestampNTZ
  • [SPARK-41435] [SC-117810][SQL] Modificare per chiamare invalidFunctionArgumentsError quando curdate() expressions non è vuoto
  • [SPARK-41187] [SC-118030][CORE] LiveExecutor MemoryLeak in AppStatusListener quando si verifica ExecutorLost
  • [SPARK-41360] [SC-118083][CORE] Evitare la ripetizione della registrazione di BlockManager se l'executor è stato perso
  • [SPARK-41378] [SC-117686][SQL] Supporto delle statistiche delle colonne in DS v2
  • [SPARK-41402] [SC-117910][SQL][CONNECT][12.X] Eseguire l'override di prettyName di StringDecode
  • [SPARK-41414] [SC-118041][CONNECT][PYTHON][12.x] Implementare funzioni di data/timestamp
  • [SPARK-41329] [SC-117975][CONNECT] Risolvere le importazioni circolari in Spark Connect
  • [SPARK-41477] [SC-118025][CONNECT][PYTHON] Dedurre correttamente il tipo di dati dei numeri interi letterali
  • [SPARK-41446] [SC-118024][CONNECT][PYTHON][12.x] Creare createDataFrame uno schema di supporto e più tipi di set di dati di input
  • [SPARK-41475] [SC-117997][CONNECT] Correzione dell'errore del comando lint-scala e dell'errore di digitazione
  • [SPARK-38277] [SC-117799][SS] Cancellare il batch di scrittura dopo il commit dell'archivio stati di RocksDB
  • [SPARK-41375] [SC-117801][SS] Evitare la versione più recente di KafkaSourceOffset
  • [SPARK-41412] [SC-118015][CONNECT] Implementare Column.cast
  • [SPARK-41439] [SC-117893][CONNECT][PYTHON] Implementare DataFrame.melt e DataFrame.unpivot
  • [SPARK-41399] [SC-118007][SC-117474][CONNECT] Effettuare il refactoring dei test correlati alla colonna per test_connect_column
  • [SPARK-41351] [SC-117957][SC-117412][CONNECT][12.x] La colonna deve supportare l'operatore !=
  • [SPARK-40697] [SC-117806][SC-112787][SQL] Aggiungere la spaziatura interna dei caratteri in lettura per coprire i file di dati esterni
  • [SPARK-41349] [SC-117594][CONNECT][12.X] Implementare DataFrame.hint
  • [SPARK-41338] [SC-117170][SQL] Risolvere i riferimenti esterni e le colonne normali nello stesso batch analizzatore
  • [SPARK-41436] [SC-117805][CONNECT][PYTHON] Implementare collection funzioni: A~C
  • [SPARK-41445] [SC-117802][CONNECT] Implementare DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][SQL] to_char deve restituire null quando format è null
  • [SPARK-41444] [SC-117796][CONNECT] Supporto read.json()
  • [SPARK-41398] [SC-117508][SQL] Ridurre i vincoli per l'aggiunta partizionata all'archiviazione quando le chiavi di partizione dopo il filtro di runtime non corrispondono
  • [SPARK-41228] [SC-117169][SQL] Rinomina e migliora il messaggio di errore per COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][CONNECT][PYTHON] Implementare count_distinct e sum_distinct funzioni
  • [SPARK-41433] [SC-117596][CONNECT] Rendere configurabile Max Arrow BatchSize
  • [SPARK-41397] [SC-117590][CONNECT][PYTHON] Implementare parte delle funzioni stringa/binaria
  • [SPARK-41382] [SC-117588][CONNECT][PYTHON] Implementare product la funzione
  • [SPARK-41403] [SC-117595][CONNECT][PYTHON] Implementare DataFrame.describe
  • [SPARK-41366] [SC-117580][CONNECT] DF.groupby.agg() deve essere compatibile
  • [SPARK-41369] [SC-117584][CONNECT] Aggiungere la connessione comune al file JAR ombreggiato dei server
  • [SPARK-41411] [SC-117562][SS] Correzione di bug per la filigrana dell'operatore con più stati
  • [SPARK-41176] [SC-116630][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][CONNECT][PYTHON][12.X] Implementare funzioni di aggregazione
  • [SPARK-41363] [SC-117470][CONNECT][PYTHON][12.X] Implementare funzioni normali
  • [SPARK-41305] [SC-117411][CONNECT] Migliorare la documentazione per command proto
  • [SPARK-41372] [SC-117427][CONNECT][PYTHON] Implementare TempView del dataframe
  • [SPARK-41379] [SC-117420][SS][PYTHON] Fornire una sessione Spark clonata nel dataframe nella funzione utente per il sink foreachBatch in PySpark
  • [SPARK-41373] [SC-117405][SQL][ERRORE] Rinominare CAST_WITH_FUN_SUGGESTION in CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][SQL] Refactoring ColumnVectorUtils#populate del metodo da usare PhysicalDataType invece di DataType
  • [SPARK-41355] [SC-117423][SQL] Soluzione alternativa del problema di convalida del nome della tabella Hive
  • [SPARK-41390] [SC-117429][SQL] Aggiornare lo script usato per generare register la funzione in UDFRegistration
  • [SPARK-41206] [SC-117233][SC-116381][SQL] Rinominare la classe _LEGACY_ERROR_TEMP_1233 di errore in COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][CONNECT][PYTHON][12.X] Implementare funzioni matematiche
  • [SPARK-40970] [SC-117308][CONNECT][PYTHON] Elenco di supporto[Colonna] per l'argomento Join
  • [SPARK-41345] [SC-117178][CONNECT] Aggiungere hint per connettere Proto
  • [SPARK-41226] [SC-117194][SQL][12.x] Eseguire il refactoring dei tipi Spark introducendo tipi fisici
  • [SPARK-41317] [SC-116902][CONNECT][PYTHON][12.X] Aggiungere il supporto di base per DataFrameWriter
  • [SPARK-41347] [SC-117173][CONNECT] Aggiungere cast al proto dell'espressione
  • [SPARK-41323] [SC-117128][SQL] Current_schema di supporto
  • [SPARK-41339] [SC-117171][SQL] Chiudere e ricreare il batch di scrittura di RocksDB anziché semplicemente cancellare
  • [SPARK-41227] [SC-117165][CONNECT][PYTHON] Implementare il cross join tra dataframe
  • [SPARK-41346] [SC-117176][CONNECT][PYTHON] Implementare asc e desc funzioni
  • [SPARK-41343] [SC-117166][CONNECT] Spostare l'analisi di FunctionName sul lato server
  • [SPARK-41321] [SC-117163][CONNECT] Campo di destinazione del supporto per UnresolvedStar
  • [SPARK-41237] [SC-117167][SQL] Riutilizzare la classe UNSUPPORTED_DATATYPE di errore per _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][SQL] Riutilizzare INVALID_SCHEMA.NON_STRING_LITERAL invece di _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][SQL][ML][MLLIB][PROTOBUF][PYTHON][R][SS][AVRO] Ottimizzare l'uso del costruttore di StructType
  • [SPARK-41335] [SC-117135][CONNECT][PYTHON] Supporto di IsNull e IsNotNull nella colonna
  • [SPARK-41332] [SC-117131][CONNECT][PYTHON] Correzione nullOrdering in SortOrder
  • [SPARK-41325] [SC-117132][CONNECT][12.X] Correzione di avg() mancante per GroupBy in DF
  • [SPARK-41327] [SC-117137][CORE] Correzione SparkStatusTracker.getExecutorInfos tramite l'opzione On/OffHeapStorageMemory info
  • [SPARK-41315] [SC-117129][CONNECT][PYTHON] Implementare DataFrame.replace e DataFrame.na.replace
  • [SPARK-41328] [SC-117125][CONNECT][PYTHON] Aggiungere l'API logica e stringa a Column
  • [SPARK-41331] [SC-117127][CONNECT][PYTHON] Aggiungere orderBy e drop_duplicates
  • [SPARK-40987] [SC-117124][CORE] BlockManager#removeBlockInternal assicurarsi che il blocco sia sbloccato normalmente
  • [SPARK-41268] [SC-117102][SC-116970][CONNECT][PYTHON] Eseguire il refactoring della "colonna" per la compatibilità dell'API
  • [SPARK-41312] [SC-116881][CONNECT][PYTHON][12.X] Implementare DataFrame.withColumnRenamed
  • [SPARK-41221] [SC-116607][SQL] Aggiungere la classe error INVALID_FORMAT
  • [SPARK-41272] [SC-116742][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][SQL] Riutilizzare INVALID_SCHEMA invece di _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][PYTHON][SS][12.X] Eseguire il cast delle istanze NumPy in tipi primitivi Python nell'aggiornamento di GroupState
  • [SPARK-41174] [SC-116609][CORE][SQL] Propagare una classe di errore agli utenti per un valore non valido formatto_binary()
  • [SPARK-41264] [SC-116971][CONNECT][PYTHON] Rendere il supporto di valori letterali più tipi di dati
  • [SPARK-41326] [SC-116972] [CONNECT] Correzione deduplicazione mancante input
  • [SPARK-41316] [SC-116900][SQL] Abilitare la ricorsione della parte finale laddove possibile
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Supportare le espressioni stringa nel filtro.
  • [SPARK-41256] [SC-116932][SC-116883][CONNECT] Implementare DataFrame.withColumn(s)
  • [SPARK-41182] [SC-116632][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][SQL] Eseguire la migrazione degli errori delle opzioni della mappa nelle classi di errore
  • [SPARK-40940] [SC-115993][12.x] Rimuovere i controlli degli operatori con più stati per le query di streaming.
  • [SPARK-41310] [SC-116885][CONNECT][PYTHON] Implementare DataFrame.toDF
  • [SPARK-41179] [SC-116631][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][SQL] BHJ LeftAnti non aggiorna numOutputRows quando codegen è disabilitato
  • [SPARK-41148] [SC-116878][CONNECT][PYTHON] Implementare DataFrame.dropna e DataFrame.na.drop
  • [SPARK-41217] [SC-116380][SQL] Aggiungere la classe error FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][CONNECT][PYTHON] Migliorare DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Comportamento omogeneo per SparkSession.range()
  • [SPARK-41306] [SC-116860][CONNECT] Migliorare la documentazione proto di Connect Expression
  • [SPARK-41280] [SC-116733][CONNECT] Implementare DataFrame.tail
  • [SPARK-41300] [SC-116751] [CONNECT] Lo schema unset viene interpretato come schema
  • [SPARK-41255] [SC-116730][SC-116695] [CONNECT] Rinominare RemoteSparkSession
  • [SPARK-41250] [SC-116788][SC-116633][CONNECT][PYTHON] DataFrame. toPandas non deve restituire il dataframe pandas facoltativo
  • [SPARK-41291] [SC-116738][CONNECT][PYTHON] DataFrame.explain deve stampare e restituire Nessuno
  • [SPARK-41278] [SC-116732][CONNECT] Pulire l'attributo QualifiedAttribute inutilizzato in Expression.proto
  • [SPARK-41097] [SC-116653][CORE][SQL][SS][PROTOBUF] Rimuovere la conversione della raccolta ridondante in base al codice Scala 2.13
  • [SPARK-41261] [SC-116718][PYTHON][SS] Correzione del problema relativo a applyInPandasWithState quando le colonne delle chiavi di raggruppamento non vengono inserite in ordine dal primo
  • [SPARK-40872] [SC-116717][3.3] Il fallback al blocco casuale originale quando un blocco shuffle unito push è di dimensioni zero
  • [SPARK-41114] [SC-116628][CONNECT] Supporto dei dati locali per LocalRelation
  • [SPARK-41216] [SC-116678][CONNECT][PYTHON] Implementare DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][CONNECT][PYTHON] Supportare più tipi di dati predefiniti
  • [SPARK-41230] [SC-116674][CONNECT][PYTHON] Rimuovere str dal tipo di espressione aggregate
  • [SPARK-41224] [SC-116652][SPARK-41165][SPARK-41184][CONNECT] Implementazione di raccolta basata su freccia ottimizzata per lo streaming dal server al client
  • [SPARK-41222] [SC-116625][CONNECT][PYTHON] Unificare le definizioni di digitazione
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Disabilitare le funzioni non supportate.
  • [SPARK-41201] [SC-116526][CONNECT][PYTHON] Implementare DataFrame.SelectExpr nel client Python
  • [SPARK-41203] [SC-116258] [CONNECT] Supporto di Dataframe.tansform nel client Python.
  • [SPARK-41213] [SC-116375][CONNECT][PYTHON] Implementare DataFrame.__repr__ e DataFrame.dtypes
  • [SPARK-41169] [SC-116378][CONNECT][PYTHON] Implementare DataFrame.drop
  • [SPARK-41172] [SC-116245][SQL] Eseguire la migrazione dell'errore di riferimento ambiguo a una classe di errore
  • [SPARK-41122] [SC-116141][CONNECT] Spiegare l'API può supportare diverse modalità
  • [SPARK-41209] [SC-116584][SC-116376][PYTHON] Migliorare l'inferenza del tipo PySpark nel metodo _merge_type
  • [SPARK-41196] [SC-116555][SC-116179] [CONNECT] Omogeneizzare la versione protobuf nel server di connessione Spark per usare la stessa versione principale.
  • [SPARK-35531] [SC-116409][SQL] Aggiornare le statistiche della tabella Hive senza la conversione non necessaria
  • [SPARK-41154] [SC-116289][SQL] Memorizzazione nella cache delle relazioni non corretta per le query con specifiche di spostamento temporale
  • [SPARK-41212] [SC-116554][SC-116389][CONNECT][PYTHON] Implementare DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][SQL] Rinominare UNSUPPORTED_EMPTY_LOCATION in INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][SQL] Aggiungere un'API di estensione per pianificare la normalizzazione per la memorizzazione nella cache
  • [SPARK-41054] [SC-116447][interfaccia utente][CORE] Supporto di RocksDB come KVStore nell'interfaccia utente dinamica
  • [SPARK-38550] [SC-115223]Ripristinare "[SQL][CORE] Usare un archivio basato su disco per salvare altre informazioni di debug per l'interfaccia utente dinamica"
  • [SPARK-41173] [SC-116185][SQL] Spostarsi require() dai costruttori delle espressioni stringa
  • [SPARK-41188] [SC-116242][CORE][ML] Impostare executorEnv OMP_NUM_THREADS su spark.task.cpus per impostazione predefinita per i processi JVM dell'executor Spark
  • [SPARK-41130] [SC-116155][SQL] Rinominare OUT_OF_DECIMAL_TYPE_RANGE in NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][SQL] Assegnare un nome alla classe di errore _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][SQL] Ridurre la conversione della raccolta quando si crea AttributeMap
  • [SPARK-41139] [SC-115983][SQL] Migliorare la classe di errore: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][PROTOBUF] Richiedere l'ombreggiatura per il file JAR della classe Java, migliorare la gestione degli errori
  • [SPARK-40999] [SC-116168] Propagazione degli hint nelle sottoquery
  • [SPARK-41017] [SC-116054][SQL] Supportare l'eliminazione delle colonne con più filtri non deterministici
  • [SPARK-40834] [SC-114773][SQL] Usare SparkListenerSQLExecutionEnd per tenere traccia dello stato SQL finale nell'interfaccia utente
  • [SPARK-41118] [SC-116027][SQL] to_number/try_to_number deve restituire null quando il formato è null
  • [SPARK-39799] [SC-115984][SQL] DataSourceV2: Visualizzare l'interfaccia del catalogo
  • [SPARK-40665] [SC-116210][SC-112300][CONNECT] Evitare di incorporare Spark Connect nella versione binaria di Apache Spark
  • [SPARK-41048] [SC-116043][SQL] Migliorare il partizionamento e l'ordinamento dell'output con la cache AQE
  • [SPARK-41198] [SC-116256][SS] Correggere le metriche nella query di streaming con origine di streaming CTE e DSv1
  • [SPARK-41199] [SC-116244][SS] Correzione del problema relativo alle metriche quando l'origine di streaming DSv1 e l'origine di streaming DSv2 vengono co-usate
  • [SPARK-40957] [SC-116261][SC-114706] Aggiungere la cache in memoria in HDFSMetadataLog
  • [SPARK-40940] Ripristinare "[SC-115993] Rimuovere i controlli degli operatori con più stati per le query di streaming".
  • [SPARK-41090] [SC-116040][SQL] Generare un'eccezione per quando db_name.view_name si crea una visualizzazione temporanea in base all'API del set di dati
  • [SPARK-41133] [SC-116085][SQL] Integrazione UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION in NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][SC-111442][CONNECT] Commit del dump del codice 9
  • [SPARK-40448] [SC-114447][SC-111314][CONNECT] Compilazione spark Connect come plug-in driver con dipendenze ombreggiate
  • [SPARK-41096] [SC-115812][SQL] Supporto per la lettura del tipo di FIXED_LEN_BYTE_ARRAY parquet
  • [SPARK-41140] [SC-115879][SQL] Rinominare la classe _LEGACY_ERROR_TEMP_2440 di errore in INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][SQL] Mancata corrispondenza tra FileSourceScanExec e Orc e ParquetFileFormat per la produzione di output a colonne
  • [SPARK-41155] [SC-115991][SQL] Aggiungere un messaggio di errore a SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [SC-115993] Rimuovere i controlli degli operatori con più stati per le query di streaming.
  • [SPARK-41098] [SC-115790][SQL] Rinominare GROUP_BY_POS_REFERS_AGG_EXPR in GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][SQL] Eseguire la migrazione degli errori di controllo dei tipi della formattazione dei numeri nelle classi di errore
  • [SPARK-41059] [SC-115658][SQL] Rinominare _LEGACY_ERROR_TEMP_2420 in NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][SQL] Convertire DATATYPE_MISMATCH. UNSPECIFIED_FRAME a INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][SQL] Rinominare _LEGACY_ERROR_TEMP_0055 in UNCLOSED_BRACKETED_COMMENT

Aggiornamenti di manutenzione

Vedere Aggiornamenti della manutenzione di Databricks Runtime 12.1.

Ambiente di sistema

  • Sistema operativo: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Librerie Python installate

Library Versione Library Versione Library Versione
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttoken 2.0.5
attrs 21.4.0 backcall 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 black 22.3.0 bleach 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
click 8.0.4 cryptography 3.4.8 cycler 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
decorator 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0.11 entrypoints 0.4 executing 0.8.3
facet-overview 1.0.0 fastjsonschema 2.16.2 filelock 3.8.2
fonttools 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 mccabe 0.7.0 mistune 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notebook 6.4.8 numpy 1.21.5 packaging 21.3
pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Pillow 9.0.1 pip 21.2.4
platformdirs 2.6.0 plotly 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
requests 2.27.1 requests-unixsocket 0.2.0 rope 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
six 1.16.0 soupsieve 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 tenacity 8.0.1
terminado 0.13.1 testpath 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
unattended-upgrades 0.1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.3
wheel 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Librerie R installate

Le librerie R vengono installate dallo snapshot di Microsoft CRAN nel 2022-11-11.

Library Versione Library Versione Library Versione
freccia 10.0.0 askpass 1.1 assertthat 0.2.1
backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 blob 1.2.3
boot 1.3-28 brew 1.0-8 brio 1.1.3
Scopa 1.0.1 bslib 0.4.1 cachem 1.0.6
callr 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-58 class 7.3-20 cli 3.4.1
clipr 0.8.0 clock 0.6.1 cluster 2.1.4
codetools 0.2-18 colorspace 2.0-3 commonmark 1.8.1
compilatore 4.2.2 config 0.3.1 cpp11 0.4.3
crayon 1.5.2 credentials 1.3.2 curl 4.3.3
data.table 1.14.4 datasets 4.2.2 DBI 1.1.3
dbplyr 2.2.1 desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 digest 0.6.30 downlit 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
puntini di sospensione 0.3.2 evaluate 0,18 fansi 1.0.3
farver 2.1.1 fastmap 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 foreign 0.8-82
forge 0.2.0 fs 1.5.2 future 1.29.0
future.apply 1.10.0 gargle 1.2.1 generics 0.1.3
gert 1.9.1 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globals 0.16.1
glue 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
Gower 1.0.0 grafica 4.2.2 grDevices 4.2.2
grid 4.2.2 gridExtra 2.3 gsubfn 0,7
gtable 0.3.1 hardhat 1.2.0 haven 2.5.1
highr 0.9 hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 Iteratori 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1,40
Etichettatura 0.4.2 later 1.3.0 Lattice 0.20-45
Java 1.7.0 lifecycle 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 markdown 1.3
MASS 7.3-58 Matrice 1.5-1 memoise 2.0.1
methods 4.2.2 mgcv 1.8-41 mime 0.12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallel 4.2.2
parallelly 1.32.1 Concetto fondamentale 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 praise 1.0.0
prettyunits 1.1.1 Proc 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 Avanzamento 1.2.2
progressr 0.11.0 promises 1.2.0.1 proto 1.0.0
proxy 0.4-27 ps 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 ricette 1.0.3
rematch 1.0.1 rematch2 2.1.2 remotes 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2.18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 sass 0.4.2 Scalabilità 1.2.1
selectr 0.4-2 sessioninfo 1.2.2 Forma 1.4.6
shiny 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 spaziale 7.3-11 Spline 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 stats 4.2.2
stats4 4.2.2 stringi 1.7.8 stringr 1.4.1
Sopravvivenza 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 textshaping 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 timechange 0.1.1 timeDate 4021.106
tinytex 0,42 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 UTF8 1.2.2
utils 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 vroom 1.6.0 waldo 0.4.0
whisker 0.4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Librerie Java e Scala installate (versione del cluster Scala 2.12)

ID gruppo ID artefatto Versione
antlr antlr 2.7.7
com.amazonaws amazon-distribuisci-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-consultas 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics stream 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.mdfsoftware kryo-shaded 4.0.2
com.mdfsoftware minlog 1.3.0
com.fasterxml compagno di classe 1.3.4
com.fasterxml.jackson.core annotazioni jackson 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeina caffeina 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guaiava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocità univocità-parser 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.sdk.netlib arpack 2.2.1
dev.sdk.netlib blas 2.2.1
dev.sdk.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0.21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx agente di raccolta 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine sottaceto 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow formato freccia 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow freccia-vettore 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curatore-cliente 2.13.0
org.apache.curator curatore-framework 2.13.0
org.apache.curator ricette curatori 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shim 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet codifica parquet 1.12.3-databricks-0002
org.apache.parquet strutture parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus annotazioni del gruppo di destinatari 0.13.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2.36
org.glassfish.jersey.containers jersey-container-servlet-core 2.36
org.glassfish.jersey.core jersey-client 2.36
org.glassfish.jersey.core maglia-comune 2.36
org.glassfish.jersey.core jersey-server 2.36
org.glassfish.jersey.inject jersey-hk2 2.36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap Spessori 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark inutilizzato 1.0.0
org.threeten treten-extra 1.5.0
org.cortanaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1,5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1