Databricks Runtime 12.2 LTS
Las siguientes notas de la versión proporcionan información sobre Databricks Runtime 12.2 LTS, con tecnología de Apache Spark 3.3.2.
Databricks publicó esta versión en marzo de 2023.
Nota:
LTS significa que esta versión tiene soporte técnico a largo plazo. Consulte Ciclo de vida de la versión de Databricks Runtime LTS.
Sugerencia
Para ver las notas de la versión de las versiones de Databricks Runtime que han llegado a la finalización del soporte (EoS), vea las Notas de la versión de finalización del soporte de Databricks Runtime. Las versiones de Databricks Runtime EoS se han retirado y es posible que no se actualicen.
Cambios en el comportamiento
[Cambio importante] La nueva versión de Python requiere actualizar los clientes de Python de Databricks Connect V1
Para aplicar los parches de seguridad necesarios, la versión de Python de Databricks Runtime 12.2 LTS se actualiza de 3.9.5 a 3.9.19. Dado que estos cambios pueden provocar errores en los clientes que usan funciones específicas de PySpark, los clientes que usan Databricks Connect V1 para Python con Databricks Runtime 12.2 LTS deben actualizar a Python 3.9.7 o posterior.
Nuevas características y mejoras
- La evolución del esquema de Delta Lake admite la especificación de columnas de origen en instrucciones de combinación
- Las cargas de trabajo de Structured Streaming se admiten en clústeres con modo de acceso compartido
- Nuevas características para E/S predictivas
- Compatibilidad con alias de columna lateral implícita
- Nueva característica forEachBatch
- Opciones de conexión estandarizadas para la federación de consultas
- Biblioteca de funciones SQL extendidas para la administración de matrices
- Nueva función de máscara para anonimizar cadenas
- Las condiciones de error comunes ahora devuelven valores de SQLSTATE
- Invocación de funciones generadoras en la cláusula FROM
- La compatibilidad con búferes de protocolo está disponible con carácter general
- Ir a la definición para las variables y funciones del cuaderno
- Corrección rápida de Notebook para la importación automática de bibliotecas
- Correcciones de errores
La evolución del esquema de Delta Lake admite la especificación de columnas de origen en instrucciones de combinación
Ahora puede especificar columnas presentes solo en la tabla de origen en acciones de inserción o actualización para instrucciones de combinación cuando la evolución del esquema está habilitada. En Databricks Runtime 12.1 y en las versiones posteriores, solo se pueden usar las acciones INSERT *
o UPDATE SET *
para la evolución del esquema con combinación. Consulte Evolución automática del esquema para la combinación de Delta Lake.
Las cargas de trabajo de Structured Streaming se admiten en clústeres con modo de acceso compartido
Ahora puede usar Structured Streaming para interactuar con Unity Catalog en clústeres compartidos. Se aplican algunas limitaciones. Consulte ¿Qué funcionalidad de Structured Streaming admite Unity Catalog?.
Nuevas características para E/S predictivas
La compatibilidad de Photon con el receptor Foreachbatch
ya está disponible. Las cargas de trabajo que se transmiten desde un origen y se combinan en tablas delta o que escriben en varios receptores ahora pueden beneficiarse del receptor Photonized Foreachbatch
.
Compatibilidad con alias de columna lateral implícita
Azure Databricks ahora admite el alias de columna lateral implícito de forma predeterminada. Ahora puede reutilizar una expresión especificada anteriormente en la misma lista SELECT
. Por ejemplo, dado SELECT 1 AS a
, a + 1 AS b
, la a
en a + 1
se puede resolver como el elemento 1 AS a
anteriormente definido. Consulte Resolución de nombres para obtener más detalles sobre el orden de resolución.
Para desactivar esta característica, puede establecer spark.sql.lateralColumnAlias.enableImplicitResolution
en false
.
Nueva característica forEachBatch
Photon ahora se admite al usar foreachBatch
para escribir en un receptor de datos.
Opciones de conexión estandarizadas para la federación de consultas
Ahora puede usar un conjunto unificado de opciones (host, puerto, base de datos, usuario, contraseña) para conectarse a orígenes de datos admitidos en federación de consultas. Port
es opcional y usa el número de puerto predeterminado para cada origen de datos si no se proporciona.
Biblioteca de funciones SQL extendidas para la administración de matrices
Ahora puede quitar todos los elementos NULL de una matriz mediante array_compact. Para anexar elementos a una matriz, use array_append.
Nueva función de máscara para anonimizar cadenas
Invoque la función de máscara para anonimizar valores de cadena confidenciales.
Las condiciones de error comunes ahora devuelven valores de SQLSTATE
La mayoría de las condiciones de error de Databricks Runtime ahora incluyen valores de SQLSTATE documentados, que se pueden usar para pruebas de errores de forma de cumpla con el estándar de SQL.
Invocación de funciones generadoras en la cláusula FROM
Ahora puede invocar funciones de generador con valores de tabla, como explode en la cláusula regular FROM
de una consulta. Esto alinea la invocación de función del generador con otras funciones de tabla integradas y definidas por el usuario.
La compatibilidad con búferes de protocolo está disponible con carácter general
Puede usar las funciones from_protobuf
y to_protobuf
para intercambiar datos entre tipos binarios y struct. Consulte Búferes de protocolo de lectura y escritura.
Ir a la definición para las variables y funciones del cuaderno
En los cuadernos, puede ir rápidamente a la definición de una variable, función o el código detrás de una instrucción %run
haciendo clic con el botón derecho en el nombre de la variable o función.
Corrección rápida de Notebook para la importación automática de bibliotecas
Los Notebooks de Databricks ahora ofrecen una característica de corrección rápida para las bibliotecas de importación automática. Si olvida importar una biblioteca como Pandas, mantenga el puntero sobre la advertencia de sintaxis subrayada y, a continuación, haga clic en Corrección rápida, esta característica requiere que Databricks Assistant esté habilitado en el área de trabajo.
Corrección de errores
- Coherencia mejorada para el comportamiento de confirmación Delta para transacciones vacías relacionadas con los comandos
update
,delete
ymerge
. En el nivel de aislamientoWriteSerializable
, los comandos que no dan lugar a cambios ahora crean una confirmación vacía. En un nivel de aislamientoSerializable
, estas transacciones vacías ahora no crean una confirmación.
Cambios de comportamiento
Cambios de comportamiento con la nueva característica de alias de columna lateral
La nueva característica de alias de columna lateral presenta cambios de comportamiento para los siguientes casos durante la resolución de nombres:
- Ahora, el alias de columna lateral tiene prioridad sobre las referencias correlacionadas con el mismo nombre. Por ejemplo, para esta consulta
SELECT (SELECT c2 FROM (SELECT 1 AS c1, c1 AS c2) WHERE c2 > 5) FROM VALUES(6) AS t(c1)
, el elementoc1
en elc1 AS c2
interno, se resolvió en la referencia correlacionadat.c1
, pero ahora cambia al alias1 AS c1
de la columna lateral. La consulta ahora devuelveNULL
. - Ahora, el alias de columna lateral tiene prioridad sobre los parámetros de función con el mismo nombre. Por ejemplo, para la función,
CREATE OR REPLACE TEMPORARY FUNCTION func(x INT) RETURNS TABLE (a INT, b INT, c DOUBLE) RETURN SELECT x + 1 AS x, x
, el elementox
del cuerpo de la función se resolvió en el parámetro de función x, pero cambia al aliasx + 1
de columna lateral en el cuerpo de la función. La consulta,SELECT * FROM func(1)
ahora devuelve2, 2
. - Para desactivar la característica de alias de columna lateral, establezca
spark.sql.lateralColumnAlias.enableImplicitResolution
enfalse
. Para obtener más información, consulte Resolución de nombres.
Actualizaciones de bibliotecas
- Bibliotecas de Python actualizadas:
- filelock de 3.8.2 a 3.9.0
- joblib de 1.1.0 a 1.1.1
- platformdirs de 2.6.0 a 2.6.2
- whatthepatch de 1.0.3 a 1.0.4
- Bibliotecas de R actualizadas:
- clase de 7.3-20 a 7.3-21
- codetools de 0.2-18 a 0.2-19
- MASS de 7.3-58 a 7.3-58.2
- nlme de 3.1-160 a 3.1-162
- Rserve de 1.8-11 a 1.8-12
- SparkR de 3.3.1 a 3.3.2
Cambios de comportamiento
- Ahora, los usuarios deben tener los privilegios
SELECT
yMODIFY
en cualquier archivo al crear un esquema con una ubicación definida.
Apache Spark
Databricks Runtime 12.2 incluye Apache Spark 3.3.2. Esta versión incluye todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 12.1 (EoS), junto con las siguientes correcciones de errores y mejoras de Spark:
- [SPARK-42416] [SC-123205][SC-122851][SQL] Las operaciones Dateset no deben resolver de nuevo el plan lógico analizado
- [SPARK-41848] Revertir "[CHERRY-PICK][12.x][12.1][12.0][SC-120037][CORE] Corrección de tareas con TaskResourceProfile"
- [SPARK-42162][SC-122711][ES-556261] Introducir la expresión MultiCommutativeOp como optimización de memoria para grandes árboles canónicos de expresiones conmutativas
- [SPARK-42406] [SC-122998][PROTOBUF][Cherry-pick] Corregir la configuración de profundidad recursiva para las funciones Protobuf
- [SPARK-42002] [SC-122476][CONNECT][PYTHON] Implementar DataFrameWriterV2
- [SPARK-41716] [SC-122545][CONNECT] Cambiar el nombre de _catalog_to_pandas a _execute_and_fetch en el catálogo
- [SPARK-41490] [SC-121774][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2441
- [SPARK-41600] [SC-122538][SPARK-41623][SPARK-41612][CONNECT] Implementar Catalog.cacheTable, isCached y uncache
- [SPARK-42191] [SC-121990][SQL] Compatibilidad con udf 'luhn_check'
- [SPARK-42253] [SC-121976][PYTHON] Agregar prueba para detectar la clase de error duplicada
- [SPARK-42268] [SC-122251][CONNECT][PYTHON] Agregar UserDefinedType en protos
- [SPARK-42231] [SC-121841][SQL] Convertir
MISSING_STATIC_PARTITION_COLUMN
eninternalError
- [SPARK-42136] [SC-122554] Refactorizar el cálculo de particiones de salida de BroadcastHashJoinExec
- [SPARK-42158] [SC-121610][SQL] Integrar
_LEGACY_ERROR_TEMP_1003
enFIELD_NOT_FOUND
- [SPARK-42192] [12.x][SC-121820][PYTHON] Migrar el TypeError desde pyspark/sql/dataframe.py a PySparkTypeError
- [SPARK-35240] Revertir "[SC-118242][SS] Usar CheckpointFileManager ...
- [SPARK-41488] [SC-121858][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_1176 (y 1177)
- [SPARK-42232] [SC-122267][SQL] Cambiar el nombre de la clase de error:
UNSUPPORTED_FEATURE.JDBC_TRANSACTION
- [SPARK-42346] [SC-122480][SQL] Reescribir agregados distintos después de la combinación de subconsultas
- [SPARK-42306] [SC-122539][SQL] Integrar
_LEGACY_ERROR_TEMP_1317
enUNRESOLVED_COLUMN.WITH_SUGGESTION
- [SPARK-42234] [SC-122354][SQL] Cambiar el nombre de la clase de error:
UNSUPPORTED_FEATURE.REPEATED_PIVOT
- [SPARK-42343] [SC-122437][CORE] Omitir
IOException
enhandleBlockRemovalFailure
si SparkContext está detenido - [SPARK-41295] [SC-122442][SPARK-41296][SQL] Cambiar el nombre de las clases de error
- [SPARK-42320] [SC-122478][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2188
- [SPARK-42255] [SC-122483][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2430
- [SPARK-42156] [SC-121851][CONNECT] SparkConnectClient ahora admite RetryPolicies
- [SPARK-38728] [SC-116723][SQL] Probar la clase de error: FAILED_RENAME_PATH
- [SPARK-40005] [12.X] Ejemplos independientes en PySpark
- [SPARK-39347] [SC-122457][SS] Corrección de error del cálculo del período de tiempo cuando el evento es < 0
- [SPARK-42336] [SC-122458][CORE] Usar
getOrElse()
en lugar decontains()
en ResourceAllocator - [SPARK-42125] [SC-121827][CONNECT][PYTHON] Pandas UDF en Spark Connect
- [SPARK-42217] [SC-122263][SQL] Compatibilidad con el alias de columna lateral implícito en consultas con Window
- [SPARK-35240] [SC-118242][SS] Usar CheckpointFileManager para la manipulación de archivos de punto de control
- [SPARK-42294] [SC-122337][SQL] Incluir valores predeterminados de columna en la salida DESCRIBE para tablas V2
- [SPARK-41979] Revertir “Revertir “[12.x][SC-121190][SQL] Agregar puntos faltantes para mensajes de error en clases de error.””
- [SPARK-42286] [SC-122336][SQL] Reservar la ruta de acceso de código codegen anterior para expr complejo con CAST
- [SPARK-42275] [SC-122249][CONNECT][PYTHON] Evitar el uso de listas integradas, dict en escritura estática
- [SPARK-41985] [SC-122172][SQL] Centralizar más reglas de resolución de columnas
- [SPARK-42126] [SC-122330][PYTHON][CONNECT] Aceptar el tipo de valor devuelto en cadenas DDL para UDF escalares de Python en Spark Connect
- [SPARK-42197] [SC-122328][SC-121514][CONNECT] Reutilizar la inicialización de JVM y separar los grupos de configuración independientes para establecer en modo local remoto
- [SPARK-41575] [SC-120118][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2054
- [SPARK-41985] Revertir "[SC-122172][SQL] Centralizar más reglas de resolución de columnas"
- [SPARK-42123] [SC-122234][SC-121453][SQL] Incluir valores predeterminados de columna en la salida DESCRIBE y SHOW CREATE TABLE
- [SPARK-41985] [SC-122172][SQL] Centralizar más reglas de resolución de columnas
- [SPARK-42284] [SC-122233][CONNECT] Asegúrese de que el ensamblado del servidor de conexión se compila antes de ejecutar pruebas de cliente: SBT
- [SPARK-42239] [SC-121790][SQL] Integrar
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42278] [ SC-122170][SQL] DS V2 pushdown admite compatibilidad con la compilación de dialectos JDBC
SortOrder
por sí mismos - [SPARK-42259] [SC-122168][SQL] ResolveGroupingAnalytics debe encargarse de UDAF de Python
- [SPARK-41979] Revertir "[12.x][SC-121190][SQL] Agregar puntos que faltan para los mensajes de error en las clases de error".
- [SPARK-42224] [12.x][SC-121708][CONNECT] Migrar TypeError al marco de error para las funciones de Spark Connect
- [SPARK-41712] [12.x][SC-121189][PYTHON][CONNECT] Migrar los errores de Spark Connect al marco de errores de PySpark
- [SPARK-42119] [SC-121913][SC-121342][SQL] Agregar funciones integradas con valores de tabla insertadas y inline_outer
- [SPARK-41489] [121713.x][SC-119273][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2415
- [SPARK-42082] [12.x][SC-121163][SPARK-41598][PYTHON][CONNECT] Introducir PySparkValueError y PySparkTypeError
- [SPARK-42081] [SC-121723][SQL] Mejorar la validación de cambios del plan
- [SPARK-42225] [12.x][SC-121714][CONNECT] Agregar SparkConnectIllegalArgumentException para manipular el error de Spark Connect con precisión
- [SPARK-42044] [12.x][SC-121280][SQL] Corregir un mensaje de error incorrecto para
MUST_AGGREGATE_CORRELATED_SCALAR_SUBQUERY
- [SPARK-42194] [12.x][SC-121712][PS] Permitir el parámetro de columnas al crear DataFrame con Series
- [SPARK-42078] [12.x][SC-120761][PYTHON] Migrar errores producidos por JVM en PySparkException
- [SPARK-42133] [12.x][SC-121250] Agregar métodos básicos de la API de conjunto de datos al cliente de SparkConnect Scala
- [SPARK-41979] [12.x][SC-121190][SQL] Agregar puntos que faltan en los mensajes de error en las clases de error
- [SPARK-42124] [12.x][SC-121420][PYTHON][CONNECT] UDF de Python escalar en línea en Spark Connect
- [SPARK-42051] [SC-121994][SQL] Compatibilidad de Codegen con HiveGenericUDF
- [SPARK-42257] [SC-121948][CORE] Eliminar el clasificador externo de variables sin usar
- [SPARK-41735] [SC-121771][SQL] Usar MINIMAL en lugar de STANDARD para SparkListenerSQLExecutionEnd
- [SPARK-42236] [SC-121882][SQL] Refinar
NULLABLE_ARRAY_OR_MAP_ELEMENT
- [SPARK-42233] [SC-121775][SQL] Mejorar el mensaje de error para
PIVOT_AFTER_GROUP_BY
- [SPARK-42229] [SC-121856][CORE] Migrar
SparkCoreErrors
a clases de error - [SPARK-42163] [SC-121839][SQL] Corregir la eliminación de esquemas para el índice de matriz no plegable o la clave de mapa
- [SPARK-40711] [SC-119990][SQL] Agregar métricas de tamaño de desbordamiento para la ventana
- [SPARK-42023] [SC-121847][SPARK-42024][CONNECT][PYTHON] Hacer que
createDataFrame
admita la coerciónAtomicType -> StringType
- [SPARK-42202] [SC-121837][Connect][Test] Mejorar la lógica de detención del servidor de prueba E2E
- [SPARK-41167] [SC-117425][SQL] Mejorar del rendimiento multi like mediante la creación de un predicado de árbol de expresión equilibrada
- [SPARK-41931] [SC-121618][SQL] Mejorar mensaje de error para la definición de tipo complejo incompleta
- [SPARK-36124] [SC-121339][SC-110446][SQL] Admitir subconsultas con correlación a través de UNION
- [SPARK-42090] [SC-121290][3.3] Introducir el recuento de reintentos sasl en RetryingBlockTransferor
- [SPARK-42157] [SC-121264][CORE]
spark.scheduler.mode=FAIR
debe proporcionar un programador FAIR - [SPARK-41572] [SC-120772][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2149
- [SPARK-41983] [SC-121224][SQL] Cambiar de nombre y mejorar el mensaje de error de error para
NULL_COMPARISON_RESULT
- [SPARK-41976] [SC-121024][SQL] Mejorar el mensaje de error para
INDEX_NOT_FOUND
- [SPARK-41994] [SC-121210][SC-120573] Asignar SQLSTATE (1/2)
- [SPARK-41415] [SC-121117][3.3] Reintentos de solicitud SASL
- [SPARK-38591] [SC-121018][SQL] Agregar flatMapSortedGroups y cogroupSorted
- [SPARK-41975] [SC-120767][SQL] Mejorar el mensaje de error para
INDEX_ALREADY_EXISTS
- [SPARK-42056] [SC-121158][SQL][PROTOBUF] Agregar opciones que faltan para las funciones Protobuf
- [SPARK-41984] [SC-120769][SQL] Cambiar de nombre y mejorar el mensaje de error de error para
RESET_PERMISSION_TO_ORIGINAL
- [SPARK-41948] [SC-121196][SQL] Corregir NPE para las clases de error: CANNOT_PARSE_JSON_FIELD
- [SPARK-41772] [SC-121176][CONNECT][PYTHON] Corregir un nombre de columna incorrecto en el doctest de
withField
- [SPARK-41283] [SC-121175][CONNECT][PYTHON] Agregar
array_append
a Connect - [SPARK-41960] [SC-120773][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_1056
- [SPARK-42134] [SC-121116][SQL] Corregir getPartitionFiltersAndDataFilters() para maniuplar filtros sin atributos a los que se haga referencia
- [SPARK-42096] [SC-121012][CONNECT] Un poco de limpieza de código para el módulo
connect
- [SPARK-42099] [SC-121114][SPARK-41845][CONNECT][PYTHON] Corregir
count(*)
ycount(col(*))
- [SPARK-42045] [SC-120958][SC-120450][SQL] Modo ANSI SQL: Round/Bround debería devolver un error en caso de desbordamiento de enteros
- [SPARK-42043] [SC-120968][CONNECT] Resultado del cliente de Scala con pruebas E2E
- [SPARK-41884] [SC-121022][CONNECT] Admitir la tupla naïve como una fila anidada
- [SPARK-42112] [SC-121011][SQL][SS] Agregar comprobación null antes de
dataWriter
de la función de cierre deContinuousWriteRDD#compute
- [SPARK-42077] [SC-120553][CONNECT][PYTHON] Literal debe mostrar TypeError para DataType no admitido
- [SPARK-42108] [SC-120898][SQL] Hacer que Analyzer transforme
Count(*)
enCount(1)
- [SPARK-41666] [SC-120928][SC-119009][PYTHON] Compatibilidad con SQL parametrizado por
sql()
- [SPARK-40599] [SC-120930][SQL] Relajar el tipo de regla multiTransform para permitir que las alternativas sean cualquier tipo de Seq
- [SPARK-41574] [SC-120771][SQL] Actualizar
_LEGACY_ERROR_TEMP_2009
comoINTERNAL_ERROR
- [SPARK-41579] [SC-120770][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_1249
- [SPARK-41974] [SC-120766][SQL] Convertir
INCORRECT_END_OFFSET
enINTERNAL_ERROR
- [SPARK-41530] [SC-120916][SC-118513][CORE] Cambiar el nombre de MedianHeap a PercentileMap y admitir percentil
- [SPARK-41757] [SC-120608][SPARK-41901][CONNECT] Corregir la representación de cadena para la clase Column
- [SPARK-42084] [SC-120775][SQL] Evitar la pérdida de la restricción de solo acceso calificado
- [SPARK-41973] [SC-120765][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_1311
- [SPARK-42039] [SC-120655][SQL] SPJ: Eliminar opción en KeyGroupedPartitioning#partitionValuesOpt
- [SPARK-42079] [SC-120712][CONNECT][PYTHON] Cambiar el nombre de los mensajes proto para
toDF
ywithColumnsRenamed
- [SPARK-42089] [SC-120605][CONNECT][PYTHON] Corregir problemas de nombre de variable en funciones lambda anidadas
- [SPARK-41982] [SC-120604][SQL] Las particiones de tipo cadena no deben tratarse como tipos numéricos
- [SPARK-40599] [SC-120620][SQL] Agregar métodos multiTransform a TreeNode para generar alternativas
- [SPARK-42085] [SC-120556][CONNECT][PYTHON] Hacer que
from_arrow_schema
admita los tipos anidados - [SPARK-42057] [SC-120507][SQL][PROTOBUF] Corregir cómo se manipula la excepción en los informes de errores
- [SPARK-41586] [12.x][ALL TESTS][SC-120544][PYTHON] Introducir
pyspark.errors
y clases de error para PySpark - [SPARK-41903] [SC-120543][CONNECT][PYTHON]
Literal
debe admitir 1-dim ndarray - [SPARK-42021] [SC-120584][CONNECT][PYTHON] Hacer que
createDataFrame
admitaarray.array
- [SPARK-41896] [SC-120506][SQL] El filtrado por índice de fila devuelve resultados vacíos
- [SPARK-41162][SC-119742][SQL] Corregir anti-y semicombinación para la autocombinación con agregaciones
- [SPARK-41961] [SC-120501][SQL] Admitir funciones con valores de tabla con LATERAL
- [SPARK-41752] [SC-120550][SQL][UI] Agrupar ejecuciones anidadas en la ejecución raíz
- [SPARK-42047] [SC-120586][SPARK-41900][CONNECT][PYTHON][12.X] Literal debe admitir tipos de datos Numpy
- [SPARK-42028] [SC-120344][CONNECT][PYTHON] Truncar marcas de tiempo en nanosegundos
- [SPARK-42011] [SC-120534][CONNECT][PYTHON] Implementar DataFrameReader.csv
- [SPARK-41990] [SC-120532][SQL] Usar
FieldReference.column
en lugar deapply
en la conversión de filtros de V1 a V2 - [SPARK-39217] [SC-120446][SQL] Hace que el DPP admita que el lado de eliminación tenga Unión
- [SPARK-42076] [SC-120551][CONNECT][PYTHON] Factor de conversión de datos
arrow -> rows
aconversion.py
- [SPARK-42074] [SC-120540][SQL] Habilitar
KryoSerializer
enTPCDSQueryBenchmark
para aplicar el registro de clases SQL - [SPARK-42012] [SC-120517][CONNECT][PYTHON] Implementar DataFrameReader.orc
- [SPARK-41832] [SC-120513][CONNECT][PYTHON] Corregir
DataFrame.unionByName
, agregar allow_missing_columns - [SPARK-38651] [SC-120514][SQL] Agregar
spark.sql.legacy.allowEmptySchemaWrite
- [SPARK-41991] [SC-120406][SQL]
CheckOverflowInTableInsert
debe aceptar ExpressionProxy como secundario - [SPARK-41232] [SC-120073][SQL][PYTHON] Agregar la función array_append
- [SPARK-42041] [SC-120512][SPARK-42013][CONNECT][PYTHON] DataFrameReader debe admitir una lista de rutas de acceso
- [SPARK-42071] [SC-120533][CORE] Registrar
scala.math.Ordering$Reverse
en KyroSerializer - [SPARK-41986] [SC-120429][SQL] Introducir orden aleatorio en SinglePartition
- [SPARK-42016] [SC-120428][CONNECT][PYTHON] Habilitar pruebas relacionadas con la columna anidada
- [SPARK-42042] [SC-120427][CONNECT][PYTHON]
DataFrameReader
debe admitir el esquema StructType - [SPARK-42031] [SC-120389][CORE][SQL] Limpiar los métodos
remove
que no tienen invalidación - [SPARK-41746] [SC-120463][SPARK-41838][SPARK-41837][SPARK-41835][SPARK-41836][SPARK-41847][CONNECT][PYTHON] Hacer que
createDataFrame(rows/lists/tuples/dicts)
admita los tipos anidados - [SPARK-41437] [SC-117601][SQL][ALL TESTS] No optimizar la consulta de entrada dos veces para la reserva de escritura v1
- [SPARK-41840] [SC-119719][CONNECT][PYTHON] Agregar el alias
groupby
que falta - [SPARK-41846] [SC-119717][CONNECT][PYTHON] Habilitar doctests para funciones de ventana
- [SPARK-41914] [SC-120094][SQL] FileFormatWriter materializa el plan de AQE antes de acceder a outputOrdering
- [SPARK-41805] [SC-119992][SQL] Reutilizar expresiones en WindowSpecDefinition
- [SPARK-41977] [SC-120269][SPARK-41978][CONNECT] SparkSession.range para tomar float como argumentos
- [SPARK-42029] [SC-120336][CONNECT] Agregar reglas de sombreado de Guava a
connect-common
para evitar errores de inicio - [SPARK-41989] [SC-120334][PYTHON] Evitar interrumpir la configuración del registro de pyspark.pandas
- [SPARK-42003] [SC-120331][SQL] Reducir el código duplicado en ResolveGroupByAll
- [SPARK-41635] [SC-120313][SQL] Corregir el informe de error de GROUP BY ALL
- [SPARK-41047] [SC-120291][SQL] Mejorar los documentos para la ronda
- [SPARK-41822] [SC-120122][CONNECT] Configurar la conexión gRPC para el cliente Scala/JVM
- [SPARK-41879] [SC-120264][CONNECT][PYTHON] Hacer que
DataFrame.collect
admita tipos anidados - [SPARK-41887] [SC-120268][CONNECT][PYTHON] Hacer que
DataFrame.hint
acepte el parámetro de tipo de lista - [SPARK-41964] [SC-120210][CONNECT][PYTHON] Agregar la lista de funciones de E/S no admitidas
- [SPARK-41595] [SC-120097][SQL] Compatibilidad con la función del generador explode/explode_outer en la cláusula FROM
- [SPARK-41957] [SC-120121][CONNECT][PYTHON] Habilitar el doctest para
DataFrame.hint
- [SPARK-41886] [SC-120141][CONNECT][PYTHON] La salida del doctest
DataFrame.intersect
tiene un orden diferente - [SPARK-41442] [SC-117795][SQL][ALL TESTS] Solo actualizar el valor de SQLMetric si se combina con una métrica válida
- [SPARK-41944] [SC-120046][CONNECT] Pasar configuraciones cuando el modo remoto local esté activado
- [SPARK-41708] [SC-119838][SQL] Extraer la información de v1write a
WriteFiles
- [SPARK-41780] [SC-120000][SQL] Se debe mostrar INVALID_PARAMETER_VALUE.PATTERN cuando los parámetros
regexp
no sean válidos - [SPARK-41889] [SC-119975][SQL] Asociar la causa principal a invalidPatternError y refactorizar las clases de error INVALID_PARAMETER_VALUE
- [SPARK-41860] [SC-120028][SQL] Hacer clases de caso de AvroScanBuilder y JsonScanBuilder
- [SPARK-41945] [SC-120010][CONNECT][PYTHON] Python: conectar los datos de columna perdidos del cliente con pyarrow. Table.to_pylist
- [SPARK-41690] [SC-119102][SC-119087][SQL][CONNECT] Codificadores independientes
- [SPARK-41354] [SC-119995][CONNECT][PYTHON] Implementar RepartitionByExpression
- [SPARK-41581] [SC-119997][SQL] Actualizar
_LEGACY_ERROR_TEMP_1230
comoINTERNAL_ERROR
- [SPARK-41928] [SC-119972][CONNECT][PYTHON] Agregar la lista no admitida para
functions
- [SPARK-41933] [SC-119980][CONNECT] Proporcionar el modo local que inicie automáticamente el servidor
- [SPARK-41899] [SC-119971][CONNECT][PYTHON] createDataFrame' debe respetar el esquema DDL proporcionado por el usuario
- [SPARK-41936] [SC-119978][CONNECT][PYTHON] Hacer que
withMetadata
reutilice el proto dewithColumns
- [SPARK-41898] [SC-119931][CONNECT][PYTHON] Verificación de tipo de paridad de los parámetros Window.rowsBetween, Window.rangeBetween con PySpark
- [SPARK-41939] [SC-119977][CONNECT][PYTHON] Agregar la lista no admitida para las funciones
catalog
- [SPARK-41924] [SC-119946][CONNECT][PYTHON] Hacer que StructType admita metadatos e implemente
DataFrame.withMetadata
- [SPARK-41934] [SC-119967][CONNECT][PYTHON] Agregar la lista de funciones no admitidas para
session
- [SPARK-41875] [SC-119969][CONNECT][PYTHON] Agregar casos de prueba para
Dataset.to()
- [SPARK-41824] [SC-119970][CONNECT][PYTHON] Ignorar el doctest para explicar la conexión
- [SPARK-41880] [SC-119959][CONNECT][PYTHON] Hacer que la función
from_json
acepte esquema no literal - [SPARK-41927] [SC-119952][CONNECT][PYTHON] Agregar la lista no admitida para
GroupedData
- [SPARK-41929] [SC-119949][CONNECT][PYTHON] Agregar la función
array_compact
- [SPARK-41827] [SC-119841][CONNECT][PYTHON] Hacer que
GroupBy
acepte la lista de columna - [SPARK-41925] [SC-119905][SQL] Habilitar
spark.sql.orc.enableNestedColumnVectorizedReader
de forma predeterminada - [SPARK-41831] [SC-119853][CONNECT][PYTHON] Hacer que
DataFrame.select
acepte la lista de columna - [SPARK-41455] [SC-119858][CONNECT][PYTHON] Hacer que
DataFrame.collect
descarte la información de zona horaria - [SPARK-41923] [SC-119861][CONNECT][PYTHON] Agregar
DataFrame.writeTo
a la lista no admitida - [SPARK-41912] [SC-119837][SQL] Subconsulta no debe validar CTE
- [SPARK-41828] [SC-119832][CONNECT][PYTHON][12.X] Hacer que
createDataFrame
admita dataframe vacío - [SPARK-41905] [SC-119848][CONNECT] Compatibilidad con el nombre como cadenas en el segmento
- [SPARK-41869] [SC-119845][CONNECT] Rechazar una sola cadena en dropDuplicates
- [SPARK-41830] [SC-119840][CONNECT][PYTHON] Hacer que
DataFrame.sample
acepte los mismos parámetros que PySpark - [SPARK-41849] [SC-119835][CONNECT] Implementar DataFrameReader.text
- [SPARK-41861] [SC-119834][SQL] Hacer que build() de ScanBuilders v2 devuelva un análisis de tipo de valor devuelto
- [SPARK-41825] [SC-119710][CONNECT][PYTHON] Habilitar doctests relacionados con
DataFrame.show
- [SPARK-41855] [SC-119804][SC-119410][SPARK-41814][SPARK-41851][SPARK-41852][CONNECT][PYTHON][12.X] Hacer que
createDataFrame
manipule None/NaN correctamente - [SPARK-41833] [SC-119685][SPARK-41881][SPARK-41815][CONNECT][PYTHON] Hacer que
DataFrame.collect
manipule None/NaN/Array/Binary correctamente - [SPARK-39318] [SC-119713][SQL] Quitar los archivos de oro de tpch-plan-stability WithStats
- [SPARK-41791] [SC-119745] Agregar nuevos tipos de columna de metadatos de origen de archivo
- [SPARK-41790] [SC-119729][SQL] Establecer correctamente el formato del lector y el escritor de TRANSFORM
- [SPARK-41829] [SC-119725][CONNECT][PYTHON] Agregar el parámetro de ordenación que falta en
Sort
ysortWithinPartitions
- [SPARK-41576] [SC-119718][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2051
- [SPARK-41821] [SC-119716][CONNECT][PYTHON] Corregir de pruebas de doctest para DataFrame.describe
- [SPARK-41871] [ SC-119714][CONNECT] El parámetro de sugerencia DataFrame puede ser str, float o int
- [SPARK-41720] [SC-119076][SQL] Cambiar el nombre de UnresolvedFunc a UnresolvedFunctionName
- [SPARK-41573] [SC-119567][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2136
- [SPARK-41862] [SC-119492][SQL] Corregir el error de corrección relacionado con los valores DEFAULT en el lector Orc
- [SPARK-41582] [SC-119482][SC-118701][CORE][SQL] Reutilizar
INVALID_TYPED_LITERAL
en lugar de_LEGACY_ERROR_TEMP_0022
Actualizaciones de mantenimiento
Consulte las actualizaciones de mantenimiento de Databricks Runtime 12.2.
Entorno del sistema
- Sistema operativo: Ubuntu 20.04.5 LTS
- Java: Zulu 8.68.0.21-CA-linux64
- Scala: 2.12.15
- Python: 3.9.19
- R: 4.2.2
- Delta Lake: 2.2.0
Bibliotecas de Python instaladas
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | asttokens | 2.0.5 |
attrs | 21.4.0 | backcall | 0.2.0 | backports.entry-points-selectable | 1.2.0 |
beautifulsoup4 | 4.11.1 | black | 22.3.0 | bleach | 4.1.0 |
boto3 | 1.21.32 | botocore | 1.24.32 | certifi | 2021.10.8 |
cffi | 1.15.0 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
click | 8.0.4 | criptografía | 3.4.8 | cycler | 0.11.0 |
Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
decorator | 5.1.1 | defusedxml | 0.7.1 | distlib | 0.3.6 |
docstring-to-markdown | 0,11 | entrypoints | 0,4 | executing | 0.8.3 |
facets-overview | 1.0.0 | fastjsonschema | 2.16.2 | filelock | 3.9.0 |
fonttools | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
ipython | 8.5.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
jedi | 0.18.1 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.1.1 | jsonschema | 4.4.0 | jupyter-client | 6.1.12 |
jupyter_core | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.2 | MarkupSafe | 2.0.1 | matplotlib | 3.5.1 |
matplotlib-inline | 0.1.2 | mccabe | 0.7.0 | mistune | 0.8.4 |
mypy-extensions | 0.4.3 | nbclient | 0.5.13 | nbconvert | 6.4.4 |
nbformat | 5.3.0 | nest-asyncio | 1.5.5 | nodeenv | 1.7.0 |
notebook | 6.4.8 | numpy | 1.21.5 | empaquetado | 21,3 |
pandas | 1.4.2 | pandocfilters | 1.5.0 | parso | 0.8.3 |
pathspec | 0.9.0 | patsy | 0.5.2 | pexpect | 4.8.0 |
pickleshare | 0.7.5 | Pillow | 9.0.1 | pip | 21.2.4 |
platformdirs | 2.6.2 | plotly | 5.6.0 | pluggy | 1.0.0 |
prometheus-client | 0.13.1 | prompt-toolkit | 3.0.20 | protobuf | 3.19.4 |
psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
pure-eval | 0.2.2 | pyarrow | 7.0.0 | pycparser | 2.21 |
pyflakes | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
pyodbc | 4.0.32 | pyparsing | 3.0.4 | pyright | 1.1.283 |
pyrsistent | 0.18.0 | Python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
python-lsp-server | 1.6.0 | pytz | 2021.3 | pyzmq | 22.3.0 |
Solicitudes | 2.27.1 | requests-unixsocket | 0.2.0 | rope | 0.22.0 |
s3transfer | 0.5.0 | scikit-learn | 1.0.2 | scipy | 1.7.3 |
seaborn | 0.11.2 | Send2Trash | 1.8.0 | setuptools | 61.2.0 |
six (seis) | 1.16.0 | soupsieve | 2.3.1 | ssh-import-id | 5.10 |
stack-data | 0.2.0 | statsmodels | 0.13.2 | tenacity | 8.0.1 |
terminado | 0.13.1 | testpath | 0.5.0 | threadpoolctl | 2.2.0 |
tokenize-rt | 4.2.1 | tomli | 1.2.2 | tornado | 6.1 |
traitlets | 5.1.1 | typing_extensions | 4.1.1 | ujson | 5.1.0 |
unattended-upgrades | 0,1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
wcwidth | 0.2.5 | webencodings | 0.5.1 | whatthepatch | 1.0.4 |
wheel | 0.37.0 | widgetsnbextension | 3.6.1 | yapf | 0.31.0 |
Bibliotecas de R instaladas
Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN desde el 11-11-2022.
Biblioteca | Versión | Biblioteca | Versión | Biblioteca | Versión |
---|---|---|---|---|---|
arrow | 10.0.0 | askpass | 1.1 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.2.2 | base64enc | 0.1-3 |
bit | 4.0.4 | bit64 | 4.0.5 | blob | 1.2.3 |
boot | 1.3-28 | brew | 1,0 - 8 | brio | 1.1.3 |
broom | 1.0.1 | bslib | 0.4.1 | cachem | 1.0.6 |
callr | 3.7.3 | caret | 6.0-93 | cellranger | 1.1.0 |
chron | 2.3-58 | clase | 7.3-21 | cli | 3.4.1 |
clipr | 0.8.0 | clock | 0.6.1 | cluster | 2.1.4 |
codetools | 0.2-19 | colorspace | 2.0-3 | commonmark | 1.8.1 |
compiler | 4.2.2 | config | 0.3.1 | cpp11 | 0.4.3 |
crayon | 1.5.2 | credentials | 1.3.2 | curl | 4.3.3 |
data.table | 1.14.4 | conjuntos de datos | 4.2.2 | DBI | 1.1.3 |
dbplyr | 2.2.1 | desc | 1.4.2 | devtools | 2.4.5 |
diffobj | 0.3.5 | digest | 0.6.30 | downlit | 0.4.2 |
dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
ellipsis | 0.3.2 | evaluate | 0,18 | fansi | 1.0.3 |
farver | 2.1.1 | fastmap | 1.1.0 | fontawesome | 0.4.0 |
forcats | 0.5.2 | foreach | 1.5.2 | foreign | 0.8-82 |
forge | 0.2.0 | fs | 1.5.2 | future | 1.29.0 |
future.apply | 1.10.0 | gargle | 1.2.1 | generics | 0.1.3 |
gert | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
gitcreds | 0.1.2 | glmnet | 4.1-4 | globals | 0.16.1 |
glue | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
gower | 1.0.0 | elementos gráficos | 4.2.2 | grDevices | 4.2.2 |
grid | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
gtable | 0.3.1 | hardhat | 1.2.0 | haven | 2.5.1 |
highr | 0.9 | hms | 1.1.2 | htmltools | 0.5.3 |
htmlwidgets | 1.5.4 | httpuv | 1.6.6 | httr | 1.4.4 |
ids | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
isoband | 0.2.6 | iterators | 1.0.14 | jquerylib | 0.1.4 |
jsonlite | 1.8.3 | KernSmooth | 2.23-20 | knitr | 1.40 |
labeling | 0.4.2 | later | 1.3.0 | lattice | 0.20-45 |
lava | 1.7.0 | ciclo de vida | 1.0.3 | listenv | 0.8.0 |
lubridate | 1.9.0 | magrittr | 2.0.3 | markdown | 1.3 |
MASS | 7.3-58.2 | Matriz | 1.5-1 | memoise | 2.0.1 |
methods | 4.2.2 | mgcv | 1.8-41 | mime | 0,12 |
miniUI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.9 |
munsell | 0.5.0 | nlme | 3.1-162 | nnet | 7.3-18 |
numDeriv | 2016.8-1.1 | openssl | 2.0.4 | parallel | 4.2.2 |
parallelly | 1.32.1 | pillar | 1.8.1 | pkgbuild | 1.3.1 |
pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload | 1.3.1 |
plogr | 0.2.0 | plyr | 1.8.7 | praise | 1.0.0 |
prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.8.0 |
prodlim | 2019.11.13 | profvis | 0.3.7 | progreso | 1.2.2 |
progressr | 0.11.0 | promises | 1.2.0.1 | proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.2 | purrr | 0.3.5 |
r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
randomForest | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
readr | 2.1.3 | readxl | 1.4.1 | recipes | 1.0.3 |
rematch | 1.0.1 | rematch2 | 2.1.2 | remotes | 2.4.2 |
reprex | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.0.6 |
rmarkdown | 2,18 | RODBC | 1.3-19 | roxygen2 | 7.2.1 |
rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
RSQLite | 2.2.18 | rstudioapi | 0.14 | rversions | 2.1.2 |
rvest | 1.0.3 | sass | 0.4.2 | scales | 1.2.1 |
selectr | 0.4-2 | sessioninfo | 1.2.2 | shape | 1.4.6 |
shiny | 1.7.3 | sourcetools | 0.1.7 | sparklyr | 1.7.8 |
SparkR | 3.3.2 | spatial | 7.3-11 | splines | 4.2.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | stats | 4.2.2 |
stats4 | 4.2.2 | stringi | 1.7.8 | stringr | 1.4.1 |
survival | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
tcltk | 4.2.2 | testthat | 3.1.5 | textshaping | 0.3.6 |
tibble | 3.1.8 | tidyr | 1.2.1 | tidyselect | 1.2.0 |
tidyverse | 1.3.2 | timechange | 0.1.1 | timeDate | 4021.106 |
tinytex | 0,42 | tools | 4.2.2 | tzdb | 0.3.0 |
urlchecker | 1.0.1 | usethis | 2.1.6 | utf8 | 1.2.2 |
utils | 4.2.2 | uuid | 1.1-0 | vctrs | 0.5.0 |
viridisLite | 0.4.1 | vroom | 1.6.0 | waldo | 0.4.0 |
whisker | 0,4 | withr | 2.5.0 | xfun | 0.34 |
xml2 | 1.3.3 | xopen | 1.0.0 | xtable | 1.8-4 |
yaml | 2.3.6 | zip | 2.2.2 |
Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)
Identificador de grupo | Identificador de artefacto | Versión |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.189 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
com.amazonaws | aws-java-sdk-config | 1.12.189 |
com.amazonaws | aws-java-sdk-core | 1.12.189 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.189 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.189 |
com.amazonaws | aws-java-sdk-directory | 1.12.189 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
com.amazonaws | aws-java-sdk-efs | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.189 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.189 |
com.amazonaws | aws-java-sdk-emr | 1.12.189 |
com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
com.amazonaws | aws-java-sdk-glue | 1.12.189 |
com.amazonaws | aws-java-sdk-iam | 1.12.189 |
com.amazonaws | aws-java-sdk-importexport | 1.12.189 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
com.amazonaws | aws-java-sdk-kms | 1.12.189 |
com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
com.amazonaws | aws-java-sdk-logs | 1.12.189 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.189 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
com.amazonaws | aws-java-sdk-rds | 1.12.189 |
com.amazonaws | aws-java-sdk-redshift | 1.12.189 |
com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
com.amazonaws | aws-java-sdk-ses | 1.12.189 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
com.amazonaws | aws-java-sdk-sns | 1.12.189 |
com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.189 |
com.amazonaws | aws-java-sdk-sts | 1.12.189 |
com.amazonaws | aws-java-sdk-support | 1.12.189 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.189 |
com.amazonaws | jmespath-java | 1.12.189 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | flujo | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.13.4 |
com.fasterxml.jackson.core | jackson-core | 2.13.4 |
com.fasterxml.jackson.core | jackson-databind | 2.13.4.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java-natives | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java-natives | 1.1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
com.github.luben | zstd-jni | 1.5.2-1 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.1 |
com.google.flatbuffers | flatbuffers-java | 1.12.0 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 2.0.204 |
com.helger | profiler | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.0 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.11.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 2.2.1 |
dev.ludovic.netlib | blas | 2.2.1 |
dev.ludovic.netlib | lapack | 2.2.1 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,21 |
io.delta | delta-sharing-spark_2.12 | 0.6.3 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.74.Final |
io.netty | netty-buffer | 4.1.74.Final |
io.netty | netty-codec | 4.1.74.Final |
io.netty | netty-common | 4.1.74.Final |
io.netty | netty-handler | 4.1.74.Final |
io.netty | netty-resolver | 4.1.74.Final |
io.netty | netty-tcnative-classes | 2.0.48.Final |
io.netty | netty-transport | 4.1.74.Final |
io.netty | netty-transport-classes-epoll | 4.1.74.Final |
io.netty | netty-transport-classes-kqueue | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
io.netty | netty-transport-native-unix-common | 4.1.74.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | recopilador | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.13 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pickle | 1.2 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.22 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 7.0.0 |
org.apache.arrow | arrow-memory-core | 7.0.0 |
org.apache.arrow | arrow-memory-netty | 7.0.0 |
org.apache.arrow | arrow-vector | 7.0.0 |
org.apache.avro | avro | 1.11.0 |
org.apache.avro | avro-ipc | 1.11.0 |
org.apache.avro | avro-mapred | 1.11.0 |
org.apache.commons | commons-collections4 | 4.4. |
org.apache.commons | commons-compress | 1.21 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.4-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.4 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.14 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
org.apache.logging.log4j | log4j-api | 2.18.0 |
org.apache.logging.log4j | log4j-core | 2.18.0 |
org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.7.6 |
org.apache.orc | orc-mapreduce | 1.7.6 |
org.apache.orc | orc-shims | 1.7.6 |
org.apache.parquet | parquet-column | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-common | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-encoding | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-format-structures | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4.20 |
org.apache.yetus | audience-annotations | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-continuation | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-http | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-jndi | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-plus | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-proxy | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-security | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-server | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlet | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-servlets | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-util-ajax | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-webapp | 9.4.46.v20220331 |
org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-api | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-client | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-common | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-server | 9.4.46.v20220331 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.46.v20220331 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2,36 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2,36 |
org.glassfish.jersey.core | jersey-client | 2,36 |
org.glassfish.jersey.core | jersey-common | 2,36 |
org.glassfish.jersey.core | jersey-server | 2,36 |
org.glassfish.jersey.inject | jersey-hk2 | 2,36 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
org.mlflow | mlflow-spark | 2.1.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.3.3 |
org.roaringbitmap | RoaringBitmap | 0.9.25 |
org.roaringbitmap | shims | 0.9.25 |
org.rocksdb | rocksdbjni | 6.28.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1,0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.2 |
org.scalanlp | breeze_2.12 | 1.2 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.36 |
org.slf4j | jul-to-slf4j | 1.7.36 |
org.slf4j | slf4j-api | 1.7.36 |
org.spark-project.spark | unused | 1.0.0 |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | cats-kernel_2.12 | 2.1.1 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |