Compartir a través de


Databricks Runtime 12.1 (EoS)

Nota:

El soporte técnico con esta versión de Databricks Runtime ha finalizado. Para obtener la fecha de finalización del soporte técnico, consulte Historial de finalización del soporte técnico. Para ver todas las versiones de Databricks Runtime con soporte técnico, consulte las notas de la versión de Databricks Runtime versiones y compatibilidad.

En las siguientes notas de la versión, se proporciona información sobre el componente Databricks Runtime 12.1, con tecnología de Apache Spark 3.3.1.

Databricks publicó esta versión en enero de 2023.

Nuevas características y mejoras

Características de tablas de Delta Lake compatibles con la administración de protocolos

Azure Databricks ha introducido la compatibilidad con las características de tabla de Delta Lake, que presentan marcas pormenorizadas que especifican qué características son compatibles con una tabla determinada. Consulte ¿Cómo administra Azure Databricks la compatibilidad de características de Delta Lake?.

La E/S predictiva para actualizaciones está en versión preliminar pública

La E/S predictiva ahora acelera las operaciones DELETE, MERGE y UPDATE para las tablas Delta con vectores de eliminación habilitados en el proceso habilitado para Photon. Consulte ¿Qué es la E/S predictiva?.

Explorador de catálogo ya está disponible para todos los roles

Explorador de catálogo ya está disponible para todos los roles de Azure Databricks al usar Databricks Runtime 7.3 LTS y versiones posteriores.

Compatibilidad con varios operadores con estado en una sola consulta de streaming

Los usuarios ahora pueden encadenar operadores con estado con el modo de anexión en consultas de streaming. No todos los operadores son totalmente compatibles. Conectar al intervalo de tiempo de secuencia-secuencia y flatMapGroupsWithState no permite que otros operadores con estado se encadenen.

La compatibilidad con búferes de protocolo está en versión preliminar pública.

Puede usar las funciones from_protobuf y to_protobuf para intercambiar datos entre tipos binarios y struct. Consulte Búferes de protocolo de lectura y escritura.

Compatibilidad con la autenticación del registro de esquema de Confluent

La integración de Azure Databricks con Confluent Schema Registry ahora admite direcciones externas del registro de esquema con autenticación. Esta característica está disponible para las funciones from_avro, to_avro, from_protobufy to_protobuf. Consulte Protobuf o Avro.

Compatibilidad con el historial de tablas compartidas con recursos compartidos de Delta Sharing

Ahora es posible compartir una tabla con historial completo mediante Delta Sharing, lo que permite a los destinatarios realizar consultas de viaje en el tiempo y consultar tablas mediante el flujo estructurado de Spark. WITH HISTORY se recomienda en lugar de CHANGE DATA FEED, aunque este último sigue siendo compatible. Consulte ALTER SHARE y Agregar tablas a un recurso compartido.

Compatibilidad de streaming con recursos compartidos de Delta Sharing

El flujo estructurado de Spark ahora funciona con el formato deltasharing en tablas Delta Sharing de origen que se hayan compartido mediante WITH HISTORY.

La versión de tabla que usa la marca de tiempo ahora se admite para las tablas de uso compartido de Delta en catálogos

Ahora puede usar la sintaxis SQL TIMESTAMP AS OF en instrucciones SELECT para especificar la versión de una tabla Delta Sharing montada en un catálogo. Las tablas deben compartirse mediante WITH HISTORY.

Compatibilidad con WHEN NOT MATCHED BY SOURCE para MERGE INTO

Ahora puede agregar cláusulas WHEN NOT MATCHED BY SOURCE a MERGE INTO para actualizar o eliminar filas de la tabla elegida que no tienen coincidencias en la tabla de origen en función de la condición de combinación. La nueva cláusula está disponible en SQL, Python, Scala y Java. Consulte MERGE INTO.

Recopilación de estadísticas optimizada para CONVERT TO DELTA

La recopilación de estadísticas de la operación CONVERT TO DELTA ahora es mucho más rápida. Esto reduce el número de cargas de trabajo que pueden usar NO STATISTICS para mejorar la eficacia.

Soporte de Unity Catalog para deshacer tablas

Esta función se lanzó inicialmente en la versión preliminar pública. Es GA a partir del 25 de octubre de 2023.

Ahora puede no quitar una tabla externa o administrada eliminada en un esquema existente en un plazo de siete días después de quitarla. Consulte UNDROP TABLE y SHOW TABLES DROPPED.

Actualizaciones de bibliotecas

  • Bibliotecas de Python actualizadas:
    • filelock: de 3.8.0 a 3.8.2
    • platformdirs: de 2.5.4 a 2.6.0
    • setuptools: de 58.0.4 a 61.2.0
  • Bibliotecas de R actualizadas:
  • Bibliotecas de Java actualizadas:
    • io.delta.delta-sharing-spark_2.12: de 0.5.2 a 0.6.2
    • org.apache.hive.hive-storage-api: de 2.7.2 a 2.8.1
    • org.apache.parquet.parquet-column: de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-common: de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-encoding: de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-format-structures: de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-hadoop: de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.apache.parquet.parquet-jackson: de 1.12.3-databricks-0001 a 1.12.3-databricks-0002
    • org.tukaani.xz: de 1.8 a 1.9

Apache Spark

Databricks Runtime 12.1 incluye Apache Spark 3.3.1. Esta versión incluye todas las correcciones y mejoras de Spark que se han incorporado en Databricks Runtime 12.0 (EoS), junto con las siguientes correcciones de errores y mejoras adicionales de Spark:

  • [SPARK-41405] [SC-119769][12.1.0] Revertir "[SC-119411][SQL] Centralizar la lógica de resolución de columnas" y "[SC-117170][SPARK-41338][SQL] Resolver referencias externas y columnas normales en el mismo lote del analizador"
  • [SPARK-41405] [SC-119411][SQL] Centralizar la lógica de resolución de columnas
  • [SPARK-41859] [SC-119514][SQL] CreateHiveTableAsSelectCommand debe establecer correctamente la marca de sobrescritura
  • [SPARK-41659] [SC-119526][CONNECT][12.X] Habilitar doctests en pyspark.sql.connect.readwriter
  • [SPARK-41858] [SC-119427][SQL] Corrección de la regresión de perf del lector ORC debido a la característica de valor DEFAULT
  • [SPARK-41807] [SC-119399][CORE] Quitar la clase de error no existente: UNSUPPORTED_FEATURE. DISTRIBUTE_BY
  • [SPARK-41578] [12.x][SC-119273][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2141
  • [SPARK-41571] [119362.x][SC-119273][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_2310
  • [SPARK-41810] [SC-119373][CONNECT] Inferir nombres de una lista de diccionarios en SparkSession.createDataFrame
  • [SPARK-40993] [SC-119504][SPARK-41705][CONNECT][12.X] Traslado de documentación y script de Spark Connect a la documentación de desarrollo y Python
  • [SPARK-41534] [SC-119456][CONNECT][SQL][12.x] Instalación del módulo de cliente inicial para Spark Connect
  • [SPARK-41365] [SC-118498][UI][3.3] La página de interfaz de usuario de fases no se puede cargar para el proxy en un entorno específico de yarn
  • [SPARK-41481] [SC-118150][CORE][SQL] Reutilizar INVALID_TYPED_LITERAL en lugar de _LEGACY_ERROR_TEMP_0020
  • [SPARK-41049] [SC-119305][SQL] Volver a consultar el control de expresiones con estado
  • [SPARK-41726] [SC-119248][SQL] Quitar OptimizedCreateHiveTableAsSelectCommand
  • [SPARK-41271] [SC-118648][SC-118348][SQL] Admite consultas SQL parametrizadas por sql()
  • [SPARK-41066] [SC-119344][CONNECT][PYTHON] Implementar DataFrame.sampleBy y DataFrame.stat.sampleBy
  • [SPARK-41407] [SC-119402][SC-119012][SQL][ALL TESTS] Extraer escritura v1 en WriteFiles
  • [SPARK-41565] [SC-118868][SQL] Incorporación de la clase de error UNRESOLVED_ROUTINE
  • [SPARK-41668] [SC-118925][SQL] La función DECODE devuelve resultados incorrectos cuando se pasa NULL
  • [SPARK-41554] [ SC-119274] corregir el cambio de escala decimal cuando la escala disminuye en m...
  • [SPARK-41065] [SC-119324][CONNECT][PYTHON] Implementar DataFrame.freqItems y DataFrame.stat.freqItems
  • [SPARK-41742] [SC-119404][SPARK-41745][CONNECT][12.X] Volver a activar las pruebas documentales y añadir el alias de columna que falta al recuento()
  • [SPARK-41069] [SC-119310][CONNECT][PYTHON] Implementar DataFrame.approxQuantile y DataFrame.stat.approxQuantile
  • [SPARK-41809] [SC-119367][CONNECT][PYTHON] Hacer que la función from_json admita DataType Schema
  • [SPARK-41804] [SC-119382][SQL] Elija el tamaño correcto del elemento en InterpretedUnsafeProjection para la matriz de UDT
  • [SPARK-41786] [SC-119308][CONNECT][PYTHON] Desduplicar funciones auxiliares
  • [SPARK-41745] [SC-119378][SPARK-41789][12.X] Hacer que createDataFrame admita la lista de filas
  • [SPARK-41344] [SC-119217][SQL] Haga que el error sea más claro cuando la tabla no se encuentra en el catálogo SupportsCatalogOptions
  • [SPARK-41803] [SC-119380][CONNECT][PYTHON] Agregar función que falta log(arg1, arg2)
  • [SPARK-41808] [SC-119356][CONNECT][PYTHON] Hacer que las funciones JSON admitan opciones
  • [SPARK-41779] [SC-119275][SPARK-41771][CONNECT][PYTHON] Hacer que __getitem__ admita el filtro y seleccionar
  • [SPARK-41783] [SC-119288][SPARK-41770][CONNECT][PYTHON] Hacer que la columna op admita None
  • [SPARK-41440] [SC-119279][CONNECT][PYTHON] Evitar el operador de caché para el ejemplo general.
  • [SPARK-41785] [SC-119290][CONNECT][PYTHON] Implementar GroupedData.mean
  • [SPARK-41629] [SC-119276][CONNECT] Compatibilidad con extensiones de protocolo en relación y expresión
  • [SPARK-41417] [SC-118000][CORE][SQL] Cambiar el nombre _LEGACY_ERROR_TEMP_0019 a INVALID_TYPED_LITERAL
  • [SPARK-41533] [SC-119342][CONNECT][12.X] Control de errores adecuado para Spark Connect Server / Cliente
  • [SPARK-41292] [SC-119357][CONNECT][12.X] Ventana de compatibilidad en el espacio de nombres pyspark.sql.window
  • [SPARK-41493] [SC-119339][CONNECT][PYTHON] Hacer que las funciones csv admitan opciones
  • [SPARK-39591] [SC-118675][SS] Seguimiento de progreso asincrónico
  • [SPARK-41767] [SC-119337][CONNECT][PYTHON] [12.X] Implementar Column.{withField, dropFields}
  • [SPARK-41068] [SC-119268][CONNECT][PYTHON] Implementar DataFrame.stat.corr
  • [SPARK-41655] [SC-119323][CONNECT][12.X] Habilitar doctests en pyspark.sql.connect.column
  • [SPARK-41738] [SC-119170][CONNECT] Mezclar ClientId en caché SparkSession
  • [SPARK-41354] [SC-119194][CONNECT] Agregar RepartitionByExpression a proto
  • [SPARK-41784] [SC-119289][CONNECT][PYTHON] Agregar función que falta __rmod__ en Columna
  • [SPARK-41778] [SC-119262][SQL] Agregar un alias "reducir" a ArrayAggregate
  • [SPARK-41067] [SC-119171][CONNECT][PYTHON] Implementar DataFrame.stat.cov
  • [SPARK-41764] [SC-119216][CONNECT][PYTHON] Hacer que el nombre de operación de cadena interna sea coherente con FunctionRegistry
  • [SPARK-41734] [SC-119160][CONNECT] Agregar un mensaje primario para el catálogo
  • [SPARK-41742] [SC-119263] Admitir df.groupBy().agg({“*”:”count”})
  • [SPARK-41761] [SC-119213][CONNECT][PYTHON] Corrección de operaciones aritméticas: __neg__, __pow__, __rpow__
  • [SPARK-41062] [SC-118182][SQL] Cambiar el nombre UNSUPPORTED_CORRELATED_REFERENCE a CORRELATED_REFERENCE
  • [SPARK-41751] [SC-119211][CONNECT][PYTHON] Corregir Column.{isNull, isNotNull, eqNullSafe}
  • [SPARK-41728] [SC-119164][CONNECT][PYTHON] [12.X] Implementar la función unwrap_udt
  • [SPARK-41333] [SC-119195][SPARK-41737] Implementar GroupedData.{min, max, avg, sum}
  • [SPARK-41751] [SC-119206][CONNECT][PYTHON] Corregir Column.{bitwiseAND, bitwiseOR, bitwiseXOR}
  • [SPARK-41631] [SC-101081][SQL] Admite la resolución implícita de alias de columna lateral en Agregado
  • [SPARK-41529] [SC-119207][CONNECT][12.X] Implementar SparkSession.stop
  • [SPARK-41729] [SC-119205][CORE][SQL][12.X] Cambiar el nombre _LEGACY_ERROR_TEMP_0011 a UNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSES
  • [SPARK-41717] [SC-119078][CONNECT][12.X] Desduplicar impresión y repr_html en LogicalPlan
  • [SPARK-41740] [SC-119169][CONNECT][PYTHON] Implementar Column.name
  • [SPARK-41733] [SC-119163][SQL][SS] Aplicar la eliminación basada en patrones de árbol para la regla ResolveWindowTime
  • [SPARK-41732] [SC-119157][SQL][SS] Aplicar la eliminación basada en patrones de árbol para la regla SessionWindowing
  • [SPARK-41498] [SC-119018] Propagación de metadatos a través de Union
  • [SPARK-41731] [SC-119166][CONNECT][PYTHON][12.X] Implementar el descriptor de acceso de columna
  • [SPARK-41736] [SC-119161][CONNECT][PYTHON] pyspark_types_to_proto_types debe admitir ArrayType
  • [SPARK-41473] [SC-119092][CONNECT][PYTHON] Implementar la función format_number
  • [SPARK-41707] [SC-119141][CONNECT][12.X] Implementación de la API de catálogo en Spark Connect
  • [SPARK-41710] [SC-119062][CONNECT][PYTHON] Implementar Column.between
  • [SPARK-41235] [SC-119088][SQL][PYTHON]Función de orden superior: implementación de array_compact
  • [SPARK-41518] [SC-118453][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_2422
  • [SPARK-41723] [SC-119091][CONNECT][PYTHON] Implementar la función sequence
  • [SPARK-41703] [SC-119060][CONNECT][PYTHON] Combine NullType y typed_null en literal
  • [SPARK-41722] [SC-119090][CONNECT][PYTHON] Implementar tres funciones de ventana de tiempo que faltan
  • [SPARK-41503] [SC-119043][CONNECT][PYTHON] Implementar funciones de transformación de partición
  • [SPARK-41413] [SC-118968][SQL] Evitar orden aleatorio en Storage-Partitioned Join cuando las claves de partición no coinciden, pero las expresiones de combinación son compatibles
  • [SPARK-41700] [SC-119046][CONNECT][PYTHON] Quitar FunctionBuilder
  • [SPARK-41706] [SC-119094][CONNECT][PYTHON] pyspark_types_to_proto_types debe admitir MapType
  • [SPARK-41702] [SC-119049][CONNECT][PYTHON] Agregar operaciones de columna no válidas
  • [SPARK-41660] [SC-118866][SQL] Solo propaga columnas de metadatos si se usan
  • [SPARK-41637] [SC-119003][SQL] ORDER BY ALL
  • [SPARK-41513] [SC-118945][SQL] Implementación de un acumulador para recopilar métricas de recuento de filas por asignador
  • [SPARK-41647] [SC-119064][CONNECT][12.X] Desduplicar docstrings en pyspark.sql.connect.functions
  • [SPARK-41701] [SC-119048][SPARK-41770][CONNECT][PYTHON] Hacer que la columna op admita decimal
  • [SPARK-41383] [SC-119015][SPARK-41692][SPARK-41693] Implementar rollup, cube y pivot
  • [SPARK-41635] [SC-118944][SQL] GROUP BY ALL
  • [SPARK-41645] [SC-119057][CONNECT][12.X] Desduplicar docstrings en pyspark.sql.connect.dataframe
  • [SPARK-41688] [SC-118951][CONNECT][PYTHON] Mover expresiones a expressions.py
  • [SPARK-41687] [SC-118949][CONNECT] Desduplicar docstrings en pyspark.sql.connect.group
  • [SPARK-41649] [SC-118950][CONNECT] Desduplicar docstrings en pyspark.sql.connect.window
  • [SPARK-41681] [SC-118939][CONNECT] Factor GroupedData out para group.py
  • [SPARK-41292] [SC-119038][SPARK-41640][SPARK-41641][CONNECT][PYTHON][12.X] Implementar funciones Window
  • [SPARK-41675] [SC-119031][SC-118934][CONNECT][PYTHON][12.X] Hacer que la columna op admita datetime
  • [SPARK-41672] [SC-118929][CONNECT][PYTHON] Habilitar las funciones en desuso
  • [SPARK-41673] [SC-118932][CONNECT][PYTHON] Implementar Column.astype
  • [SPARK-41364] [SC-118865][CONNECT][PYTHON] Implementar la función broadcast
  • [SPARK-41648] [SC-118914][CONNECT][12.X] Desduplicar docstrings en pyspark.sql.connect.readwriter
  • [SPARK-41646] [SC-118915][CONNECT][12.X] Desduplicar docstrings en pyspark.sql.connect.session
  • [SPARK-41643] [SC-118862][CONNECT][12.X] Desduplicar docstrings en pyspark.sql.connect.column
  • [SPARK-41663] [SC-118936][CONNECT][PYTHON][12.X] Implementar el resto de funciones lambda
  • [SPARK-41441] [SC-118557][SQL] Compatibilidad con generar sin ninguna salida secundaria necesaria para hospedar referencias externas
  • [SPARK-41669] [SC-118923][SQL] Eliminación temprana en canCollapseExpressions
  • [SPARK-41639] [SC-118927][SQL][PROTOBUF] : Quitar ScalaReflectionLock de SchemaConverters
  • [SPARK-41464] [SC-118861][CONNECT][PYTHON] Implementar DataFrame.to
  • [SPARK-41434] [SC-118857][CONNECT][PYTHON] Implementación inicial LambdaFunction
  • [SPARK-41539] [SC-118802][SQL] Reasignar estadísticas y restricciones frente a la salida en el plan lógico para LogicalRDD
  • [SPARK-41396] [SC-118786][SQL][PROTOBUF] Compatibilidad con campos OneOf y comprobaciones de recursividad
  • [SPARK-41528] [SC-118769][CONNECT][12.X] Combinar espacio de nombres de Spark Connect y PySpark API
  • [SPARK-41568] [118715.x][SC-119273][SQL] Asignar nombre a _LEGACY_ERROR_TEMP_1236
  • [SPARK-41440] [SC-118788][CONNECT][PYTHON] Implementar DataFrame.randomSplit
  • [SPARK-41583] [SC-118718][SC-118642][CONNECT][PROTOBUF] Agregar Spark Connect y protobuf en setup.py con la especificación de dependencias
  • [SPARK-27561] [SC-101081][12.x][SQL] Admite la resolución implícita de alias de columna lateral en Proyecto
  • [SPARK-41535] [SC-118645][SQL] Establecer null correctamente para los campos de intervalo de calendario en InterpretedUnsafeProjection y InterpretedMutableProjection
  • [SPARK-40687] [SC-118439][SQL] Compatibilidad con función integrada de enmascaramiento de datos 'mask'
  • [SPARK-41520] [SC-118440][SQL] Dividir AND_OR TreePattern para separar AND y OR TreePatterns
  • [SPARK-41349] [SC-118668][CONNECT][PYTHON] Implementar DataFrame.hint
  • [SPARK-41546] [SC-118541][CONNECT][PYTHON] pyspark_types_to_proto_types debe admitir StructType.
  • [SPARK-41334] [SC-118549][CONNECT][PYTHON] Traslado de proto SortOrder de relaciones a expresiones
  • [SPARK-41387] [SC-118450][SS] Aserción del desplazamiento final actual desde el origen de datos de Kafka para Trigger.AvailableNow
  • [SPARK-41508] [SC-118445][CORE][SQL] Cambiar el nombre _LEGACY_ERROR_TEMP_1180 a UNEXPECTED_INPUT_TYPE y quitar _LEGACY_ERROR_TEMP_1179
  • [SPARK-41319] [SC-118441][CONNECT][PYTHON] Implementar Column.{when, otherwise} y Function when con UnresolvedFunction
  • [SPARK-41541] [SC-118460][SQL] Corrección de la llamada al método secundario incorrecto en SQLShuffleWriteMetricsReporter.decRecordsWritten()
  • [SPARK-41453] [SC-118458][CONNECT][PYTHON] Implementar DataFrame.subtract
  • [SPARK-41248] [SC-118436][SC-118303][SQL] Agregue "spark.sql.json.enablePartialResults" para habilitar o deshabilitar resultados parciales JSON.
  • [SPARK-41437] Revertir "[SC-117601][SQL] No optimice la consulta de entrada dos veces para la reserva de escritura v1".
  • [SPARK-41472] [SC-118352][CONNECT][PYTHON] Implementación del resto de funciones binarias o de cadena
  • [SPARK-41526] [SC-118355][CONNECT][PYTHON] Implementar Column.isin
  • [SPARK-32170] [SC-118384] [CORE] Mejore la especulación mediante las métricas de tareas de fase.
  • [SPARK-41524] [SC-118399][SS] Diferenciar SQLConf y extraOptions en StateStoreConf para su uso en RocksDBConf
  • [SPARK-41465] [SC-118381][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1235
  • [SPARK-41511] [SC-118365][SQL] LongToUnsafeRowMap admite ignoresDuplicatedKey
  • [SPARK-41409] [SC-118302][CORE][SQL] Cambiar el nombre _LEGACY_ERROR_TEMP_1043 a WRONG_NUM_ARGS.WITHOUT_SUGGESTION
  • [SPARK-41438] [SC-118344][CONNECT][PYTHON] Implementar DataFrame.colRegex
  • [SPARK-41437] [SC-117601][SQL] No optimice la consulta de entrada dos veces para la reserva de escritura v1
  • [SPARK-41314] [SC-117172][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1094
  • [SPARK-41443] [SC-118004][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1061
  • [SPARK-41506] [SC-118241][CONNECT][PYTHON] Refactorizar LiteralExpression para admitir DataType
  • [SPARK-41448] [SC-118046] Convertir identificadores de trabajo de MR coherentes en FileBatchWriter y FileFormatWriter
  • [SPARK-41456] [SC-117970][SQL] Mejorar el rendimiento de try_cast
  • [SPARK-41495] [SC-118125][CONNECT][PYTHON] Implementar las funciones collection: P~Z
  • [SPARK-41478] [SC-118167][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1234
  • [SPARK-41406] [SC-118161][SQL] Mensaje de error de refactorización para NUM_COLUMNS_MISMATCH que sea más genérico
  • [SPARK-41404] [SC-118016][SQL] Refactorizar ColumnVectorUtils#toBatch para hacer que la prueba ColumnarBatchSuite#testRandomRows sea más primitiva dataType
  • [SPARK-41468] [SC-118044][SQL] Corregir el control PlanExpression en EquivalentExpressions
  • [SPARK-40775] [SC-118045][SQL] Corrección de entradas de descripción duplicadas para exámenes de archivos V2
  • [SPARK-41492] [SC-118042][CONNECT][PYTHON] Implementar las funciones MISC
  • [SPARK-41459] [SC-118005][SQL] La corrección de la salida del registro de operaciones del servidor thrift está vacía
  • [SPARK-41395] [SC-117899][SQL] InterpretedMutableProjection debe usar setDecimal para establecer valores NULL para decimales en una fila no segura
  • [SPARK-41376] [SC-117840][CORE][3.3] Corrección de la lógica de comprobación de Netty preferDirectBufs al iniciar el ejecutor
  • [SPARK-41484] [SC-118159][SC-118036][CONNECT][PYTHON][12.x] Implementar las funciones collection: E~M
  • [SPARK-41389] [SC-117426][CORE][SQL] Reutilizar WRONG_NUM_ARGS en lugar de _LEGACY_ERROR_TEMP_1044
  • [SPARK-41462] [SC-117920][SQL] El tipo de fecha y marca de tiempo puede convertirse a TimestampNTZ
  • [SPARK-41435] [SC-117810][SQL] Cambiar para llamar a invalidFunctionArgumentsError para curdate() cuando expressions no está vacío
  • [SPARK-41187] [SC-118030][CORE] LiveExecutor MemoryLeak en AppStatusListener cuando se produce ExecutorLost
  • [SPARK-41360] [SC-118083][CORE] Evitar el nuevo registro de BlockManager si se ha perdido el ejecutor
  • [SPARK-41378] [SC-117686][SQL] Admitir estadísticas de columna en DS v2
  • [SPARK-41402] [SC-117910][SQL][CONNECT][12.X] Invalidar prettyName de StringDecode
  • [SPARK-41414] [SC-118041][CONNECT][PYTHON][12.x] Implementar funciones de fecha/marca de tiempo
  • [SPARK-41329] [SC-117975][CONNECT] Resolver importaciones circulares en Spark Connect
  • [SPARK-41477] [SC-118025][CONNECT][PYTHON] Inferir correctamente el tipo de datos de enteros literales
  • [SPARK-41446] [SC-118024][CONNECT][PYTHON][12.x] Hacer que createDataFrame admita el esquema y más tipos de conjuntos de datos de entrada
  • [SPARK-41475] [SC-117997][CONNECT] Corregir error de comando lint-scala y error tipográfico
  • [SPARK-38277] [SC-117799][SS] Borrar lote de escritura después de la confirmación del almacén de estado de RocksDB
  • [SPARK-41375] [SC-117801][SS] Evitar que kafkaSourceOffset esté vacío
  • [SPARK-41412] [SC-118015][CONNECT] Implementar Column.cast
  • [SPARK-41439] [SC-117893][CONNECT][PYTHON] Implementar DataFrame.melt y DataFrame.unpivot
  • [SPARK-41399] [SC-118007][SC-117474][CONNECT] Refactorizar pruebas relacionadas con columnas para test_connect_column
  • [SPARK-41351] [SC-117957][SC-117412][CONNECT][12.x] Column debe admitir el operador !=
  • [SPARK-40697] [SC-117806][SC-112787][SQL] Agregar relleno de caracteres de lectura para cubrir archivos de datos externos
  • [SPARK-41349] [SC-117594][CONNECT][12.X] Implementar DataFrame.hint
  • [SPARK-41338] [SC-117170][SQL] Resolución de referencias externas y columnas normales en el mismo lote del analizador
  • [SPARK-41436] [SC-117805][CONNECT][PYTHON] Implementar las funciones collection: A~C
  • [SPARK-41445] [SC-117802][CONNECT] Implementar DataFrameReader.parquet
  • [SPARK-41452] [SC-117865][SQL] to_char debe devolver NULL cuando el formato sea NULL
  • [SPARK-41444] [SC-117796][CONNECT] Compatibilidad con read.json()
  • [SPARK-41398] [SC-117508][SQL] Relajar restricciones en Storage-Partitioned Join cuando las claves de partición después del filtrado en tiempo de ejecución no coinciden
  • [SPARK-41228] [SC-117169][SQL] Cambiar el nombre y mejorar el mensaje de error para COLUMN_NOT_IN_GROUP_BY_CLAUSE.
  • [SPARK-41381] [SC-117593][CONNECT][PYTHON] Implementar las funciones count_distinct y sum_distinct
  • [SPARK-41433] [SC-117596][CONNECT] Hacer configurable Max Arrow BatchSize
  • [SPARK-41397] [SC-117590][CONNECT][PYTHON] Implementar parte de las funciones binarias o de cadena
  • [SPARK-41382] [SC-117588][CONNECT][PYTHON] Implementar la función product
  • [SPARK-41403] [SC-117595][CONNECT][PYTHON] Implementar DataFrame.describe
  • [SPARK-41366] [ SC-117580][CONNECT] DF.groupby.agg() debe ser compatible
  • [SPARK-41369] [SC-117584][CONNECT] Agregar conexión comun a jar sombreado dle servidor
  • [SPARK-41411] [ SC-117562][SS] Corrección de errores de compatibilidad de marcas de agua del operador con varios estados
  • [SPARK-41176] [SC-116630][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1042
  • [SPARK-41380] [SC-117476][CONNECT][PYTHON][12.X] Implementar las funciones de agregación
  • [SPARK-41363] [SC-117470][CONNECT][PYTHON][12.X] Implementar las funciones normales
  • [SPARK-41305] [SC-117411][CONNECT] Mejorar la documentación para el proto del comando
  • [SPARK-41372] [SC-117427][CONNECT][PYTHON] Implementar DataFrame TempView
  • [SPARK-41379] [SC-117420][SS][PYTHON] Proporcionar una sesión de Spark clonada en DataFrame en la función de usuario para el receptor foreachBatch en PySpark
  • [SPARK-41373] [SC-117405][SQL][ERROR] Cambiar el nombre de CAST_WITH_FUN_SUGGESTION por CAST_WITH_FUNC_SUGGESTION
  • [SPARK-41358] [SC-117417][SQL] Refactorizar método ColumnVectorUtils#populate para usar PhysicalDataType en lugar de DataType
  • [SPARK-41355] [SC-117423][SQL] Solución del problema de validación del nombre de la tabla de subárbol
  • [SPARK-41390] [SC-117429][SQL] Actualizar el script usado para generar la función register en UDFRegistration
  • [SPARK-41206] [SC-117233][SC-116381][SQL] Cambiar el nombre de la clase de error _LEGACY_ERROR_TEMP_1233 a COLUMN_ALREADY_EXISTS
  • [SPARK-41357] [SC-117310][CONNECT][PYTHON][12.X] Implementar funciones matemáticas
  • [SPARK-40970] [SC-117308][CONNECT][PYTHON] Admitir List[Column] para Join's en argumento
  • [SPARK-41345] [SC-117178][CONNECT] Agregar sugerencia para conectar Proto
  • [SPARK-41226] [SC-117194][SQL][12.x] Refactorizar tipos de Spark mediante la introducción de tipos físicos
  • [SPARK-41317] [SC-116902][CONNECT][PYTHON][12.X] Agregar compatibilidad básica con DataFrameWriter
  • [SPARK-41347] [SC-117173][CONNECT] Agregar conversión a la expresión proto
  • [SPARK-41323] [SC-117128][SQL] Admitir current_schema
  • [SPARK-41339] [SC-117171][SQL] Cerrar y volver a crear el lote de escritura de RocksDB en lugar de simplemente borrar
  • [SPARK-41227] [SC-117165][CONNECT][PYTHON] Implementar combinación cruzada de DataFrame
  • [SPARK-41346] [SC-117176][CONNECT][PYTHON] Implementar las funciones asc y desc
  • [SPARK-41343] [SC-117166][CONNECT] Mover el análisis de FunctionName al lado servidor
  • [SPARK-41321] [SC-117163][CONNECT] Admitir campo de destino para UnresolvedStar
  • [SPARK-41237] [SC-117167][SQL] Reutilizar la clase de error UNSUPPORTED_DATATYPE para _LEGACY_ERROR_TEMP_0030
  • [SPARK-41309] [SC-116916][CORE][SQL] Reutilizar INVALID_SCHEMA.NON_STRING_LITERAL en lugar de _LEGACY_ERROR_TEMP_1093
  • [SPARK-41276] [SC-117136][SQL][ML][MLLIB][PROTOBUF][PYTHON][R][SS][AVRO] Optimizar el uso del constructor de StructType
  • [SPARK-41335] [SC-117135][CONNECT][PYTHON] Admitir IsNull e IsNotNull en columna
  • [SPARK-41332] [SC-117131][CONNECT][PYTHON] Corregir nullOrdering en SortOrder
  • [SPARK-41325] [SC-117132][CONNECT][12.X] Corregir la falta de avg() para GroupBy en DF
  • [SPARK-41327] [ SC-117137][CORE] Corregir SparkStatusTracker.getExecutorInfos por switch On/OffHeapStorageMemory info
  • [SPARK-41315] [SC-117129][CONNECT][PYTHON] Implementar DataFrame.replace y DataFrame.na.replace
  • [SPARK-41328] [SC-117125][CONNECT][PYTHON] Agregar API lógica y de cadena a columna
  • [SPARK-41331] [SC-117127][CONNECT][PYTHON] Agregar orderBy y drop_duplicates
  • [SPARK-40987] [SC-117124][CORE] BlockManager#removeBlockInternal debe asegurarse de que el bloqueo se desbloquee correctamente
  • [SPARK-41268] [SC-117102][SC-116970][CONNECT][PYTHON] Refactorización de "Columna" para compatibilidad con API
  • [SPARK-41312] [SC-116881][CONNECT][PYTHON][12.X] Implementar DataFrame.withColumnRenamed
  • [SPARK-41221] [SC-116607][SQL] Agregar la clase de error INVALID_FORMAT
  • [SPARK-41272] [SC-116742][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_2019
  • [SPARK-41180] [SC-116760][SQL] Reutilizar INVALID_SCHEMA en lugar de _LEGACY_ERROR_TEMP_1227
  • [SPARK-41260] [SC-116880][PYTHON][SS][12.X] Convertir instancias NumPy a tipos primitivos Python en la actualización de GroupState
  • [SPARK-41174] [SC-116609][CORE][SQL] Propagar una clase de error a los usuarios para format no válido de to_binary()
  • [SPARK-41264] [SC-116971][CONNECT][PYTHON] Hacer que Literal admita más tipos de datos
  • [SPARK-41326] [SC-116972] [CONNECT] Falta entrada en corregir desduplicación
  • [SPARK-41316] [SC-116900][SQL] Habilitar tail-recursion siempre que sea posible
  • [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] Admitir expresiones de cadena en el filtro.
  • [SPARK-41256] [SC-116932][SC-116883][CONNECT] Implementar DataFrame.withColumn(s)
  • [SPARK-41182] [SC-116632][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1102
  • [SPARK-41181] [SC-116680][SQL] Migrar los errores de las opciones de asignación a las clases de error
  • [SPARK-40940] [ SC-115993][12.x] Quitar comprobadores de operadores con estado múltiple para consultas de streaming.
  • [SPARK-41310] [SC-116885][CONNECT][PYTHON] Implementar DataFrame.toDF
  • [SPARK-41179] [SC-116631][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1092
  • [SPARK-41003] [SC-116741][SQL] BHJ LeftAnti no actualiza numOutputRows cuando codegen está deshabilitado
  • [SPARK-41148] [SC-116878][CONNECT][PYTHON] Implementar DataFrame.dropna y DataFrame.na.drop
  • [SPARK-41217] [SC-116380][SQL] Agregar la clase de error FAILED_FUNCTION_CALL
  • [SPARK-41308] [SC-116875][CONNECT][PYTHON] Mejorar DataFrame.count()
  • [SPARK-41301] [SC-116786] [CONNECT] Homogeneizar el comportamiento de SparkSession.range()
  • [SPARK-41306] [SC-116860][CONNECT] Mejorar la documentación proto de expresiones de Connect
  • [SPARK-41280] [SC-116733][CONNECT] Implementar DataFrame.tail
  • [SPARK-41300] [SC-116751] [CONNECT] El esquema sin establecer se interpreta como esquema
  • [SPARK-41255] [SC-116730][SC-116695] [CONNECT] Cambiar el nombre de RemoteSparkSession
  • [SPARK-41250] [SC-116788][SC-116633][CONNECT][PYTHON] DataFrame. toPandas no debe devolver dataframe de Pandas opcional
  • [SPARK-41291] [SC-116738][CONNECT][PYTHON] DataFrame.explain debe imprimir y devolver Ninguno
  • [SPARK-41278] [SC-116732][CONNECT] Limpiar QualifiedAttribute in Expression.proto sin utilizar
  • [SPARK-41097] [SC-116653][CORE][SQL][SS][PROTOBUF] Quitar la base de conversión de colección redundante en código de Scala 2.13
  • [SPARK-41261] [SC-116718][PYTHON][SS] Corregir el problema para applyInPandasWithState cuando las columnas de claves de agrupación no se colocan en orden desde el primer momento
  • [SPARK-40872] [SC-116717][3.3] Reserva al bloque aleatorio original cuando un fragmento aleatorio combinado de inserción es de tamaño cero
  • [SPARK-41114] [SC-116628][CONNECT] Admitir datos locales para LocalRelation
  • [SPARK-41216] [SC-116678][CONNECT][PYTHON] Implementar DataFrame.{isLocal, isStreaming, printSchema, inputFiles}
  • [SPARK-41238] [SC-116670][CONNECT][PYTHON] Admitir más tipos de datos integrados
  • [SPARK-41230] [SC-116674][CONNECT][PYTHON] Quitar str del tipo de expresión Aggregate
  • [SPARK-41224] [SC-116652][SPARK-41165][SPARK-41184][CONNECT] Implementación de recopilación optimizada basada en flechas para transmitir desde el servidor al cliente
  • [SPARK-41222] [SC-116625][CONNECT][PYTHON] Unificar las definiciones de escritura
  • [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] Deshabilitar las funciones no admitidas.
  • [SPARK-41201] [SC-116526][CONNECT][PYTHON] Implementar DataFrame.SelectExpr en el cliente de Python
  • [SPARK-41203] [SC-116258] [CONNECT] Admitir Dataframe.tansform en el cliente de Python.
  • [SPARK-41213] [SC-116375][CONNECT][PYTHON] Implementar DataFrame.__repr__ y DataFrame.dtypes
  • [SPARK-41169] [SC-116378][CONNECT][PYTHON] Implementar DataFrame.drop
  • [SPARK-41172] [SC-116245][SQL] Migración del error de referencia ambiguo a una clase de error
  • [SPARK-41122] [SC-116141][CONNECT] Explain API puede admitir diferentes modos
  • [SPARK-41209] [SC-116584][SC-116376][PYTHON] Mejorar la inferencia de tipos PySpark en el método _merge_type
  • [SPARK-41196] [SC-116555][SC-116179] [CONNECT] Homogeneizar la versión protobuf en el servidor de conexión de Spark para usar la misma versión principal.
  • [SPARK-35531] [SC-116409][SQL] Actualizar estadísticas de subárbol sin convertir innecesariamente
  • [SPARK-41154] [SC-116289][SQL] Almacenamiento en caché de relaciones incorrecto para consultas con especificación de viaje en el tiempo
  • [SPARK-41212] [SC-116554][SC-116389][CONNECT][PYTHON] Implementar DataFrame.isEmpty
  • [SPARK-41135] [SC-116400][SQL] Cambiar el nombre UNSUPPORTED_EMPTY_LOCATION a INVALID_EMPTY_LOCATION
  • [SPARK-41183] [SC-116265][SQL] Agregar una API de extensión para planear la normalización del almacenamiento en caché
  • [SPARK-41054] [SC-116447][UI][CORE] Admite RocksDB como KVStore en la interfaz de usuario activa
  • [SPARK-38550] [SC-115223]Revert "[SQL][CORE] Usar un almacén basado en disco para guardar más información de depuración para la interfaz de usuario activa"
  • [SPARK-41173] [SC-116185][SQL] Sacar require() de los constructores de expresiones de cadena
  • [SPARK-41188] [SC-116242][CORE][ML] Establecer executorEnv OMP_NUM_THREADS como spark.task.cpus de forma predeterminada para los procesos JVM del ejecutor de Spark
  • [SPARK-41130] [SC-116155][SQL] Cambiar el nombre OUT_OF_DECIMAL_TYPE_RANGE a NUMERIC_OUT_OF_SUPPORTED_RANGE
  • [SPARK-41175] [SC-116238][SQL] Asignar un nombre a la clase de error _LEGACY_ERROR_TEMP_1078
  • [SPARK-41106] [SC-116073][SQL] Reducir la conversión de colección al crear AttributeMap
  • [SPARK-41139] [SC-115983][SQL] Mejorar la clase de error: PYTHON_UDF_IN_ON_CLAUSE
  • [SPARK-40657] [SC-115997][PROTOBUF] Requerir sombreado para jar de clase Java, mejorar el control de errores
  • [SPARK-40999] [ SC-116168] Propagar sugerencias a subconsultas
  • [SPARK-41017] [SC-116054][SQL] Admitir la eliminación de columnas con varios filtros no deterministas
  • [SPARK-40834] [SC-114773][SQL] Usar SparkListenerSQLExecutionEnd para realizar un seguimiento del estado final de SQL en la interfaz de usuario
  • [SPARK-41118] [SC-116027][SQL] to_number/try_to_number debe devolver null cuando el formato sea null
  • [SPARK-39799] [SC-115984][SQL] DataSourceV2: Vista de la interfaz del catálogo
  • [SPARK-40665] [SC-116210][SC-112300][CONNECT] Evitar insertar Spark Connect en la versión binaria de Apache Spark
  • [SPARK-41048] [SC-116043][SQL] Mejorar la creación de particiones de salida y la ordenación con caché de AQE
  • [SPARK-41198] [SC-116256][SS] Corrección de métricas en la consulta de streaming con origen de streaming CTE y DSv1
  • [SPARK-41199] [SC-116244][SS] Corrección del problema de métricas cuando el origen de streaming DSv1 y el origen de streaming DSv2 se usan conjuntamente
  • [SPARK-40957] [SC-116261][SC-114706] Agregar caché de memoria en HDFSMetadataLog
  • [SPARK-40940] [ SC-115993][12.x] Quitar comprobadores de operadores con estado múltiple para consultas de streaming
  • [SPARK-41090] [SC-116040][SQL] Iniciar excepción para db_name.view_name al crear una vista temporal por la API de conjunto de datos
  • [SPARK-41133] [SC-116085][SQL] Integrar UNSCALED_VALUE_TOO_LARGE_FOR_PRECISION en NUMERIC_VALUE_OUT_OF_RANGE
  • [SPARK-40557] [SC-116182][SC-111442][CONNECT] Confirmaciones del volcado de código 9
  • [SPARK-40448] [SC-114447][SC-111314][CONNECT] Compilación de Spark Connect como complemento del controlador con dependencias sombreadas
  • [SPARK-41096] [SC-115812][SQL] Admitir lectura de parquet de tipo FIXED_LEN_BYTE_ARRAY
  • [SPARK-41140] [SC-115879][SQL] Cambiar el nombre de la clase _LEGACY_ERROR_TEMP_2440 de error a INVALID_WHERE_CONDITION
  • [SPARK-40918] [SC-114438][SQL] Error de coincidencia entre FileSourceScanExec y Orc y ParquetFileFormat al generar la salida en columnas
  • [SPARK-41155] [SC-115991][SQL] Agregar mensaje de error a SchemaColumnConvertNotSupportedException
  • [SPARK-40940] [ SC-115993] Quitar comprobadores de operadores con estado múltiple para consultas de streaming.
  • [SPARK-41098] [SC-115790][SQL] Cambiar el nombre GROUP_BY_POS_REFERS_AGG_EXPR a GROUP_BY_POS_AGGREGATE
  • [SPARK-40755] [SC-115912][SQL] Migrar errores de comprobación de tipos de formato numérico a clases de error
  • [SPARK-41059] [SC-115658][SQL] Cambiar el nombre _LEGACY_ERROR_TEMP_2420 a NESTED_AGGREGATE_FUNCTION
  • [SPARK-41044] [SC-115662][SQL] Convertir DATATYPE_MISMATCH.UNSPECIFIED_FRAME a INTERNAL_ERROR
  • [SPARK-40973] [SC-115132][SQL] Cambiar el nombre _LEGACY_ERROR_TEMP_0055 a UNCLOSED_BRACKETED_COMMENT

Actualizaciones de mantenimiento

Consulte las actualizaciones de mantenimiento de Databricks Runtime 12.1.

Entorno del sistema

  • Sistema operativo: Ubuntu 20.04.5 LTS
  • Java: Zulu 8.64.0.19-CA-linux64
  • Scala: 2.12.14
  • Python: 3.9.5
  • R: 4.2.2
  • Delta Lake: 2.2.0

Bibliotecas de Python instaladas

Biblioteca Versión Biblioteca Versión Biblioteca Versión
argon2-cffi 21.3.0 argon2-cffi-bindings 21.2.0 asttokens 2.0.5
attrs 21.4.0 backcall 0.2.0 backports.entry-points-selectable 1.2.0
beautifulsoup4 4.11.1 black 22.3.0 bleach 4.1.0
boto3 1.21.32 botocore 1.24.32 certifi 2021.10.8
cffi 1.15.0 chardet 4.0.0 charset-normalizer 2.0.4
click 8.0.4 criptografía 3.4.8 cycler 0.11.0
Cython 0.29.28 dbus-python 1.2.16 debugpy 1.5.1
decorator 5.1.1 defusedxml 0.7.1 distlib 0.3.6
docstring-to-markdown 0,11 entrypoints 0,4 executing 0.8.3
facets-overview 1.0.0 fastjsonschema 2.16.2 filelock 3.8.2
fonttools 4.25.0 idna 3.3 ipykernel 6.15.3
ipython 8.5.0 ipython-genutils 0.2.0 ipywidgets 7.7.2
jedi 0.18.1 Jinja2 2.11.3 jmespath 0.10.0
joblib 1.1.0 jsonschema 4.4.0 jupyter-client 6.1.12
jupyter_core 4.11.2 jupyterlab-pygments 0.1.2 jupyterlab-widgets 1.0.0
kiwisolver 1.3.2 MarkupSafe 2.0.1 matplotlib 3.5.1
matplotlib-inline 0.1.2 mccabe 0.7.0 mistune 0.8.4
mypy-extensions 0.4.3 nbclient 0.5.13 nbconvert 6.4.4
nbformat 5.3.0 nest-asyncio 1.5.5 nodeenv 1.7.0
notebook 6.4.8 numpy 1.21.5 empaquetado 21,3
pandas 1.4.2 pandocfilters 1.5.0 parso 0.8.3
pathspec 0.9.0 patsy 0.5.2 pexpect 4.8.0
pickleshare 0.7.5 Pillow 9.0.1 pip 21.2.4
platformdirs 2.6.0 plotly 5.6.0 pluggy 1.0.0
prometheus-client 0.13.1 prompt-toolkit 3.0.20 protobuf 3.19.4
psutil 5.8.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 7.0.0 pycparser 2.21
pyflakes 2.5.0 Pygments 2.11.2 PyGObject 3.36.0
pyodbc 4.0.32 pyparsing 3.0.4 pyright 1.1.283
pyrsistent 0.18.0 Python-dateutil 2.8.2 python-lsp-jsonrpc 1.0.0
python-lsp-server 1.6.0 pytz 2021.3 pyzmq 22.3.0
Solicitudes 2.27.1 requests-unixsocket 0.2.0 rope 0.22.0
s3transfer 0.5.0 scikit-learn 1.0.2 scipy 1.7.3
seaborn 0.11.2 Send2Trash 1.8.0 setuptools 61.2.0
six (seis) 1.16.0 soupsieve 2.3.1 ssh-import-id 5.10
stack-data 0.2.0 statsmodels 0.13.2 tenacity 8.0.1
terminado 0.13.1 testpath 0.5.0 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tomli 1.2.2 tornado 6.1
traitlets 5.1.1 typing_extensions 4.1.1 ujson 5.1.0
unattended-upgrades 0,1 urllib3 1.26.9 virtualenv 20.8.0
wcwidth 0.2.5 webencodings 0.5.1 whatthepatch 1.0.3
wheel 0.37.0 widgetsnbextension 3.6.1 yapf 0.31.0

Bibliotecas de R instaladas

Las bibliotecas de R se instalan desde la instantánea de Microsoft CRAN desde el 11-11-2022.

Biblioteca Versión Biblioteca Versión Biblioteca Versión
arrow 10.0.0 askpass 1.1 assertthat 0.2.1
backports 1.4.1 base 4.2.2 base64enc 0.1-3
bit 4.0.4 bit64 4.0.5 blob 1.2.3
boot 1.3-28 brew 1,0 - 8 brio 1.1.3
broom 1.0.1 bslib 0.4.1 cachem 1.0.6
callr 3.7.3 caret 6.0-93 cellranger 1.1.0
chron 2.3-58 clase 7.3-20 cli 3.4.1
clipr 0.8.0 clock 0.6.1 cluster 2.1.4
codetools 0.2-18 colorspace 2.0-3 commonmark 1.8.1
compiler 4.2.2 config 0.3.1 cpp11 0.4.3
crayon 1.5.2 credentials 1.3.2 curl 4.3.3
data.table 1.14.4 conjuntos de datos 4.2.2 DBI 1.1.3
dbplyr 2.2.1 desc 1.4.2 devtools 2.4.5
diffobj 0.3.5 digest 0.6.30 downlit 0.4.2
dplyr 1.0.10 dtplyr 1.2.2 e1071 1.7-12
ellipsis 0.3.2 evaluate 0,18 fansi 1.0.3
farver 2.1.1 fastmap 1.1.0 fontawesome 0.4.0
forcats 0.5.2 foreach 1.5.2 foreign 0.8-82
forge 0.2.0 fs 1.5.2 future 1.29.0
future.apply 1.10.0 gargle 1.2.1 generics 0.1.3
gert 1.9.1 ggplot2 3.4.0 gh 1.3.1
gitcreds 0.1.2 glmnet 4.1-4 globals 0.16.1
glue 1.6.2 googledrive 2.0.0 googlesheets4 1.0.1
gower 1.0.0 elementos gráficos 4.2.2 grDevices 4.2.2
grid 4.2.2 gridExtra 2.3 gsubfn 0.7
gtable 0.3.1 hardhat 1.2.0 haven 2.5.1
highr 0.9 hms 1.1.2 htmltools 0.5.3
htmlwidgets 1.5.4 httpuv 1.6.6 httr 1.4.4
ids 1.0.1 ini 0.3.1 ipred 0.9-13
isoband 0.2.6 iterators 1.0.14 jquerylib 0.1.4
jsonlite 1.8.3 KernSmooth 2.23-20 knitr 1.40
labeling 0.4.2 later 1.3.0 lattice 0.20-45
lava 1.7.0 ciclo de vida 1.0.3 listenv 0.8.0
lubridate 1.9.0 magrittr 2.0.3 markdown 1.3
MASS 7.3-58 Matriz 1.5-1 memoise 2.0.1
methods 4.2.2 mgcv 1.8-41 mime 0,12
miniUI 0.1.1.1 ModelMetrics 1.2.2.2 modelr 0.1.9
munsell 0.5.0 nlme 3.1-160 nnet 7.3-18
numDeriv 2016.8-1.1 openssl 2.0.4 parallel 4.2.2
parallelly 1.32.1 pillar 1.8.1 pkgbuild 1.3.1
pkgconfig 2.0.3 pkgdown 2.0.6 pkgload 1.3.1
plogr 0.2.0 plyr 1.8.7 praise 1.0.0
prettyunits 1.1.1 pROC 1.18.0 processx 3.8.0
prodlim 2019.11.13 profvis 0.3.7 progreso 1.2.2
progressr 0.11.0 promises 1.2.0.1 proto 1.0.0
proxy 0.4-27 ps 1.7.2 purrr 0.3.5
r2d3 0.2.6 R6 2.5.1 ragg 1.2.4
randomForest 4.7-1.1 rappdirs 0.3.3 rcmdcheck 1.4.0
RColorBrewer 1.1-3 Rcpp 1.0.9 RcppEigen 0.3.3.9.3
readr 2.1.3 readxl 1.4.1 recipes 1.0.3
rematch 1.0.1 rematch2 2.1.2 remotes 2.4.2
reprex 2.0.2 reshape2 1.4.4 rlang 1.0.6
rmarkdown 2,18 RODBC 1.3-19 roxygen2 7.2.1
rpart 4.1.19 rprojroot 2.0.3 Rserve 1.8-11
RSQLite 2.2.18 rstudioapi 0.14 rversions 2.1.2
rvest 1.0.3 sass 0.4.2 scales 1.2.1
selectr 0.4-2 sessioninfo 1.2.2 shape 1.4.6
shiny 1.7.3 sourcetools 0.1.7 sparklyr 1.7.8
SparkR 3.3.1 spatial 7.3-11 splines 4.2.2
sqldf 0.4-11 SQUAREM 2021.1 stats 4.2.2
stats4 4.2.2 stringi 1.7.8 stringr 1.4.1
survival 3.4-0 sys 3.4.1 systemfonts 1.0.4
tcltk 4.2.2 testthat 3.1.5 textshaping 0.3.6
tibble 3.1.8 tidyr 1.2.1 tidyselect 1.2.0
tidyverse 1.3.2 timechange 0.1.1 timeDate 4021.106
tinytex 0,42 tools 4.2.2 tzdb 0.3.0
urlchecker 1.0.1 usethis 2.1.6 utf8 1.2.2
utils 4.2.2 uuid 1.1-0 vctrs 0.5.0
viridisLite 0.4.1 vroom 1.6.0 waldo 0.4.0
whisker 0,4 withr 2.5.0 xfun 0.34
xml2 1.3.3 xopen 1.0.0 xtable 1.8-4
yaml 2.3.6 zip 2.2.2

Bibliotecas de Java y Scala instaladas (versión de clúster de Scala 2.12)

Identificador de grupo Identificador de artefacto Versión
antlr antlr 2.7.7
com.amazonaws amazon-kinesis-client 1.12.0
com.amazonaws aws-java-sdk-autoscaling 1.12.189
com.amazonaws aws-java-sdk-cloudformation 1.12.189
com.amazonaws aws-java-sdk-cloudfront 1.12.189
com.amazonaws aws-java-sdk-cloudhsm 1.12.189
com.amazonaws aws-java-sdk-cloudsearch 1.12.189
com.amazonaws aws-java-sdk-cloudtrail 1.12.189
com.amazonaws aws-java-sdk-cloudwatch 1.12.189
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.189
com.amazonaws aws-java-sdk-codedeploy 1.12.189
com.amazonaws aws-java-sdk-cognitoidentity 1.12.189
com.amazonaws aws-java-sdk-cognitosync 1.12.189
com.amazonaws aws-java-sdk-config 1.12.189
com.amazonaws aws-java-sdk-core 1.12.189
com.amazonaws aws-java-sdk-datapipeline 1.12.189
com.amazonaws aws-java-sdk-directconnect 1.12.189
com.amazonaws aws-java-sdk-directory 1.12.189
com.amazonaws aws-java-sdk-dynamodb 1.12.189
com.amazonaws aws-java-sdk-ec2 1.12.189
com.amazonaws aws-java-sdk-ecs 1.12.189
com.amazonaws aws-java-sdk-efs 1.12.189
com.amazonaws aws-java-sdk-elasticache 1.12.189
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.189
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.189
com.amazonaws aws-java-sdk-elastictranscoder 1.12.189
com.amazonaws aws-java-sdk-emr 1.12.189
com.amazonaws aws-java-sdk-glacier 1.12.189
com.amazonaws aws-java-sdk-glue 1.12.189
com.amazonaws aws-java-sdk-iam 1.12.189
com.amazonaws aws-java-sdk-importexport 1.12.189
com.amazonaws aws-java-sdk-kinesis 1.12.189
com.amazonaws aws-java-sdk-kms 1.12.189
com.amazonaws aws-java-sdk-lambda 1.12.189
com.amazonaws aws-java-sdk-logs 1.12.189
com.amazonaws aws-java-sdk-machinelearning 1.12.189
com.amazonaws aws-java-sdk-opsworks 1.12.189
com.amazonaws aws-java-sdk-rds 1.12.189
com.amazonaws aws-java-sdk-redshift 1.12.189
com.amazonaws aws-java-sdk-route53 1.12.189
com.amazonaws aws-java-sdk-s3 1.12.189
com.amazonaws aws-java-sdk-ses 1.12.189
com.amazonaws aws-java-sdk-simpledb 1.12.189
com.amazonaws aws-java-sdk-simpleworkflow 1.12.189
com.amazonaws aws-java-sdk-sns 1.12.189
com.amazonaws aws-java-sdk-sqs 1.12.189
com.amazonaws aws-java-sdk-ssm 1.12.189
com.amazonaws aws-java-sdk-storagegateway 1.12.189
com.amazonaws aws-java-sdk-sts 1.12.189
com.amazonaws aws-java-sdk-support 1.12.189
com.amazonaws aws-java-sdk-swf-libraries 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.189
com.amazonaws jmespath-java 1.12.189
com.chuusai shapeless_2.12 2.3.3
com.clearspring.analytics flujo 2.9.6
com.databricks Rserve 1.8-3
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-shaded 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml classmate 1.3.4
com.fasterxml.jackson.core jackson-annotations 2.13.4
com.fasterxml.jackson.core jackson-core 2.13.4
com.fasterxml.jackson.core jackson-databind 2.13.4.2
com.fasterxml.jackson.dataformat jackson-dataformat-cbor 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-joda 2.13.4
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.13.4
com.fasterxml.jackson.module jackson-module-paranamer 2.13.4
com.fasterxml.jackson.module jackson-module-scala_2.12 2.13.4
com.github.ben-manes.caffeine caffeine 2.3.4
com.github.fommil jniloader 1.1
com.github.fommil.netlib core 1.1.2
com.github.fommil.netlib native_ref-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib native_system-java 1.1
com.github.fommil.netlib native_system-java-natives 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib netlib-native_system-linux-x86_64-natives 1.1
com.github.luben zstd-jni 1.5.2-1
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.8.6
com.google.crypto.tink tink 1.6.1
com.google.flatbuffers flatbuffers-java 1.12.0
com.google.guava guava 15.0
com.google.protobuf protobuf-java 2.6.1
com.h2database h2 2.0.204
com.helger profiler 1.1.1
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.RELEASE
com.lihaoyi sourcecode_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk 2.3.9
com.ning compress-lzf 1.1
com.sun.mail javax.mail 1.5.2
com.tdunning json 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe config 1.2.1
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.0
com.univocity univocity-parsers 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.15
commons-collections commons-collections 3.2.2
commons-dbcp commons-dbcp 1.4
commons-fileupload commons-fileupload 1.3.3
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.11.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 2.2.1
dev.ludovic.netlib blas 2.2.1
dev.ludovic.netlib lapack 2.2.1
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift aircompressor 0,21
io.delta delta-sharing-spark_2.12 0.6.2
io.dropwizard.metrics metrics-core 4.1.1
io.dropwizard.metrics metrics-graphite 4.1.1
io.dropwizard.metrics metrics-healthchecks 4.1.1
io.dropwizard.metrics metrics-jetty9 4.1.1
io.dropwizard.metrics metrics-jmx 4.1.1
io.dropwizard.metrics metrics-json 4.1.1
io.dropwizard.metrics metrics-jvm 4.1.1
io.dropwizard.metrics metrics-servlets 4.1.1
io.netty netty-all 4.1.74.Final
io.netty netty-buffer 4.1.74.Final
io.netty netty-codec 4.1.74.Final
io.netty netty-common 4.1.74.Final
io.netty netty-handler 4.1.74.Final
io.netty netty-resolver 4.1.74.Final
io.netty netty-tcnative-classes 2.0.48.Final
io.netty netty-transport 4.1.74.Final
io.netty netty-transport-classes-epoll 4.1.74.Final
io.netty netty-transport-classes-kqueue 4.1.74.Final
io.netty netty-transport-native-epoll-linux-aarch_64 4.1.74.Final
io.netty netty-transport-native-epoll-linux-x86_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-aarch_64 4.1.74.Final
io.netty netty-transport-native-kqueue-osx-x86_64 4.1.74.Final
io.netty netty-transport-native-unix-common 4.1.74.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx recopilador 0.12.0
jakarta.annotation jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation activation 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction transaction-api 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.10.13
net.java.dev.jna jna 5.8.0
net.razorvine pickle 1.2
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake snowflake-ingest-sdk 0.9.6
net.snowflake snowflake-jdbc 3.13.22
net.sourceforge.f2j arpack_combined_all 0,1
org.acplt.remotetea remotetea-oncrpc 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.8
org.antlr stringtemplate 3.2.1
org.apache.ant ant 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant ant-launcher 1.9.2
org.apache.arrow arrow-format 7.0.0
org.apache.arrow arrow-memory-core 7.0.0
org.apache.arrow arrow-memory-netty 7.0.0
org.apache.arrow arrow-vector 7.0.0
org.apache.avro avro 1.11.0
org.apache.avro avro-ipc 1.11.0
org.apache.avro avro-mapred 1.11.0
org.apache.commons commons-collections4 4.4.
org.apache.commons commons-compress 1.21
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons commons-text 1.10.0
org.apache.curator curator-client 2.13.0
org.apache.curator curator-framework 2.13.0
org.apache.curator curator-recipes 2.13.0
org.apache.derby derby 10.14.2.0
org.apache.hadoop hadoop-client-api 3.3.4-databricks
org.apache.hadoop hadoop-client-runtime 3.3.4
org.apache.hive hive-beeline 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive hive-llap-client 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive hive-shims 2.3.9
org.apache.hive hive-storage-api 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims hive-shims-scheduler 2.3.9
org.apache.httpcomponents httpclient 4.5.13
org.apache.httpcomponents httpcore 4.4.14
org.apache.ivy ivy 2.5.0
org.apache.logging.log4j log4j-1.2-api 2.18.0
org.apache.logging.log4j log4j-api 2.18.0
org.apache.logging.log4j log4j-core 2.18.0
org.apache.logging.log4j log4j-slf4j-impl 2.18.0
org.apache.mesos mesos-shaded-protobuf 1.4.0
org.apache.orc orc-core 1.7.6
org.apache.orc orc-mapreduce 1.7.6
org.apache.orc orc-shims 1.7.6
org.apache.parquet parquet-column 1.12.3-databricks-0002
org.apache.parquet parquet-common 1.12.3-databricks-0002
org.apache.parquet parquet-encoding 1.12.3-databricks-0002
org.apache.parquet parquet-format-structures 1.12.3-databricks-0002
org.apache.parquet parquet-hadoop 1.12.3-databricks-0002
org.apache.parquet parquet-jackson 1.12.3-databricks-0002
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.xbean xbean-asm9-shaded 4.20
org.apache.yetus audience-annotations 0.13.0
org.apache.zookeeper zookeeper 3.6.2
org.apache.zookeeper zookeeper-jute 3.6.2
org.checkerframework checker-qual 3.5.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapper-asl 1.9.13
org.codehaus.janino commons-compiler 3.0.16
org.codehaus.janino janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.jetty jetty-client 9.4.46.v20220331
org.eclipse.jetty jetty-continuation 9.4.46.v20220331
org.eclipse.jetty jetty-http 9.4.46.v20220331
org.eclipse.jetty jetty-io 9.4.46.v20220331
org.eclipse.jetty jetty-jndi 9.4.46.v20220331
org.eclipse.jetty jetty-plus 9.4.46.v20220331
org.eclipse.jetty jetty-proxy 9.4.46.v20220331
org.eclipse.jetty jetty-security 9.4.46.v20220331
org.eclipse.jetty jetty-server 9.4.46.v20220331
org.eclipse.jetty jetty-servlet 9.4.46.v20220331
org.eclipse.jetty jetty-servlets 9.4.46.v20220331
org.eclipse.jetty jetty-util 9.4.46.v20220331
org.eclipse.jetty jetty-util-ajax 9.4.46.v20220331
org.eclipse.jetty jetty-webapp 9.4.46.v20220331
org.eclipse.jetty jetty-xml 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-api 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-client 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-common 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-server 9.4.46.v20220331
org.eclipse.jetty.websocket websocket-servlet 9.4.46.v20220331
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 hk2-locator 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-resource-locator 1.0.3
org.glassfish.hk2.external aopalliance-repackaged 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers jersey-container-servlet 2,36
org.glassfish.jersey.containers jersey-container-servlet-core 2,36
org.glassfish.jersey.core jersey-client 2,36
org.glassfish.jersey.core jersey-common 2,36
org.glassfish.jersey.core jersey-server 2,36
org.glassfish.jersey.inject jersey-hk2 2,36
org.hibernate.validator hibernate-validator 6.1.0.Final
org.javassist javassist 3.25.0-GA
org.jboss.logging jboss-logging 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains annotations 17.0.0
org.joda joda-convert 1.7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mariadb.jdbc mariadb-java-client 2.7.4
org.mlflow mlflow-spark 1.27.0
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.3.3
org.roaringbitmap RoaringBitmap 0.9.25
org.roaringbitmap shims 0.9.25
org.rocksdb rocksdbjni 6.24.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.14
org.scala-lang scala-library_2.12 2.12.14
org.scala-lang scala-reflect_2.12 2.12.14
org.scala-lang.modules scala-collection-compat_2.12 2.4.3
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt test-interface 1,0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.0.8
org.scalanlp breeze-macros_2.12 1.2
org.scalanlp breeze_2.12 1.2
org.scalatest scalatest_2.12 3.0.8
org.slf4j jcl-over-slf4j 1.7.36
org.slf4j jul-to-slf4j 1.7.36
org.slf4j slf4j-api 1.7.36
org.spark-project.spark unused 1.0.0
org.threeten threeten-extra 1.5.0
org.tukaani xz 1.9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel macro-compat_2.12 1.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.0.7.Final
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.8.4
org.yaml snakeyaml 1.24
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.ion ion-java 1.0.2
stax stax-api 1.0.1