Databricks Runtime 15.2 (EoS)
Notitie
Ondersteuning voor deze Databricks Runtime-versie is beëindigd. Zie Geschiedenis van einde van ondersteuningvoor de einddatum van de ondersteuning. Zie voor alle ondersteunde Databricks Runtime-versies de releaseopmerkingen over Databricks Runtime-versies en compatibiliteit.
De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 15.2, mogelijk gemaakt door Apache Spark 3.5.0.
Databricks heeft deze versie uitgebracht in mei 2024.
Tip
Zie de releaseopmerkingen voor Databricks Runtime-versies die het einde van hun ondersteuning (EoS) hebben bereikt, in End-of-support Databricks Runtime releaseopmerkingen. De EoS Databricks Runtime-versies zijn buiten gebruik gesteld en worden mogelijk niet bijgewerkt.
Gedragswijzigingen
Vacuum COPY INTO metagegevensbestanden opschonen
Door VACUUM uit te voeren op een table die is geschreven met COPY INTO
worden nu niet-gerelateerde metadata opgeschoond die zijn gekoppeld aan het bijhouden van ingesloten bestanden. Er is geen invloed op de operationele semantiek van COPY INTO
.
Lakehouse Federation is nu algemeen beschikbaar (GA)
In Databricks Runtime 15.2 en hoger zijn Lakehouse Federation connectors voor de volgende databasetypen algemeen beschikbaar:
- MySQL
- PostgreSQL
- Amazon Redshift
- Sneeuwvlok
- Microsoft SQL Server
- Azure Synapse (SQL Data Warehouse)
- Databricks
In deze release worden ook de volgende verbeteringen geïntroduceerd:
Ondersteuning voor eenmalige aanmelding (SSO)-verificatie in de Snowflake- en Microsoft SQL Server-connectors.
Ondersteuning voor Azure Private Link voor de SQL Server-connector vanuit serverloze rekenomgevingen. Zie stap 3: regels voor privé-eindpunten maken.
Ondersteuning voor extra pushdowns (tekenreeks, wiskunde en diverse functies).
Verbetering in het slagingspercentage voor pushdown bij verschillende queryvormen.
Aanvullende mogelijkheden voor foutopsporing met pushdown.
- In de uitvoer van
EXPLAIN FORMATTED
wordt de tekst weergegeven van de query die naar beneden is geduwd. - In de gebruikersinterface van het queryprofiel worden de doorgegeven querytekst, federatieve knooppunt-id's en uitvoeringstijden van JDBC-query's (in gedetailleerde modus) weergegeven. Zie Door het systeem gegenereerde federatieve query's weergeven.
- In de uitvoer van
BY POSITION
voor toewijzing van column met behulp van COPY INTO
met csv-bestanden zonder headers
In Databricks Runtime 15.2 en hoger kunt u de BY POSITION
sleutelwoorden (of alternatieve syntaxis ( col_name [ , <col_name> ... ] )
) gebruiken met COPY INTO
voor headerloze CSV-bestanden om de bron-column naar tablecolumn toe te wijzen te vereenvoudigen. Zie Parameters.
Geheugenverbruik verminderen wanneer Spark-taken mislukken met een Resubmitted
-fout
In Databricks Runtime 15.2 en hoger is de retourwaarde van de Methode Spark TaskInfo.accumulables()
leeg wanneer taken mislukken met een Resubmitted
fout. Voorheen retourneerde de methode de values van een eerdere geslaagde taakpoging. Deze gedragswijziging is van invloed op de volgende consumenten:
- Spark-taken die gebruikmaken van de
EventLoggingListener
-klasse. - Aangepaste Spark-Listeners.
Om het vorige gedrag te restore, setspark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled
naar false
.
Uitvoeringsplanversies voor adaptieve query's weergeven is uitgeschakeld
Om het geheugenverbruik te verminderen, worden de versies van het AQE-abonnement (Adaptive Query Execution) nu standaard uitgeschakeld in de Spark-gebruikersinterface. Als u het weergeven van AQE-planversies in de Spark-gebruikersinterface wilt inschakelen, set de spark.databricks.sql.aqe.showPlanChangesInUI.enabled
naar true
.
Limit voor bewaarde query's wordt verlaagd om het geheugengebruik van de Spark-gebruikersinterface te verminderen
Om in Databricks Runtime 15.2 en hoger het geheugen te verminderen dat wordt gebruikt door de Spark-gebruikersinterface in Azure Databricks compute, wordt de limit over het aantal query's dat zichtbaar is in de gebruikersinterface verlaagd van 1000 tot 100. Als u de limitwilt wijzigen, set u een nieuwe waarde met behulp van de spark.sql.ui.retainedExecutions
Spark-configuratie.
DESCRIBE HISTORY
toont nu clustering columns voor tables die gebruikmaken van liquide clustering
Wanneer u een DESCRIBE HISTORY
-query uitvoert, wordt in de operationParameters
column standaard een clusterBy
veld weergegeven voor CREATE OR REPLACE
- en OPTIMIZE
bewerkingen. Voor een Delta-table die gebruikmaakt van liquide clustering, wordt het clusterBy
veld gevuld met de tableclustering columns. Als de table geen gebruikmaakt van liquide clustering, is het veld leeg.
Nieuwe functies en verbeteringen
Ondersteuning voor primaire en refererende sleutels is algemeen beschikbaar.
Ondersteuning voor primaire en vreemde sleutels in Databricks Runtime is nu algemeen beschikbaar. De GA-release bevat de volgende wijzigingen in de bevoegdheden die zijn vereist voor het gebruik van primaire en vreemde sleutels:
- Als u een buitenlandse sleutel wilt definiëren, moet u de
SELECT
-rechten hebben op de table met de primaire sleutel waarnaar de buitenlandse sleutel verwijst. U hoeft niet de eigenaar te zijn van de table met de eerder vereiste primaire sleutel. - Het verwijderen van een primaire sleutel met behulp van de
CASCADE
-clausule vereist geen bevoegdheden op de tables die de verwijzende sleutels definiëren die naar de primaire sleutel verwijzen. Voorheen moest u de verwijzings-tablesbezitten. - Voor het verwijderen van een table met beperkingen zijn nu dezelfde bevoegdheden vereist als het verwijderen van tables die geen beperkingen bevatten.
Zie clausule CONSTRAINT, clausule ADD CONSTRAINTen clausule DROP CONSTRAINTvoor meer informatie over het gebruik van primaire en vreemde sleutels met tables of views.
Liquid clustering is GA
Ondersteuning voor liquide clustering is nu algemeen beschikbaar met Databricks Runtime 15.2 en hoger. Zie Liquid Clustering gebruiken voor Delta tables.
Type widening is beschikbaar als openbare preview
U kunt nu type widening inschakelen op tables ondersteund door Delta Lake. Tables, met typebreiding ingeschakeld, kunt u het type van columns wijzigen naar een breder gegevenstype zonder de onderliggende gegevensbestanden opnieuw te schrijven. Zie type-uitbreiding.
Schema evolutiecomponent toegevoegd aan de syntaxis van SQL-samenvoeging
U kunt nu de WITH SCHEMA EVOLUTION
component toevoegen aan een SQL-samenvoegingsinstructie om schema evolutie voor de bewerking mogelijk te maken. Zie Schema evolutiesyntaxis voor samenvoeging.
Aangepaste pySpark-gegevensbronnen zijn beschikbaar in openbare preview
Een PySpark DataSource kan worden gemaakt met behulp van de Python DataSource-API (PySpark), waarmee u kunt lezen uit aangepaste gegevensbronnen en schrijven naar aangepaste gegevenssinks in Apache Spark met behulp van Python. Zie aangepaste gegevensbronnen van PySpark
applyInPandas en mapInPandas nu beschikbaar op Unity Catalog compute met de modus voor gedeelde toegang
Als onderdeel van een Databricks Runtime 14.3 LTS-onderhoudsrelease worden applyInPandas
en mapInPandas
UDF-typen nu ondersteund op de modus voor gedeelde toegang, waarop Databricks Runtime 14.3 en hoger wordt uitgevoerd.
Gebruik dbutils.widgets.getAll() om alle widgets in een notitieblok te get
Gebruik dbutils.widgets.getAll()
om alle widget-values te get in een notitieblok. Dit is vooral handig bij het doorgeven van meerdere widgets values aan een Spark SQL-query.
ondersteuning voor Vacuum inventaris
U kunt nu een inventaris opgeven van bestanden waarmee u rekening moet houden bij het uitvoeren van de opdracht VACUUM
op een Delta-table. Zie de OSS Delta-documenten.
Ondersteuning voor Zstandard-compressiefuncties
U kunt nu de functies zst_compress, zstd_decompressen try_zstd_decompress gebruiken om BINARY
gegevens te comprimeren en decomprimeren.
Bugfixes
Queryplannen in de SQL-gebruikersinterface worden nu correct weergegeven PhotonWriteStage
Wanneer ze in de SQL-gebruikersinterface worden weergegeven, tonen write
-opdrachten in queryplannen ten onrechte PhotonWriteStage
als operator. Met deze release wordt de gebruikersinterface bijgewerkt om PhotonWriteStage
als fase weer te geven. Dit is alleen een wijziging in de gebruikersinterface en heeft geen invloed op de wijze waarop query's worden uitgevoerd.
Ray wordt bijgewerkt om problemen met het starten van Ray-clusters op te lossen
Deze release bevat een patchversie van Ray waarmee een wijziging die fouten kan veroorzaken, wordt opgelost waardoor Ray-clusters niet kunnen beginnen met Databricks Runtime voor Machine Learning. Deze wijziging zorgt ervoor dat ray-functionaliteit identiek is aan versies van Databricks Runtime die eerder zijn dan 15.2.
Foutklasse gecorrigeerd voor DataFrame.sort()
- en DataFrame.sortWithinPartitions()
-functies
Deze release bevat een update voor de functies PySpark DataFrame.sort()
en DataFrame.sortWithinPartitions()
om ervoor te zorgen dat de foutklasse ZERO_INDEX
wordt gegenereerd wanneer 0
wordt doorgegeven als het indexargument. Eerder werd de foutklasse INDEX_NOT_POSITIVE
gegeven.
ipywidgets wordt gedowngraded van 8.0.4 naar 7.7.2
Om fouten op te lossen die zijn geïntroduceerd door een upgrade van ipywidgets naar 8.0.4 in Databricks Runtime 15.0, wordt ipywidgets ge downgraded naar 7.7.2 in Databricks Runtime 15.2. Dit is dezelfde versie die is opgenomen in eerdere Databricks Runtime-versies.
Bibliotheekverbeteringen
- Bijgewerkte Python-bibliotheken:
- GitPython van 3.1.42 tot 3.1.43
- google-api-core van 2.17.1 tot 2.18.0
- google-auth van 2.28.1 tot 2.29.0
- google-cloud-storage van 2.15.0 tot 2.16.0
- googleapis-common-protos van 1.62.0 tot 1.63.0
- ipywidgets van 8.0.4 tot 7.7.2
- mlflow-skinny van 2.11.1 tot 2.11.3
- s3transfer van 0.10.0 naar 0.10.1
- sqlparse van 0.4.4 tot 0.5.0
- typing_extensions van 4.7.1 tot 4.10.0
- Bijgewerkte R-bibliotheken:
- Bijgewerkte Java-bibliotheken:
- com.amazonaws.aws-java-sdk-autoscaling van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-config van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-core van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-directconnect van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-directory van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-ec2 van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-ecs van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-efs van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-elasticache van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-emr van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-glacier van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-glue van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-iam van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-importexport van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-kinesis van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-kms van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-lambda van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-logs van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-opsworks van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-rds van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-redshift van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-route53 van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-s3 van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-ses van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-simpledb van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-sns van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-sqs van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-ssm van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-sts van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-support van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-workspaces van 1.12.390 tot 1.12.610
- com.amazonaws.jmespath-java van 1.12.390 tot 1.12.610
Apache Spark
Databricks Runtime 15.2 bevat Apache Spark 3.5.0. Deze release bevat alle Spark-oplossingen en -verbeteringen die zijn opgenomen in Databricks Runtime 15.1 (EoS), evenals de volgende aanvullende foutoplossingen en verbeteringen in Spark:
- [SPARK-47941] [SC-163568] [SS] [Verbinding] ForeachBatch-worker-initialisatiefouten doorgeven aan gebruikers voor PySpark
- [SPARK-47412] [SC-163455][SQL] Ondersteuning voor sortering toevoegen voor LPad/RPad.
- [SPARK-47907] [SC-163408][SQL] Plaats 'bang' onder een configuratie
-
[SPARK-46820] [SC-157093][PYTHON] Regressie van foutbericht herstellen door
new_msg
- [SPARK-47602] [SPARK-47577][SPARK-47598][SPARK-47577]Core/MLLib/Resource managers: gestructureerde migratie van logboekregistratie
- [SPARK-47890] [SC-163324][CONNECT][PYTHON] Variantfuncties toevoegen aan Scala en Python.
-
[SPARK-47894] [SC-163086][CORE][WEBUI] Pagina
Environment
toevoegen aan Master UI - [SPARK-47805] [SC-163459][SS] TTL implementeren voor MapState
- [SPARK-47900] [SC-163326] Controle voor impliciete sortering (UTF8_BINARY) corrigeren
- [SPARK-47902] [SC-163316][SQL]Compute Current Time* expressies vouwbaar maken
- [SPARK-47845] [SC-163315][SQL][PYTHON][CONNECT] Ondersteuning Column type in split-functie voor Scala en Python
- [SPARK-47754] [SC-162144][SQL] Postgres: Ondersteuning voor het lezen van multidimensionale matrices
- [SPARK-47416] [SC-163001][SQL] Nieuwe functies toevoegen aan CollationBenchmark #90339
- [SPARK-47839] [SC-163075][SQL] Aggregatiefout opgelost in RewriteWithExpression
- [SPARK-47821] [SC-162967][SQL] Is_variant_null-expressie implementeren
-
[SPARK-47883] [SC-163184][SQL]
CollectTailExec.doExecute
lui maken met RowQueue - [SPARK-47390] [SC-163306][SQL] PostgresDialect onderscheidt TIMESTAMP van TIMESTAMP_TZ
-
[SPARK-47924] [SC-163282][CORE] Een DEBUG-log toevoegen aan
DiskStore.moveFileToBlock
- [SPARK-47897] [SC-163183][SQL][3.5] Regressie van ExpressionSet-prestaties herstellen in scala 2.12
- [SPARK-47565] [SC-161786][PYTHON] PySpark-werkpool bestendigheid tegen crashes
- [SPARK-47885] [SC-162989][PYTHON][CONNECT] Pyspark.resource compatibel maken met pyspark-connect
-
[SPARK-47887] [SC-163122][CONNECT] Remove ongebruikte import
spark/connect/common.proto
uitspark/connect/relations.proto
- [SPARK-47751] [SC-161991][PYTHON][CONNECT] Maak pyspark.worker_utils compatibel met pyspark-connect
- [SPARK-47691] [SC-161760][SQL] Postgres: Ondersteuning voor multidimensionale matrix aan de schrijfzijde
- [SPARK-47617] [SC-162513][SQL] Testinfrastructuur voor sorteringen toevoegen TPC-DS
- [SPARK-47356] [SC-162858][SQL] Ondersteuning toevoegen voor ConcatWs & Elt (alle sorteringen)
-
[SPARK-47543] [SC-161234][CONNECT][PYTHON]
dict
alsMapType
van Pandas DataFrame afleiden om het maken van een DataFrame mogelijk te maken. - [SPARK-47863] [SC-162974][SQL] Repareer startsWith & endsWith collatie-bewuste implementatie voor ICU
- [SPARK-47867] [SC-162966][SQL] Ondersteuningsvariant in JSON-scan.
- [SPARK-47366] [SC-162475][SQL][PYTHON] VariantVal voor PySpark toevoegen
- [SPARK-47803] [SC-162726][SQL] Ondersteuning voor cast naar variant.
- [SPARK-47769] [SC-162841][SQL] Schema_of_variant_agg expressie toevoegen.
- [SPARK-47420] [SC-162842][SQL] Testuitvoer repareren
- [SPARK-47430] [SC-161178][SQL] Ondersteuning GROUP BY voor MapType
- [SPARK-47357] [SC-162751][SQL] Ondersteuning toevoegen voor Upper, Lower, InitCap (alle sorteringen)
- [SPARK-47788] [SC-162729][SS] Zorg voor dezelfde hashpartitionering voor streaming stateful ops
- [SPARK-47776] [SC-162291][SS] De sortering van binaire ongelijkheid mag niet worden gebruikt in sleutel-schema van stateful operator
- [SPARK-47673] [SC-162824][SS] TTL implementeren voor ListState
- [SPARK-47818] [SC-162845][CONNECT] Plancache introduceren in SparkConnectPlanner om de prestaties van het analyseren van aanvragen te verbeteren
- [SPARK-47694] [SC-162783][CONNECT] Maximale berichtgrootte aan de clientzijde configureren
- [SPARK-47274] Revert “[SC-162479][PYTHON][SQL] Meer nuttige informatie bieden..."
- [SPARK-47616] [SC-161193][SQL] Gebruikersdocument toevoegen voor het mappen van Spark SQL-gegevenstypen vanuit MySQL
- [SPARK-47862] [SC-162837][PYTHON][CONNECT]Los het genereren van proto-bestanden op
- [SPARK-47849] [SC-162724][PYTHON][CONNECT] Releasescript wijzigen om pyspark-connect vrij te geven
- [SPARK-47410] [SC-162518][SQL] UTF8String en CollationFactory herstructureren
- [SPARK-47807] [SC-162505][PYTHON][ML] Pyspark.ml compatibel maken met pyspark-connect
- [SPARK-47707] [SC-161768][SQL] Speciale verwerking van JSON-type voor MySQL Connector/J 5.x
- [SPARK-47765] Maak "[SC-162636][SQL] SET SORTERING toevoegen aan pars..." ongedaan
- [SPARK-47081] [SC-162151][CONNECT][FOLLOW] Verbeteren van de bruikbaarheid van de Voortgangshandler
- [SPARK-47289] [SC-161877][SQL] Uitbreidingen toestaan om uitgebreide informatie in explain-abonnement te registreren
- [SPARK-47274] [SC-162479][PYTHON][SQL] Geef nuttigere context voor PySpark DataFrame-API-fouten
- [SPARK-47765] [SC-162636][SQL] SET COLLATIE toevoegen aan parserregels
-
[SPARK-47828] [SC-162722][CONNECT][PYTHON]
DataFrameWriterV2.overwrite
mislukt met een ongeldig abonnement - [SPARK-47812] [SC-162696][CONNECT] Ondersteuning voor serialisatie van SparkSession voor ForEachBatch-werker
- [SPARK-47253] [SC-162698][CORE] LiveEventBus stoppen zonder dat de gebeurteniswachtrij volledig leeg is
- [SPARK-47827] [SC-162625][PYTHON] Ontbrekende waarschuwingen voor afgeschafte functies
- [SPARK-47733] [SC-162628][SS] Aangepaste metrische gegevens toevoegen voor de transformWithState-operator die deel uitmaakt van de voortgang van de query
- [SPARK-47784] [SC-162623][SS] TTLMode en TimeoutMode samenvoegen in één TimeMode.
- [SPARK-47775] [SC-162319][SQL] Ondersteuning voor resterende scalaire typen in de variantspecificatie.
- [SPARK-47736] [SC-162503][SQL] Ondersteuning voor AbstractArrayType toevoegen
- [SPARK-47081] [SC-161758][CONNECT] Ondersteuning voor uitvoering en voortgang van query's
- [SPARK-47682] [SC-162138][SQL] Ondersteuningscast van variant.
- [SPARK-47802] [SC-162478][SQL] Keer () van betekenis struct() terug naar betekenis *
- [SPARK-47680] [SC-162318][SQL] Variant_explode-expressie toevoegen.
-
[SPARK-47809] [SC-162511][SQL]
checkExceptionInExpression
moet de fout controleren voor elke codegenmodus -
[SPARK-41811] [SC-162470][PYTHON][CONNECT] Implementeer
SQLStringFormatter
metWithRelations
- [SPARK-47693] [SC-162326][SQL] Optimalisatie toevoegen voor vergelijking van kleine letters van UTF8String die wordt gebruikt in UTF8_BINARY_LCASE sortering
- [SPARK-47541] [SC-162006][SQL] Geordende tekenreeksen in complexe typen die bewerkingen ondersteunen zoals omkeren, array_join, concat, map
- [SPARK-46812] [SC-161535][CONNECT][PYTHON] MapInPandas / mapInArrow-ondersteuning voor ResourceProfile maken
- [SPARK-47727] [SC-161982][PYTHON] SparkConf naar het hoofdniveau maken zowel voor SparkSession als voor SparkContext
- [SPARK-47406] [SC-159376][SQL] TIJDSTEMPEL en DATUM/TIJD verwerken in MYSQLDialect
- [SPARK-47081] Herstel van “[SC-161758][CONNECT] Ondersteuning voor Query-uitvoeri...
- [SPARK-47681] [SC-162043][SQL] Schema_of_variant-expressie toevoegen.
- [SPARK-47783] [SC-162222] Voeg enkele ontbrekende SQLSTATEs toe en maak de YY000 schoon om te gebruiken…
- [SPARK-47634] [SC-161558][SQL] Verouderde ondersteuning toevoegen voor het uitschakelen van normalisatie van kaartsleutels
- [SPARK-47746] [SC-162022] Op ordinaal gebaseerde bereikcodering implementeren in de RocksDBStateEncoder
- [SPARK-47285] [SC-158340][SQL] AdaptiveSparkPlanExec moet altijd de context.session gebruiken
- [SPARK-47643] [SC-161534][SS][PYTHON] Pyspark-test toevoegen voor python-streamingbron
- [SPARK-47582] [SC-161943][SQL] Catalyst logInfo migreren met variabelen naar gestructureerd framework voor logboekregistratie
- [SPARK-47558] [SC-162007][SS] Status-TTL-ondersteuning voor ValueState
- [SPARK-47358] [SC-160912][SQL][SORTERING] Ondersteuning voor herhalingsexpressies verbeteren om het juiste gegevenstype te retourneren
- [SPARK-47504] [SC-162044][SQL] Los AbstractDataType simpleStrings op voor StringTypeCollated
- [SPARK-47719] '[SC-161909][SQL] Wijzigen spark.sql.legacy.t...
- [SPARK-47657] [SC-162010][SQL] Ondersteuning voor sorteringsfilters per bestandsbron implementeren
- [SPARK-47081] [SC-161758][CONNECT] Ondersteuning voor de voortgang van query-uitvoering
- [SPARK-47744] [SC-161999] Ondersteuning toevoegen voor bytes met een negatieve waarde in bereikcoderingsprogramma
- [SPARK-47713] [SC-162009][SQL][CONNECT] Een self-join-fout oplossen
- [SPARK-47310] [SC-161930][SS] Micro-benchmark toevoegen voor samenvoegbewerkingen voor meerdere values in waardegedeelte van het statusarchief
- [SPARK-47700] [SC-161774][SQL] Opmaak van foutberichten met treeNode oplossen
- [SPARK-47752] [SC-161993][PS][CONNECT] Pyspark.pandas compatibel maken met pyspark-connect
- [SPARK-47575] [SC-161402][SPARK-47576][SPARK-47654] LogWarning/logInfo-API implementeren in gestructureerd logboekregistratieframework
- [SPARK-47107] [SC-161201][SS][PYTHON] Implementeer partition lezer voor python-streaminggegevensbron
- [SPARK-47553] [SC-161772][SS] Java-ondersteuning voor transformWithState-operator-API's toevoegen
- [SPARK-47719] [SC-161909][SQL] Wijzig de standaardinstelling spark.sql.legacy.timeParserPolicy in CORRECTED
- [SPARK-47655] [SC-161761][SS] Timer integreren met initiële statusafhandeling voor status-v2
- [SPARK-47665] [SC-161550][SQL] Gebruik SMALLINT om ShortType naar MYSQL te schrijven
- [SPARK-47210] [SC-161777][SQL] Toevoeging van impliciete cast-conversie zonder onbepaalde ondersteuning
- [SPARK-47653] [SC-161767][SS] Ondersteuning toevoegen voor negatieve numerieke typen en het coderingsprogramma voor bereikscansleutels
- [SPARK-46743] [SC-160777][SQL] Telfout na constante optimalisatie
- [SPARK-47525] [SC-154568][SQL] Ondersteuning voor het samenvoegen van subquerycorrelaties met kaartattributen.
- [SPARK-46366] [SC-151277][SQL] Gebruik de WITH-expressie in BETWEEN om dubbele expressies te voorkomen
- [SPARK-47563] [SC-161183][SQL] Kaartnormalisatie toevoegen bij het maken
- [SPARK-42040] [SC-161171][SQL] SPJ: introduceer een nieuwe API voor V2-invoer partition om partition statistieken te rapporteren
-
[SPARK-47679] [SC-161549][SQL] Gebruik rechtstreeks namen van
HiveConf.getConfVars
of Hive-conf -
[SPARK-47685] [SC-161566][SQL] Restore de ondersteuning voor
Stream
type inDataset#groupBy
- [SPARK-47646] [SC-161352][SQL] Geef NULL terug voor ongeldige invoer in try_to_number.
- [SPARK-47366] [SC-161324][PYTHON] Pyspark en dataframe toevoegen parse_json aliassen
-
[SPARK-47491] [SC-161176][CORE] Voeg eerst
slf4j-api
JAR toe aan het classpad voordat de anderen vanjars
map - [SPARK-47270] [SC-158741][SQL] Dataset.isEmpty projects CommandResults lokaal
-
[SPARK-47364] [SC-158927][CORE]
PluginEndpoint
moet waarschuwen wanneer plugins reageren op een eenrichtingsbericht - [SPARK-47280] [SC-158350][SQL] Removetimezone beperking voor ORACLE TIMESTAMP WITH TIMEZONE
- [SPARK-47551] [SC-161542][SQL] Variant_get expressie toevoegen.
-
[SPARK-47559] [SC-161255][SQL] Codegen-ondersteuning voor variant
parse_json
- [SPARK-47572] [SC-161351][SQL] Window ervoor zorgen dat partitionSpec orderbaar is.
- [SPARK-47546] [SC-161241][SQL] Validatie verbeteren bij het lezen van variant van Parquet
-
[SPARK-47543] [SC-161234][CONNECT][PYTHON]
dict
alsMapType
afleiden uit Pandas DataFrame om het aanmaken van DataFrame mogelijk te maken - [SPARK-47485] [SC-161194][SQL][PYTHON][CONNECT] Maak column met sorteringen in dataframe-API
-
[SPARK-47641] [SC-161376][SQL] De prestaties voor
UnaryMinus
enAbs
verbeteren -
[SPARK-47631] [SC-161325][SQL] Remove ongebruikte methode
SQLConf.parquetOutputCommitterClass
-
[SPARK-47674] [SC-161504][CORE] Standaard
spark.metrics.appStatusSource.enabled
inschakelen - [SPARK-47273] [SC-161162][SS][PYTHON] python-interface voor gegevensstroomschrijver implementeren.
- [SPARK-47637] [SC-161408][SQL] Gebruik errorCapturingIdentifier op meer plaatsen
- [SPARK-47497] Terugdraaien “Terugdraaien “[SC-160724][SQL] To_csv ondersteuning bieden voor de uitvoer van array/struct/map/binary als leesbare tekenreeksen””
- [SPARK-47492] [SC-161316][SQL] Ruimteregels in lexer verruimen
- [SPARK-47664] [SC-161475][PYTHON][CONNECT] Valideer de naam van de column met schema in de cache
- [SPARK-47638] [SC-161339][PS][CONNECT] Sla column naamvalidatie over in PS
- [SPARK-47363] [SC-161247][SS] Initiële status zonder implementatie van statuslezer voor State API v2.
- [SPARK-47447] [SC-160448][SQL] Het lezen van Parquet TimestampLTZ als TimestampNTZ toestaan
-
[SPARK-47497] '[SC-160724][SQL]
to_csv
support intrekken voor de uitvoer vanarray/struct/map/binary
als aantrekkelijke tekenreeksen' -
[SPARK-47434] [SC-160122][WEBUI] Koppeling
statistics
inStreamingQueryPage
herstellen - [SPARK-46761] [SC-159045][SQL] Aanhalingstekenreeksen in een JSON-pad moeten ? ondersteunen. karakters
-
[SPARK-46915] [SC-155729][SQL] Vereenvoudig
UnaryMinus
Abs
en lijn de foutklasse uit - [SPARK-47431] [SC-160919][SQL] Standaardsortering op sessieniveau toevoegen
- [SPARK-47620] [SC-161242][PYTHON][CONNECT] Een helperfunctie toevoegen om columns te sorteren
- [SPARK-47570] [SC-161165][SS] Bereikscancoderingswijzigingen integreren met timer-implementatie
-
[SPARK-47497] [SC-160724][SQL] Zorg ervoor dat
to_csv
de uitvoer vanarray/struct/map/binary
als mooie tekenreeksen ondersteunt -
[SPARK-47562] [SC-161166][CONNECT] Verwerking van letterlijke waarden buiten
plan.py
- [SPARK-47509] [SC-160902][SQL] Subquery-expressies blokkeren in lambda- en hogere volgordefuncties
-
[SPARK-47539] [SC-160750][SQL] De retourwaarde van de methode
castToString
moet wordenAny => UTF8String
- [SPARK-47372] [SC-160905][SS] Ondersteuning toevoegen voor op bereikscan gebaseerde sleutelstatuscoderingsprogramma voor gebruik met statusarchiefprovider
- [SPARK-47517] [SC-160642][CORE][SQL] Geef de voorkeur aan Utils.bytesToString voor grootteweergave
-
[SPARK-47243] [SC-158059][SS] Corrigeer de pakketnaam van
StateMetadataSource.scala
- [SPARK-47367] [SC-160913][PYTHON][CONNECT] Ondersteuning voor Python-gegevensbronnen met Spark Connect
-
[SPARK-47521] [SC-160666][CORE] Gebruik
Utils.tryWithResource
tijdens het lezen van shuffle-gegevens uit externe opslag - [SPARK-47474] [SC-160522][CORE] Spark-47461 herstellen en enkele opmerkingen toevoegen
- [SPARK-47560] [SC-160914][PYTHON][CONNECT] Vermijd RPC om column naam te valideren met schema in de cache
- [SPARK-47451] [SC-160749][SQL] Ondersteuning to_json(variant).
- [SPARK-47528] [SC-160727][SQL] UserDefinedType-ondersteuning toevoegen aan DataTypeUtils.canWrite
- [SPARK-44708] Revert “[SC-160734][PYTHON] Migrate test_reset_index assert_eq om assertDataFrameEqual te gebruiken”
- [SPARK-47506] [SC-160740][SQL] Ondersteuning toevoegen aan alle bestandsindelingen voor gesorteerde gegevenstypen
- [SPARK-47256] [SC-160784][SQL] Namen toewijzen aan foutklassen _LEGACY_ERROR_TEMP_102[4-7]
- [SPARK-47495] [SC-160720][CORE] Primaire resource-JAR die twee keer is toegevoegd aan spark.jars in de k8s-clustermodus
- [SPARK-47398] [SC-160572][SQL] Extraheer een kenmerk voor InMemoryTableScanExec om uitbreidingsfunctionaliteit mogelijk te maken
- [SPARK-47479] [SC-160623][SQL] Optimize kan geen gegevens naar relaties met meerdere paden schrijven - foutlog
- [SPARK-47483] [SC-160629][SQL] Ondersteuning toevoegen voor aggregatie- en join-bewerkingen voor matrices met gesorteerde tekenreeksen
- [SPARK-47458] [SC-160237][CORE] Los het probleem op met het berekenen van het maximum aantal gelijktijdige taken voor de barrièrefase
-
[SPARK-47534] [SC-160737][SQL]
o.a.s.variant
verplaatsen naaro.a.s.types.variant
- [SPARK-47396] [SC-159312][SQL] Een algemene toewijzing voor TIME WITHOUT TIME ZONE toevoegen aan TimestampNTZType
- [SPARK-44708] [SC-160734][PYTHON] Migreer test_reset_index assert_eq om assertDataFrameEqual te gebruiken
- [SPARK-47309] [SC-157733][SC-160398][SQL] XML: schema deductietests toevoegen voor waardetags
-
[SPARK-47007] [SC-160630][SQL] De
MapSort
-expressie toevoegen -
[SPARK-47523] [SC-160645][SQL] Vervangen afgeschafte
JsonParser#getCurrentName
doorJsonParser#currentName
- [SPARK-47440] [SC-160635][SQL] Probleem opgelost bij het pushen van niet-ondersteunde syntaxis naar MsSqlServer
- [SPARK-47512] [SC-160617][SS] Labelbewerkingstype dat wordt gebruikt met het exemplaarvergrendelings-/release van rocksDB-statusarchief
- [SPARK-47346] [SC-159425][PYTHON] De daemonmodus configureren bij het maken van Python Planner-werkrollen
-
[SPARK-47446] [SC-160163][CORE] Maak
BlockManager
waarschuwen voordatremoveBlockInternal
- [SPARK-46526] [SC-156099][SQL] Ondersteuning LIMIT over gecorreleerde subquery's where alleen verwijzingen naar buitenste table
-
[SPARK-47461] [SC-160297][CORE] Remove privéfunctie
totalRunningTasksPerResourceProfile
uitExecutorAllocationManager
- [SPARK-47422] [SC-160219][SQL] Ondersteuning voor gesorteerde tekenreeksen in matrixbewerkingen
-
[SPARK-47500] [SC-160627][PYTHON][CONNECT] Factoriseer column naamverwerking buiten
plan.py
-
[SPARK-47383] [SC-160144][CORE] Ondersteuning van
spark.shutdown.timeout
configuratie - [SPARK-47342] [SC-159049]Herstel "[SQL] Ondersteuning van TimestampNTZ voor DB2 TIMESTAMP MET TIJDZONE"
-
[SPARK-47486] [SC-160491][CONNECT] Remove ongebruikte privé-
ArrowDeserializers.getString
methode - [SPARK-47233] [SC-154486][CONNECT][SS][2/2] Client & Serverlogica voor streamingquerylistener aan clientzijde
- [SPARK-47487] [SC-160534][SQL] Vereenvoudigen van code in AnsiTypeCoercion
- [SPARK-47443] [SC-160459][SQL] Window Aggregaatondersteuning voor collaties
- [SPARK-47296] [SC-160457][SQL][SORTERING] Mislukt niet-ondersteunde functies voor niet-binaire sorteringen
- [SPARK-47380] [SC-160164][CONNECT] Zorg ervoor dat de SparkSession hetzelfde is aan de serverzijde
- [SPARK-47327] [SC-160069][SQL] Sorteersleutels gelijktijdigheidstest verplaatsen naar CollationFactorySuite
- [SPARK-47494] [SC-160495][Doc] Migratiedocument toevoegen voor de gedragswijziging van Parquet-timestampdeductie sinds Spark 3.3
- [SPARK-47449] [SC-160372][SS] Het herstructureren en splitsen van list/timer unittests
-
[SPARK-46473] [SC-155663][SQL]
getPartitionedFile
methode opnieuw gebruiken - [SPARK-47423] [SC-160068][SQL] Sorteringen - Set bewerkingsondersteuning voor tekenreeksen met sorteringen
- [SPARK-47439] [SC-160115][PYTHON] Documenteer de Python-gegevensbron-API in de API-referentiepagina
-
[SPARK-47457] [SC-160234][SQL]
IsolatedClientLoader.supportsHadoopShadedClient
oplossen om Hadoop 3.4+ te ondersteunen - [SPARK-47366] [SC-159348][SQL] Implementeer parse_json.
- [SPARK-46331] [SC-152982][SQL] CodegenFallback verwijderen uit subset van DateTime-expressies en version()-expressie
- [SPARK-47395] [SC-159404] Samenvoeging en sortering toevoegen aan andere API's
-
[SPARK-47437] [SC-160117][PYTHON][CONNECT] Corrigeer de foutklasse voor
DataFrame.sort*
- [SPARK-47174] [SC-154483][CONNECT][SS][1/2] SparkConnectListenerBusListener voor streamingquerylistener aan clientzijde
- [SPARK-47324] [SC-158720][SQL] Ontbrekende tijdstempelconversie toevoegen voor geneste JDBC-typen
- [SPARK-46962] [SC-158834][SS][PYTHON] Interface toevoegen voor de API voor python-streaminggegevensbron en python-werkrol implementeren om python-streaminggegevensbron uit te voeren
- [SPARK-45827] [SC-158498][SQL] Gegevenstypecontroles verplaatsen naar CreatableRelationProvider
- [SPARK-47342] [SC-158874][SQL] Ondersteun TimestampNTZ voor DB2 TIMESTAMP WITH TIME ZONE
- [SPARK-47399] [SC-159378][SQL] Gegenereerde columns uitschakelen voor expressies met sorteringen
- [SPARK-47146] [SC-158247][CORE] Mogelijk draadlek bij sorteren en samenvoegen join
- [SPARK-46913] [SC-159149][SS] Ondersteuning toevoegen voor timers op basis van verwerking/gebeurtenistijd met transformWithState-operator
-
[SPARK-47375] [SC-159063][SQL] Richtlijnen toevoegen voor tijdstempeltoewijzing in
JdbcDialect#getCatalystType
- [SPARK-47394] [SC-159282][SQL] Ondersteuning voor TIJDSTEMPEL MET TIJDZONE voor H2Dialect
- [SPARK-45827] Revert “[SC-158498][SQL] Gegevenstypecontroles verplaatsen naar ...
- [SPARK-47208] [SC-159279][CORE] Overschrijven van basisoverheadgeheugen toestaan
- [SPARK-42627] [SC-158021][SPARK-26494][SQL] Ondersteuning voor Oracle TIMESTAMP WITH LOCAL TIME ZONE
- [SPARK-47055] [SC-156916][PYTHON] MyPy 1.8.0 bijwerken
- [SPARK-46906] [SC-157205][SS] Een controle toevoegen voor wijziging van stateful operators bij streaming.
- [SPARK-47391] [SC-159283][SQL] Remove de tijdelijke oplossing voor de testcase voor JDK 8
- [SPARK-47272] [SC-158960][SS] MapState-implementatie toevoegen voor State API v2.
- [SPARK-47375] [SC-159278][Doc][FollowUp] Corrigeer een fout in JDBC's preferTimestampNTZ option doc
- [SPARK-42328] [SC-157363][SQL] Remove _LEGACY_ERROR_TEMP_1175 uit foutklassen
- [SPARK-47375] [SC-159261][Doc][FollowUp] Corrigeer de beschrijving van de optie PreferTimestampNTZ in JDBC-document
- [SPARK-47344] [SC-159146] Breid INVALID_IDENTIFIER foutmelding uit buiten het ondervangen van '-' in een niet-geciteerd identifier en corrigeer "IS ! NULL" et al.
- [SPARK-47340] [SC-159039][SQL] Wijzig "collate" in de StringType-typenaam naar kleine letters
- [SPARK-47087] [SC-157077][SQL] Spark-uitzondering veroorzaken met een foutklasse bij de configuratiewaardebeoordeling
- [SPARK-47327] [SC-158824][SQL] Thread-veiligheidsprobleem in ICU Collator oplossen
- [SPARK-47082] [SC-157058][SQL] Foutvoorwaarde buiten de grenzen oplossen
- [SPARK-47331] [SC-158719][SS] Serialisatie met behulp van caseklassen/primitieven/POJO op basis van SQL-encoder voor Willekeurige status-API v2.
- [SPARK-47250] [SC-158840][SS] Aanvullende validaties en NERF-wijzigingen toevoegen voor rocksDB-statusprovider en het gebruik van column families
- [SPARK-47328] [SC-158745][SQL] Hernoem UCS_BASIC sortering naar UTF8_BINARY
-
[SPARK-47207] [SC-157845][CORE] Ondersteuning
spark.driver.timeout
enDriverTimeoutPlugin
- [SPARK-47370] [SC-158956][Doc] Migratiedocument toevoegen: TimestampNTZ-type-inferentie voor Parquet-bestanden
- [SPARK-47309] [SC-158827][SQL][XML] schema inferentie-eenheidstests toevoegen
-
[SPARK-47295] [SC-158850][SQL] ICU StringSearch toegevoegd voor de functies
startsWith
enendsWith
-
[SPARK-47343] [SC-158851][SQL] NPE herstellen wanneer
sqlString
variabele waarde null-tekenreeks is in uitvoeren onmiddellijk -
[SPARK-46293] [SC-150117][CONNECT][PYTHON] Gebruik
protobuf
transitieve afhankelijkheid -
[SPARK-46795] [SC-154143][SQL] Vervang
UnsupportedOperationException
doorSparkUnsupportedOperationException
insql/core
- [SPARK-46087] [SC-149023][PYTHON] Sync PySpark-afhankelijkheden in docs en ontwikkelvereisten
- [SPARK-47169] [SC-158848][SQL] Bucketing uitschakelen bij gesorteerde gegevensverzamelingen columns
- [SPARK-42332] [SC-153996][SQL] Wijzigen van de vereiste voor een SparkException in ComplexTypeMergingExpression
- [SPARK-45827] [SC-158498][SQL] Gegevenstypecontroles verplaatsen naar CreatableRelationProvider
- [SPARK-47341] [SC-158825][Connect] Opdrachten vervangen door relaties in een paar tests in SparkConnectClientSuite
- [SPARK-43255] [SC-158026][SQL] Vervang de foutklasse _LEGACY_ERROR_TEMP_2020 door een interne fout
- [SPARK-47248] [SC-158494][SQL][COLLATIE] Verbeterde ondersteuning voor tekenreeksfuncties: bevat
-
[SPARK-47334] [SC-158716][SQL] Laat
withColumnRenamed
de implementatie vanwithColumnsRenamed
opnieuw gebruiken - [SPARK-46442] [SC-153168][SQL] DS V2 ondersteunt het doordrukken van PERCENTILE_CONT en PERCENTILE_DISC
- [SPARK-47313] [SC-158747][SQL] scala.MatchError-verwerking toegevoegd in QueryExecution.toInternalError
- [SPARK-45827] [SC-158732][SQL] Variant singletontype voor Java toevoegen
- [SPARK-47337] [SC-158743][SQL][DOCKER] Db2 Docker-installatiekopieën upgraden naar versie 11.5.8.0
- [SPARK-47302] [SC-158609][SQL] Trefwoord als collatie gebruiken identifier
-
[SPARK-46817] [SC-154196][CORE]
spark-daemon.sh
gebruik herstellen doordecommission
opdracht toe te voegen -
[SPARK-46739] [SC-153553][SQL] De foutklasse toevoegen
UNSUPPORTED_CALL
-
[SPARK-47102] [SC-158253][SQL] Voeg de
COLLATION_ENABLED
configuratievlag toe - [SPARK-46774] [SC-153925][SQL][AVRO] Gebruik mapreduce.output.fileoutputformat.compress in plaats van afgeschafte mapred.output.compress in Avro-schrijftaken
- [SPARK-45245] [SC-146961][PYTHON][CONNECT] PythonWorkerFactory: Time-out als de worker geen verbinding maakt.
- [SPARK-46835] [SC-158355][SQL][Sorteringen] Join ondersteuning voor niet-binaire sorteringen
- [SPARK-47131] [SC-158154][SQL][COLLATION] Stringfunctieondersteuning: bevat, begint met, eindigt met
- [SPARK-46077] [SC-157839][SQL] Overweeg het type dat is gegenereerd door TimestampNTZConverter in JdbcDialect.compileValue.
- [SPARK-47311] [SC-158465][SQL][PYTHON] Python-uitzonderingen onderdrukken where PySpark zich niet in het Python-pad bevindt
- [SPARK-47319] [SC-158599][SQL] De berekening van missingInput verbeteren
- [SPARK-47316] [SC-158606][SQL] Fix TimestampNTZ in Postgres-array
- [SPARK-47268] [SC-158158][SQL][Collations] Ondersteuning voor repartitioneren met collations
- [SPARK-47191] [SC-157831][SQL] Vermijd onnodig opzoeken van relaties bij het ontcachen van table/view
- [SPARK-47168] [SC-158257][SQL] Schakel parquet-filter pushdown uit bij het werken met niet-standaard gecolleerde tekenreeksen
-
[SPARK-47236] [SC-158015][CORE]
deleteRecursivelyUsingJavaIO
herstellen om niet-bestaande bestandsinvoer over te slaan - [SPARK-47238] [SC-158466][SQL] Verminder het geheugengebruik van uitvoerders door gegenereerde code in WSCG een broadcastvariabele te maken
- [SPARK-47249] [SC-158133][CONNECT] Opgeloste fout where alle verbindingsuitvoeringen worden beschouwd als verlaten, ongeacht de werkelijke status
- [SPARK-47202] [SC-157828][PYTHON] Typfouten met tzinfo corrigeren
- [SPARK-46834] [SC-158139][SQL][Sorteringen] Ondersteuning voor aggregaties
- [SPARK-47277] [SC-158351][3.5] PySpark util-functie assertDataFrameEqual mag streaming DF niet ondersteunen
- [SPARK-47155] [SC-158473][PYTHON] Foutklasseprobleem oplossen
- [SPARK-47245] [SC-158163][SQL] Foutcode voor INVALID_PARTITION_COLUMN_DATA_TYPE verbeteren
-
[SPARK-39771] [SC-158425][CORE] Voeg een waarschuwing bericht toe in
Dependency
wanneer een te groot aantal shuffle-blokken moet worden gemaakt. - [SPARK-47277] [SC-158329] PySpark util function assertDataFrameEqual mag geen ondersteuning bieden voor streaming DF
- [SPARK-47293] [SC-158356][CORE] BatchSchema bouwen met sparkSchema in plaats van één voor één toe te voegen
- [SPARK-46732] [SC-153517][CONNECT]Subquery/Broadcast-thread werken met het artefactbeheer van Connect
- [SPARK-44746] [SC-158332][PYTHON] Voeg meer Python UDTF-documentatie toe voor functies die invoer accepteren tables
- [SPARK-47120] [SC-157517][SQL] Het pushen van de gegevensfilter met null-vergelijking uit een deelquery leidt tot een NPE in Parquet-filter
-
[SPARK-47251] [SC-158291][PYTHON] Ongeldige typen blokkeren uit het argument
args
voorsql
opdracht -
[SPARK-47251] Teruggaan naar “[SC-158121][PYTHON] Ongeldige typen blokkeren uit het argument
args
voorsql
opdracht” - [SPARK-47015] [SC-157900][SQL] Partitionering uitschakelen voor gegroepeerde columns
-
[SPARK-46846] [SC-154308][CORE]
WorkerResourceInfo
Serializable
expliciet uitbreiden - [SPARK-46641] [SC-156314][SS] Drempelwaarde voor maxBytesPerTrigger toevoegen
-
[SPARK-47244] [SC-158122][CONNECT]
SparkConnectPlanner
interne functies privé maken -
[SPARK-47266] [SC-158146][CONNECT]
ProtoUtils.abbreviate
hetzelfde type retourneren als de invoer - [SPARK-46961] [SC-158183][SS] ProcessorContext gebruiken om handle op te slaan en op te halen
- [SPARK-46862] [SC-154548][SQL] CSV-column verwijderen uitschakelen in de modus met meerdere regels
-
[SPARK-46950] [SC-155803][CORE][SQL]
not available codec
foutklasse uitlijnen -
[SPARK-46368] [SC-153236][CORE] Ondersteuning
readyz
in REST Submission API - [SPARK-46806] [SC-154108][PYTHON] Het foutbericht voor Spark verbeteren.table wanneer het argumenttype onjuist is
- [SPARK-47211] [SC-158008][CONNECT][PYTHON] Genegeerde PySpark Connect-tekenreekssortering opgelost
-
[SPARK-46552] [SC-151366][SQL] Vervang
UnsupportedOperationException
doorSparkUnsupportedOperationException
incatalyst
- [SPARK-47147] [SC-157842][PYTHON][SQL] Fout met pySpark-gesorteerde tekenreeksconversie oplossen
- [SPARK-47144] [SC-157826][CONNECT][SQL][PYTHON] Spark Connect-sorteringsfout oplossen door collateId protobuf-veld toe te voegen
- [SPARK-46575] [SC-153200][SQL][HIVE] HiveThriftServer2.startWithContext DevelopApi opnieuw probeervol maken en flakiness van ThriftServerWithSparkContextInHttpSuite herstellen
- [SPARK-46696] [SC-153832][CORE] In ResourceProfileManager moeten functieaanroepen plaatsvinden na variabeledeclaraties
- [SPARK-47214] [SC-157862][Python] Maak UDTF-API voor analysemethode om constante NULL-argumenten en andere typen argumenten te onderscheiden
- [SPARK-46766] [SC-153909][SQL][AVRO] ZSTD-buffergroepondersteuning voor AVRO-gegevensbron
- [SPARK-47192] [SC-157819] Enkele _LEGACY_ERROR_TEMP_0035-fouten converteren
- [SPARK-46928] [SC-157341][SS] Ondersteuning voor ListState toevoegen in Willekeurige status-API v2.
-
[SPARK-46881] [SC-154612][CORE] Ondersteuning
spark.deploy.workerSelectionPolicy
-
[SPARK-46800] [SC-154107][CORE] Ondersteuning
spark.deploy.spreadOutDrivers
- [SPARK-45484] [SC-146014][SQL] Los de fout op waarbij een onjuiste parquet-compressiecodec lz4raw wordt gebruikt.
- [SPARK-46791] [SC-154018][SQL] Ondersteuning voor Java-Set in JavaTypeInference
-
[SPARK-46332] [SC-150224][SQL] Migreer
CatalogNotFoundException
naar de foutklasseCATALOG_NOT_FOUND
- [SPARK-47164] [SC-157616][SQL] Laat de standaardwaarde van een breder type zich in v2 hetzelfde gedragen als in v1 door het tot een klein letterlijke waarde te versmallen.
-
[SPARK-46664] [SC-153181][CORE] Verbeter
Master
om snel te herstellen in het geval van zero workers en apps - [SPARK-46759] [SC-153839][SQL][AVRO] Codec xz en zstandard ondersteunen compressieniveau voor avro-bestanden
Ondersteuning voor Databricks ODBC-/JDBC-stuurprogramma's
Databricks ondersteunt ODBC-/JDBC-stuurprogramma's die in de afgelopen 2 jaar zijn uitgebracht. Download de onlangs uitgebrachte stuurprogramma's en upgrade (ODBC-downloaden, JDBC-downloaden).
Zie onderhoudsupdates voor Databricks Runtime 15.2.
Systeemomgeving
- besturingssysteem: Ubuntu 22.04.4 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python-: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Geïnstalleerde Python-bibliotheken
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
zwart | 23.3.0 | richtingaanwijzer | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klikken | 8.0.4 | cloudpickle | 2.2.1 | communicatie | 0.1.2 |
contourpy | 1.0.5 | cryptografie | 41.0.3 | wielrijder | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorateur | 5.1.1 | distlib | 0.3.8 |
invoerpunten | 0.4 | Uitvoeren | 0.8.3 | facettenoverzicht | 1.1.1 |
bestandsvergrendeling | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | Jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | sleutelhanger | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | verpakking | 23.2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Kussen | 9.4.0 | pit | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-hulpmiddel | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
Verzoeken | 2.31.0 | RSA | 4.9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | Zes | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
stapelgegevens | 0.2.0 | statsmodels | 0.14.0 | vasthoudendheid | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | upgrades zonder toezicht | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wiel | 0.38.4 | zipp | 3.11.0 |
geïnstalleerde R-bibliotheken
De R-bibliotheken worden geïnstalleerd vanuit de Posit Package Manager CRAN-snapshot.
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
pijl | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
terugporteringen | 1.4.1 | basis | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | beetje | 4.0.5 | 64-bits | 4.0.5 |
bitops | 1.0-7 | Blob | 1.2.4 | laars | 1.3-28 |
brouwsel | 1.0-10 | Brio | 1.1.4 | bezem | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | beller | 3.7.3 |
Caret | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
klas | 7.3-22 | CLI | 3.6.2 | clipr | 0.8.0 |
klok | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compiler | 4.3.2 |
configuratie | 0.3.2 | Tegenstrijdig | 1.2.0 | cpp11 | 0.4.7 |
Crayon | 1.5.2 | credentials | 2.0.1 | krul | 5.2.0 |
gegevens.table | 1.15.0 | gegevenssets | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | Beschrijving | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | samenvatting | 0.6.34 |
naar beneden gerichte verlichting | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | beletselteken | 0.3.2 | evalueren | 0.23 |
fansi | 1.0.6 | kleuren | 2.1.1 | snelkaart | 1.1.1 |
fontawesome | 0.5.2 | voor katten | 1.0.0 | foreach | 1.5.2 |
buitenlands | 0.8-85 | smeden | 0.2.0 | Fs | 1.6.3 |
toekomst | 1.33.1 | future.apply | 1.11.1 | gorgelen | 1.5.2 |
Generieken | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globale variabelen | 0.16.2 | lijm | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafische elementen | 4.3.2 | grDevices | 4.3.2 | raster | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
gtable | 0.3.4 | veiligheidshelm | 1.3.1 | haven | 2.5.4 |
hoger | 0.10 | HMS | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | Ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1.45 | Labeling | 0.4.3 |
later | 1.3.2 | latwerk | 0.21-8 | lava | 1.7.3 |
levenscyclus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | Markdown | 1.12 | MASSA | 7.3-60 |
Matrix | 1.5-4.1 | memoriseren | 2.0.1 | Methoden | 4.3.2 |
mgcv | 1.8-42 | Mime | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | evenwijdig | 4.3.2 |
parallel | 1.36.0 | pilaar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | prijzen | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | vooruitgang | 1.2.3 |
progressr | 0.14.0 | Beloften | 1.2.1 | Proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
reactR | 0.5.0 | lezer | 2.1.5 | readxl | 1.4.3 |
Recepten | 1.0.9 | Rematch | 2.0.0 | opnieuw overeenkomen2 | 2.1.2 |
Afstandsbedieningen | 2.4.2.1 | reproduceerbaar voorbeeld | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.8 |
weegschaal | 1.3.0 | selectr | 0.4-2 | sessie-informatie | 1.2.2 |
vorm | 1.4.6 | glanzend | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | ruimtelijk | 7.3-15 | Splines | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistieken | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
overleven | 3.5-5 | Branie | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
tekstvormgeving | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | tijdwijziging | 0.3.0 |
tijdDatum | 4032.109 | tinytex | 0.49 | gereedschap | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | gebruik deze | 2.2.2 |
utf8 | 1.2.4 | hulpprogramma's | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
Vroom | 1.6.5 | Waldo | 0.5.2 | snor | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | ritssluiting | 2.3.1 |
Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.12-clusterversie)
Groeps-id | Artefact-ID | Versie |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | stroom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-gearceerd | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasgenoot | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotaties | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | cafeïne | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-inheemsen |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-oorspronkelijke inwoners |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-inheemsen |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | foutgevoelige_annotaties | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guave | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | Profiler | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuratie | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-bestandsupload | commons-bestandsupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | metrische aantekening | 4.2.19 |
io.dropwizard.metrics | metrische gegevenskern | 4.2.19 |
io.dropwizard.metrics | metrics-Graphite | 4.2.19 |
io.dropwizard.metrics | metrische statuscontroles | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-sokken | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | verzamelaar | 0.12.0 |
jakarta.annotatie | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activering | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transactie-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pekelen | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-CSV | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | tekenreeksjabloon | 3.2.1 |
org.apache.ant | mier | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | pijlnotatie | 15.0.0 |
org.apache.arrow | pijl-geheugen-kern | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | pijlvector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-cliënt | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recepten | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common (if no translation is needed for understanding, the original can be kept as is) | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | klimop | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | publiek-aantekeningen | 0.13.0 |
org.apache.zookeeper | dierentuinverzorger | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-vervolg | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security (beveiligingsmodule van Jetty) | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance opnieuw verpakt | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Aantekeningen | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | vulplaatjes | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatibel | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | katten-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |