Databricks Runtime 15.2 (EoS)
Notitie
Ondersteuning voor deze Databricks Runtime-versie is beëindigd. Zie Geschiedenis van einde van ondersteuningvoor de einddatum van de ondersteuning. Zie voor alle ondersteunde Databricks Runtime-versies de releaseopmerkingen over Databricks Runtime-versies en compatibiliteit.
De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 15.2, mogelijk gemaakt door Apache Spark 3.5.0.
Databricks heeft deze versie uitgebracht in mei 2024.
Tip
Zie de releaseopmerkingen voor Databricks Runtime-versies die het einde van hun ondersteuning (EoS) hebben bereikt, in End-of-support Databricks Runtime releaseopmerkingen. De EoS Databricks Runtime-versies zijn buiten gebruik gesteld en worden mogelijk niet bijgewerkt.
Gedragswijzigingen
Vacuüm schoont COPY INTO metagegevensbestanden op
Door VACUUM uit te voeren op een tabel die is geschreven met COPY INTO
, worden nu niet-gerefereerde metadata opgeschoond die zijn gekoppeld aan het bijhouden van geïngestieerde bestanden. Er is geen invloed op de operationele semantiek van COPY INTO
.
Lakehouse Federation is nu algemeen beschikbaar (GA)
In Databricks Runtime 15.2 en hoger zijn Lakehouse Federation connectors voor de volgende databasetypen algemeen beschikbaar:
- MySQL
- PostgreSQL
- Amazon Redshift
- Sneeuwvlok
- Microsoft SQL Server
- Azure Synapse (SQL Data Warehouse)
- Databricks
In deze release worden ook de volgende verbeteringen geïntroduceerd:
Ondersteuning voor eenmalige aanmelding (SSO)-verificatie in de Snowflake- en Microsoft SQL Server-connectors.
Ondersteuning voor Azure Private Link voor de SQL Server-connector vanuit serverloze rekenomgevingen. Zie stap 3: regels voor privé-eindpunten maken.
Ondersteuning voor extra pushdowns (tekenreeks, wiskunde en diverse functies).
Verbetering in het slagingspercentage voor pushdown bij verschillende queryvormen.
Aanvullende mogelijkheden voor foutopsporing met pushdown.
- In de uitvoer van
EXPLAIN FORMATTED
wordt de tekst weergegeven van de query die naar beneden is geduwd. - In de gebruikersinterface van het queryprofiel worden de doorgegeven querytekst, federatieve knooppunt-id's en uitvoeringstijden van JDBC-query's (in gedetailleerde modus) weergegeven. Zie Door het systeem gegenereerde federatieve query's weergeven.
- In de uitvoer van
BY POSITION
voor kolomtoewijzing met behulp van COPY INTO
met csv-bestanden zonder koptekst
In Databricks Runtime 15.2 en hoger kunt u de BY POSITION
sleutelwoorden (of alternatieve syntaxis ( col_name [ , <col_name> ... ] )
) gebruiken met COPY INTO
voor CSV-bestanden zonder kop, om de toewijzing van bronkolommen naar doeltabelkolommen te vereenvoudigen. Zie Parameterwaarden.
Geheugenverbruik verminderen wanneer Spark-taken mislukken met een Resubmitted
-fout
In Databricks Runtime 15.2 en hoger is de retourwaarde van de Methode Spark TaskInfo.accumulables()
leeg wanneer taken mislukken met een Resubmitted
fout. Voorheen retourneerde de methode de waarden van een eerdere geslaagde taakpoging. Deze gedragswijziging is van invloed op de volgende consumenten:
- Spark-taken die gebruikmaken van de
EventLoggingListener
-klasse. - Aangepaste Spark-Listeners.
Als u het vorige gedrag wilt herstellen, stelt u spark.scheduler.dropTaskInfoAccumulablesOnTaskCompletion.enabled
in op false
.
Uitvoeringsplanversies voor adaptieve query's weergeven is uitgeschakeld
Om het geheugenverbruik te verminderen, worden de versies van het AQE-abonnement (Adaptive Query Execution) nu standaard uitgeschakeld in de Spark-gebruikersinterface. Als u weergave van AQE-abonnementsversies in de Spark-gebruikersinterface wilt inschakelen, stelt u de spark.databricks.sql.aqe.showPlanChangesInUI.enabled
in op true
.
Limiet voor bewaarde query's wordt verlaagd om het geheugengebruik van de Spark-gebruikersinterface te verminderen
In Databricks Runtime 15.2 en hoger, om het geheugenverbruik door de Spark UI in Azure Databricks te verminderen, wordt de limiet voor het aantal query's dat zichtbaar is in de gebruikersinterface verlaagd van 1000 naar 100. Als u de limiet wilt wijzigen, stelt u een nieuwe waarde in met behulp van de spark.sql.ui.retainedExecutions
Spark-configuratie.
DESCRIBE HISTORY
toont nu clusterkolommen voor tabellen die gebruikmaken van liquide clustering
Wanneer u een DESCRIBE HISTORY
-query uitvoert, wordt in de kolom operationParameters
standaard een clusterBy
veld weergegeven voor CREATE OR REPLACE
- en OPTIMIZE
-bewerkingen. Voor een Delta-tabel die gebruikmaakt van liquide clustering, wordt het clusterBy
veld gevuld met de clusterkolommen van de tabel. Als de tabel geen gebruikmaakt van liquide clustering, is het veld leeg.
Nieuwe functies en verbeteringen
Ondersteuning voor primaire en refererende sleutels is algemeen beschikbaar.
Ondersteuning voor primaire en vreemde sleutels in Databricks Runtime is nu algemeen beschikbaar. De GA-release bevat de volgende wijzigingen in de bevoegdheden die zijn vereist voor het gebruik van primaire en vreemde sleutels:
- Als u een vreemde sleutel wilt definiëren, moet u de
SELECT
bevoegdheid voor de tabel hebben met de primaire sleutel waarnaar de vreemde sleutel verwijst. U hoeft niet de eigenaar van de tabel te zijn met de primaire sleutel, die eerder vereist was. - Het verwijderen van een primaire sleutel met behulp van de
CASCADE
-clausule heeft geen bevoegdheden nodig voor de tabellen die foreign keys definiëren die verwijzen naar de primaire sleutel. Voorheen moest u eigenaar zijn van de verwijzende tabellen. - Voor het verwijderen van een tabel met beperkingen zijn nu dezelfde bevoegdheden vereist als het verwijderen van tabellen die geen beperkingen bevatten.
Zie CONSTRAINT clausule, ADD CONSTRAINT clausuleen DROP CONSTRAINT clausuleom te leren hoe u primaire en refererende sleutels kunt gebruiken met tabellen of weergaven.
Liquid clustering is GA
Ondersteuning voor liquide clustering is nu algemeen beschikbaar met Databricks Runtime 15.2 en hoger. Zie Liquid Clustering gebruiken voor Delta-tabellen.
Type widening is beschikbaar als openbare preview
U kunt nu typebreedheid inschakelen voor tabellen die worden ondersteund door Delta Lake. Tabellen waarvoor typebreiding is ingeschakeld, kunnen het type kolommen wijzigen in een breder gegevenstype zonder onderliggende gegevensbestanden opnieuw te schrijven. Zie type-uitbreiding.
Component voor schemaontwikkeling toegevoegd aan de syntaxis van SQL-samenvoeging
U kunt nu de WITH SCHEMA EVOLUTION
-component toevoegen aan een SQL-samenvoegingsinstructie om schemaontwikkeling voor de bewerking mogelijk te maken. Zie schema-evolutie syntaxis voor het samenvoegen van.
Aangepaste pySpark-gegevensbronnen zijn beschikbaar in openbare preview
Een PySpark DataSource kan worden gemaakt met behulp van de Python DataSource-API (PySpark), waarmee u kunt lezen uit aangepaste gegevensbronnen en schrijven naar aangepaste gegevenssinks in Apache Spark met behulp van Python. Zie aangepaste gegevensbronnen van PySpark
applyInPandas en mapInPandas nu beschikbaar op Unity Catalog-rekenproces met modus voor gedeelde toegang
Als onderdeel van een Databricks Runtime 14.3 LTS-onderhoudsrelease worden applyInPandas
en mapInPandas
UDF-typen nu ondersteund op de modus voor gedeelde toegang, waarop Databricks Runtime 14.3 en hoger wordt uitgevoerd.
Dbutils.widgets.getAll() gebruiken om alle widgets in een notebook op te halen
Gebruik dbutils.widgets.getAll()
en om alle waarden van widgets in een notebookop te halen. Dit is vooral handig wanneer u meerdere widgetswaarden doorgeeft aan een Spark SQL-query.
Ondersteuning voor vacuüminventaris
U kunt nu een inventaris opgeven van bestanden waarmee u rekening moet houden bij het uitvoeren van de opdracht VACUUM
in een Delta-tabel. Zie de OSS Delta-documenten.
Ondersteuning voor Zstandard-compressiefuncties
U kunt nu de functies zst_compress, zstd_decompressen try_zstd_decompress gebruiken om BINARY
gegevens te comprimeren en decomprimeren.
Bugfixes
Queryplannen in de SQL-gebruikersinterface worden nu correct weergegeven PhotonWriteStage
Wanneer ze in de SQL-gebruikersinterface worden weergegeven, tonen write
-opdrachten in queryplannen ten onrechte PhotonWriteStage
als operator. Met deze release wordt de gebruikersinterface bijgewerkt om PhotonWriteStage
als fase weer te geven. Dit is alleen een wijziging in de gebruikersinterface en heeft geen invloed op de wijze waarop query's worden uitgevoerd.
Ray wordt bijgewerkt om problemen met het starten van Ray-clusters op te lossen
Deze release bevat een patchversie van Ray waarmee een wijziging die fouten kan veroorzaken, wordt opgelost waardoor Ray-clusters niet kunnen beginnen met Databricks Runtime voor Machine Learning. Deze wijziging zorgt ervoor dat ray-functionaliteit identiek is aan versies van Databricks Runtime die eerder zijn dan 15.2.
Foutklasse gecorrigeerd voor DataFrame.sort()
- en DataFrame.sortWithinPartitions()
-functies
Deze release bevat een update voor de PySpark-DataFrame.sort()
- en DataFrame.sortWithinPartitions()
-functies om ervoor te zorgen dat de foutklasse ZERO_INDEX
wordt gegenereerd wanneer 0
wordt doorgegeven als het indexargument. Eerder werd de foutklasse INDEX_NOT_POSITIVE
gegeven.
ipywidgets wordt gedowngraded van 8.0.4 naar 7.7.2
Om fouten op te lossen die zijn geïntroduceerd door een upgrade van ipywidgets naar 8.0.4 in Databricks Runtime 15.0, wordt ipywidgets ge downgraded naar 7.7.2 in Databricks Runtime 15.2. Dit is dezelfde versie die is opgenomen in eerdere Databricks Runtime-versies.
Bibliotheekverbeteringen
- Bijgewerkte Python-bibliotheken:
- GitPython van 3.1.42 tot 3.1.43
- google-api-core van 2.17.1 tot 2.18.0
- google-auth van 2.28.1 tot 2.29.0
- google-cloud-storage van 2.15.0 tot 2.16.0
- googleapis-common-protos van 1.62.0 tot 1.63.0
- ipywidgets van 8.0.4 tot 7.7.2
- mlflow-skinny van 2.11.1 tot 2.11.3
- s3transfer van 0.10.0 naar 0.10.1
- sqlparse van 0.4.4 tot 0.5.0
- typing_extensions van 4.7.1 tot 4.10.0
- Bijgewerkte R-bibliotheken:
- Bijgewerkte Java-bibliotheken:
- com.amazonaws.aws-java-sdk-autoscaling van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudformation van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudfront van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudhsm van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudsearch van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudtrail van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatch van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cloudwatchmetrics van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-codedeploy van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cognitoidentity van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-cognitosync van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-config van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-core van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-datapipeline van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-directconnect van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-directory van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-dynamodb van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-ec2 van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-ecs van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-efs van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-elasticache van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-elasticbeanstalk van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-elasticloadbalancing van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-elastictranscoder van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-emr van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-glacier van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-glue van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-iam van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-importexport van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-kinesis van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-kms van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-lambda van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-logs van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-machinelearning van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-opsworks van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-rds van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-redshift van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-route53 van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-s3 van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-ses van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-simpledb van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-simpleworkflow van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-sns van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-sqs van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-ssm van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-storagegateway van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-sts van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-support van 1.12.390 tot 1.12.610
- com.amazonaws.aws-java-sdk-workspaces van 1.12.390 tot 1.12.610
- com.amazonaws.jmespath-java van 1.12.390 tot 1.12.610
Apache Spark
Databricks Runtime 15.2 bevat Apache Spark 3.5.0. Deze release bevat alle Spark-oplossingen en -verbeteringen die zijn opgenomen in Databricks Runtime 15.1 (EoS), evenals de volgende aanvullende foutoplossingen en verbeteringen in Spark:
- [SPARK-47941] [SC-163568] [SS] [Verbinding] ForeachBatch-worker-initialisatiefouten doorgeven aan gebruikers voor PySpark
- [SPARK-47412] [SC-163455][SQL] Ondersteuning voor sortering toevoegen voor LPad/RPad.
- [SPARK-47907] [SC-163408][SQL] Plaats 'bang' onder een configuratie
-
[SPARK-46820] [SC-157093][PYTHON] Regressie van foutbericht herstellen door
new_msg
- [SPARK-47602] [SPARK-47577][SPARK-47598][SPARK-47577]Core/MLLib/Resource managers: gestructureerde migratie van logboekregistratie
- [SPARK-47890] [SC-163324][CONNECT][PYTHON] Variantfuncties toevoegen aan Scala en Python.
-
[SPARK-47894] [SC-163086][CORE][WEBUI] Pagina
Environment
toevoegen aan Master UI - [SPARK-47805] [SC-163459][SS] TTL implementeren voor MapState
- [SPARK-47900] [SC-163326] Controle voor impliciete sortering (UTF8_BINARY) corrigeren
- [SPARK-47902] [SC-163316][SQL]Compute Current Time* expressies vouwbaar maken
- [SPARK-47845] [SC-163315][SQL][PYTHON][CONNECT] Ondersteuning kolomtype in splitsfunctie voor scala en Python
- [SPARK-47754] [SC-162144][SQL] Postgres: Ondersteuning voor het lezen van multidimensionale matrices
- [SPARK-47416] [SC-163001][SQL] Nieuwe functies toevoegen aan CollationBenchmark #90339
- [SPARK-47839] [SC-163075][SQL] Aggregatiefout opgelost in RewriteWithExpression
- [SPARK-47821] [SC-162967][SQL] Is_variant_null-expressie implementeren
-
[SPARK-47883] [SC-163184][SQL]
CollectTailExec.doExecute
lui maken met RowQueue - [SPARK-47390] [SC-163306][SQL] PostgresDialect onderscheidt TIMESTAMP van TIMESTAMP_TZ
-
[SPARK-47924] [SC-163282][CORE] Een DEBUG-log toevoegen aan
DiskStore.moveFileToBlock
- [SPARK-47897] [SC-163183][SQL][3.5] Regressie van ExpressionSet-prestaties herstellen in scala 2.12
- [SPARK-47565] [SC-161786][PYTHON] PySpark-werkpool bestendigheid tegen crashes
- [SPARK-47885] [SC-162989][PYTHON][CONNECT] Pyspark.resource compatibel maken met pyspark-connect
-
[SPARK-47887] [SC-163122][CONNECT] Ongebruikte import
spark/connect/common.proto
verwijderen uitspark/connect/relations.proto
- [SPARK-47751] [SC-161991][PYTHON][CONNECT] Maak pyspark.worker_utils compatibel met pyspark-connect
- [SPARK-47691] [SC-161760][SQL] Postgres: Ondersteuning voor multidimensionale matrix aan de schrijfzijde
- [SPARK-47617] [SC-162513][SQL] Testinfrastructuur voor sorteringen toevoegen TPC-DS
- [SPARK-47356] [SC-162858][SQL] Ondersteuning toevoegen voor ConcatWs & Elt (alle sorteringen)
-
[SPARK-47543] [SC-161234][CONNECT][PYTHON]
dict
alsMapType
van Pandas DataFrame afleiden om het maken van een DataFrame mogelijk te maken. - [SPARK-47863] [SC-162974][SQL] Repareer startsWith & endsWith collatie-bewuste implementatie voor ICU
- [SPARK-47867] [SC-162966][SQL] Ondersteuningsvariant in JSON-scan.
- [SPARK-47366] [SC-162475][SQL][PYTHON] VariantVal voor PySpark toevoegen
- [SPARK-47803] [SC-162726][SQL] Ondersteuning voor cast naar variant.
- [SPARK-47769] [SC-162841][SQL] Schema_of_variant_agg expressie toevoegen.
- [SPARK-47420] [SC-162842][SQL] Testuitvoer repareren
- [SPARK-47430] [SC-161178][SQL] Ondersteuning GROUP BY voor MapType
- [SPARK-47357] [SC-162751][SQL] Ondersteuning toevoegen voor Upper, Lower, InitCap (alle sorteringen)
- [SPARK-47788] [SC-162729][SS] Zorg voor dezelfde hashpartitionering voor streaming stateful ops
- [SPARK-47776] [SC-162291][SS] Binaire ongelijkheidsvergelijking is niet toegestaan in het sleutelschema van een toestandsafhankelijke operator.
- [SPARK-47673] [SC-162824][SS] TTL implementeren voor ListState
- [SPARK-47818] [SC-162845][CONNECT] Plancache introduceren in SparkConnectPlanner om de prestaties van het analyseren van aanvragen te verbeteren
- [SPARK-47694] [SC-162783][CONNECT] Maximale berichtgrootte aan de clientzijde configureren
- [SPARK-47274] Revert “[SC-162479][PYTHON][SQL] Meer nuttige informatie bieden..."
- [SPARK-47616] [SC-161193][SQL] Gebruikersdocument toevoegen voor het mappen van Spark SQL-gegevenstypen vanuit MySQL
- [SPARK-47862] [SC-162837][PYTHON][CONNECT]Los het genereren van proto-bestanden op
- [SPARK-47849] [SC-162724][PYTHON][CONNECT] Releasescript wijzigen om pyspark-connect vrij te geven
- [SPARK-47410] [SC-162518][SQL] UTF8String en CollationFactory herstructureren
- [SPARK-47807] [SC-162505][PYTHON][ML] Pyspark.ml compatibel maken met pyspark-connect
- [SPARK-47707] [SC-161768][SQL] Speciale verwerking van JSON-type voor MySQL Connector/J 5.x
- [SPARK-47765] Maak "[SC-162636][SQL] SET SORTERING toevoegen aan pars..." ongedaan
- [SPARK-47081] [SC-162151][CONNECT][FOLLOW] Verbeteren van de bruikbaarheid van de Voortgangshandler
- [SPARK-47289] [SC-161877][SQL] Uitbreidingen toestaan om uitgebreide informatie in het uitlegplan vast te leggen
- [SPARK-47274] [SC-162479][PYTHON][SQL] Geef nuttigere context voor PySpark DataFrame-API-fouten
- [SPARK-47765] [SC-162636][SQL] SET COLLATIE toevoegen aan parserregels
-
[SPARK-47828] [SC-162722][CONNECT][PYTHON]
DataFrameWriterV2.overwrite
mislukt met een ongeldig abonnement - [SPARK-47812] [SC-162696][CONNECT] Ondersteuning voor serialisatie van SparkSession voor ForEachBatch-werker
- [SPARK-47253] [SC-162698][CORE] LiveEventBus stoppen zonder dat de gebeurteniswachtrij volledig leeg is
- [SPARK-47827] [SC-162625][PYTHON] Ontbrekende waarschuwingen voor afgeschafte functies
- [SPARK-47733] [SC-162628][SS] Aangepaste metrische gegevens toevoegen voor de transformWithState-operator die deel uitmaakt van de voortgang van de query
- [SPARK-47784] [SC-162623][SS] TTLMode en TimeoutMode samenvoegen in één TimeMode.
- [SPARK-47775] [SC-162319][SQL] Ondersteuning voor resterende scalaire typen in de variantspecificatie.
- [SPARK-47736] [SC-162503][SQL] Ondersteuning voor AbstractArrayType toevoegen
- [SPARK-47081] [SC-161758][CONNECT] Ondersteuning voor uitvoering en voortgang van query's
- [SPARK-47682] [SC-162138][SQL] Ondersteuningscast van variant.
- [SPARK-47802] [SC-162478][SQL] Keer () van betekenis struct() terug naar betekenis *
- [SPARK-47680] [SC-162318][SQL] Variant_explode-expressie toevoegen.
-
[SPARK-47809] [SC-162511][SQL]
checkExceptionInExpression
moet de fout controleren voor elke codegenmodus -
[SPARK-41811] [SC-162470][PYTHON][CONNECT] Implementeer
SQLStringFormatter
metWithRelations
- [SPARK-47693] [SC-162326][SQL] Optimalisatie toevoegen voor vergelijking van kleine letters van UTF8String die wordt gebruikt in UTF8_BINARY_LCASE sortering
- [SPARK-47541] [SC-162006][SQL] Geordende tekenreeksen in complexe typen die bewerkingen ondersteunen zoals omkeren, array_join, concat, map
- [SPARK-46812] [SC-161535][CONNECT][PYTHON] MapInPandas / mapInArrow-ondersteuning voor ResourceProfile maken
- [SPARK-47727] [SC-161982][PYTHON] SparkConf naar het hoofdniveau maken zowel voor SparkSession als voor SparkContext
- [SPARK-47406] [SC-159376][SQL] TIJDSTEMPEL en DATUM/TIJD verwerken in MYSQLDialect
- [SPARK-47081] Herstel van “[SC-161758][CONNECT] Ondersteuning voor Query-uitvoeri...
- [SPARK-47681] [SC-162043][SQL] Schema_of_variant-expressie toevoegen.
- [SPARK-47783] [SC-162222] Voeg enkele ontbrekende SQLSTATEs toe en maak de YY000 schoon om te gebruiken…
- [SPARK-47634] [SC-161558][SQL] Verouderde ondersteuning toevoegen voor het uitschakelen van normalisatie van kaartsleutels
- [SPARK-47746] [SC-162022] Op ordinaal gebaseerde bereikcodering implementeren in de RocksDBStateEncoder
- [SPARK-47285] [SC-158340][SQL] AdaptiveSparkPlanExec moet altijd de context.session gebruiken
- [SPARK-47643] [SC-161534][SS][PYTHON] Pyspark-test toevoegen voor python-streamingbron
- [SPARK-47582] [SC-161943][SQL] Catalyst logInfo migreren met variabelen naar gestructureerd framework voor logboekregistratie
- [SPARK-47558] [SC-162007][SS] Status-TTL-ondersteuning voor ValueState
- [SPARK-47358] [SC-160912][SQL][SORTERING] Ondersteuning voor herhalingsexpressies verbeteren om het juiste gegevenstype te retourneren
- [SPARK-47504] [SC-162044][SQL] Los AbstractDataType simpleStrings op voor StringTypeCollated
- [SPARK-47719] '[SC-161909][SQL] Wijzigen spark.sql.legacy.t...
- [SPARK-47657] [SC-162010][SQL] Ondersteuning voor sorteringsfilters per bestandsbron implementeren
- [SPARK-47081] [SC-161758][CONNECT] Ondersteuning voor uitvoering en voortgang van query's
- [SPARK-47744] [SC-161999] Ondersteuning toevoegen voor bytes met een negatieve waarde in bereikcoderingsprogramma
- [SPARK-47713] [SC-162009][SQL][CONNECT] Een self-joinfout oplossen
- [SPARK-47310] [SC-161930][SS] Micro-benchmark toevoegen voor samenvoegbewerkingen voor meerdere waarden in het waardegedeelte van het statusarchief
- [SPARK-47700] [SC-161774][SQL] Opmaak van foutberichten met treeNode oplossen
- [SPARK-47752] [SC-161993][PS][CONNECT] Pyspark.pandas compatibel maken met pyspark-connect
- [SPARK-47575] [SC-161402][SPARK-47576][SPARK-47654] LogWarning/logInfo-API implementeren in gestructureerd logboekregistratieframework
- [SPARK-47107] [SC-161201][SS][PYTHON] Partitielezer implementeren voor python-streaminggegevensbron
- [SPARK-47553] [SC-161772][SS] Java-ondersteuning voor transformWithState-operator-API's toevoegen
- [SPARK-47719] [SC-161909][SQL] Wijzig de standaardinstelling spark.sql.legacy.timeParserPolicy in CORRECTED
- [SPARK-47655] [SC-161761][SS] Timer integreren met initiële statusafhandeling voor status-v2
- [SPARK-47665] [SC-161550][SQL] Gebruik SMALLINT om ShortType naar MYSQL te schrijven
- [SPARK-47210] [SC-161777][SQL] Toevoeging van impliciete cast-conversie zonder onbepaalde ondersteuning
- [SPARK-47653] [SC-161767][SS] Ondersteuning toevoegen voor negatieve numerieke typen en het coderingsprogramma voor bereikscansleutels
- [SPARK-46743] [SC-160777][SQL] Telfout na constante optimalisatie
- [SPARK-47525] [SC-154568][SQL] Ondersteuning voor het samenvoegen van subquerycorrelaties met kaartattributen.
- [SPARK-46366] [SC-151277][SQL] Gebruik de WITH-expressie in BETWEEN om dubbele expressies te voorkomen
- [SPARK-47563] [SC-161183][SQL] Kaartnormalisatie toevoegen bij het maken
- [SPARK-42040] [SC-161171][SQL] SPJ: Een nieuwe API voor V2-invoerpartitie introduceren om partitiestatistieken te rapporteren
-
[SPARK-47679] [SC-161549][SQL] Gebruik rechtstreeks namen van
HiveConf.getConfVars
of Hive-conf -
[SPARK-47685] [SC-161566][SQL] Herstel de ondersteuning voor
Stream
type inDataset#groupBy
- [SPARK-47646] [SC-161352][SQL] Geef NULL terug voor ongeldige invoer in try_to_number.
- [SPARK-47366] [SC-161324][PYTHON] Pyspark en dataframe toevoegen parse_json aliassen
-
[SPARK-47491] [SC-161176][CORE] Voeg eerst
slf4j-api
JAR toe aan het classpad voordat de anderen vanjars
map - [SPARK-47270] [SC-158741][SQL] Dataset.isEmpty projects CommandResults lokaal
-
[SPARK-47364] [SC-158927][CORE]
PluginEndpoint
moet waarschuwen wanneer plugins reageren op een eenrichtingsbericht - [SPARK-47280] [SC-158350][SQL] Tijdzonebeperking verwijderen voor ORACLE TIMESTAMP WITH TIMEZONE
- [SPARK-47551] [SC-161542][SQL] Variant_get expressie toevoegen.
-
[SPARK-47559] [SC-161255][SQL] Codegen-ondersteuning voor variant
parse_json
- [SPARK-47572] [SC-161351][SQL] Zorg ervoor dat Window partitionSpec orderbaar is.
- [SPARK-47546] [SC-161241][SQL] Validatie verbeteren bij het lezen van variant van Parquet
-
[SPARK-47543] [SC-161234][CONNECT][PYTHON]
dict
alsMapType
van Pandas DataFrame afleiden om het maken van een DataFrame mogelijk te maken. - [SPARK-47485] [SC-161194][SQL][PYTHON][CONNECT] Kolom maken met sorteringen in dataframe-API
-
[SPARK-47641] [SC-161376][SQL] De prestaties voor
UnaryMinus
enAbs
verbeteren -
[SPARK-47631] [SC-161325][SQL] Ongebruikte
SQLConf.parquetOutputCommitterClass
methode verwijderen -
[SPARK-47674] [SC-161504][CORE] Standaard
spark.metrics.appStatusSource.enabled
inschakelen - [SPARK-47273] [SC-161162][SS][PYTHON] python-interface voor gegevensstroomschrijver implementeren.
- [SPARK-47637] [SC-161408][SQL] Gebruik errorCapturingIdentifier op meer plaatsen
- [SPARK-47497] Terugdraaien “Terugdraaien “[SC-160724][SQL] To_csv ondersteuning bieden voor de uitvoer van array/struct/map/binary als leesbare tekenreeksen””
- [SPARK-47492] [SC-161316][SQL] Ruimteregels in lexer verruimen
- [SPARK-47664] [SC-161475][PYTHON][CONNECT] Valideer de kolomnaam met een schema in de cache
- [SPARK-47638] [SC-161339][PS][CONNECT] Kolomnaamvalidatie overslaan in PS
- [SPARK-47363] [SC-161247][SS] Initiële status zonder implementatie van statuslezer voor State API v2.
- [SPARK-47447] [SC-160448][SQL] Het lezen van Parquet TimestampLTZ als TimestampNTZ toestaan
-
[SPARK-47497] '[SC-160724][SQL]
to_csv
support intrekken voor de uitvoer vanarray/struct/map/binary
als aantrekkelijke tekenreeksen' -
[SPARK-47434] [SC-160122][WEBUI] Koppeling
statistics
inStreamingQueryPage
herstellen - [SPARK-46761] [SC-159045][SQL] Aanhalingstekenreeksen in een JSON-pad moeten ? ondersteunen. karakters
-
[SPARK-46915] [SC-155729][SQL] Vereenvoudig
UnaryMinus
Abs
en lijn de foutklasse uit - [SPARK-47431] [SC-160919][SQL] Standaardsortering op sessieniveau toevoegen
- [SPARK-47620] [SC-161242][PYTHON][VERBINDING] Een helperfunctie toevoegen om kolommen te sorteren
- [SPARK-47570] [SC-161165][SS] Bereikscancoderingswijzigingen integreren met timer-implementatie
-
[SPARK-47497] [SC-160724][SQL] Zorg ervoor dat
to_csv
de uitvoer vanarray/struct/map/binary
als mooie tekenreeksen ondersteunt -
[SPARK-47562] [SC-161166][CONNECT] Verwerking van letterlijke waarden buiten
plan.py
- [SPARK-47509] [SC-160902][SQL] Subquery-expressies blokkeren in lambda- en hogere volgordefuncties
-
[SPARK-47539] [SC-160750][SQL] De retourwaarde van de methode
castToString
moet wordenAny => UTF8String
- [SPARK-47372] [SC-160905][SS] Ondersteuning toevoegen voor op bereikscan gebaseerde sleutelstatuscoderingsprogramma voor gebruik met statusarchiefprovider
- [SPARK-47517] [SC-160642][CORE][SQL] Geef de voorkeur aan Utils.bytesToString voor grootteweergave
-
[SPARK-47243] [SC-158059][SS] Corrigeer de pakketnaam van
StateMetadataSource.scala
- [SPARK-47367] [SC-160913][PYTHON][CONNECT] Ondersteuning voor Python-gegevensbronnen met Spark Connect
-
[SPARK-47521] [SC-160666][CORE] Gebruik
Utils.tryWithResource
tijdens het lezen van shuffle-gegevens uit externe opslag - [SPARK-47474] [SC-160522][CORE] Spark-47461 herstellen en enkele opmerkingen toevoegen
- [SPARK-47560] [SC-160914][PYTHON][CONNECT] Vermijd RPC om kolomnaam te valideren met schema in cache
- [SPARK-47451] [SC-160749][SQL] Ondersteuning to_json(variant).
- [SPARK-47528] [SC-160727][SQL] UserDefinedType-ondersteuning toevoegen aan DataTypeUtils.canWrite
- [SPARK-44708] Revert “[SC-160734][PYTHON] Migrate test_reset_index assert_eq om assertDataFrameEqual te gebruiken”
- [SPARK-47506] [SC-160740][SQL] Ondersteuning toevoegen aan alle bestandsindelingen voor gesorteerde gegevenstypen
- [SPARK-47256] [SC-160784][SQL] Namen toewijzen aan foutklassen _LEGACY_ERROR_TEMP_102[4-7]
- [SPARK-47495] [SC-160720][CORE] Primaire resource-JAR die twee keer is toegevoegd aan spark.jars in de k8s-clustermodus
- [SPARK-47398] [SC-160572][SQL] Extraheer een kenmerk voor InMemoryTableScanExec om uitbreidingsfunctionaliteit mogelijk te maken
- [SPARK-47479] [SC-160623][SQL] Optimaliseren kan geen gegevens schrijven naar relaties met meerdere paden
- [SPARK-47483] [SC-160629][SQL] Ondersteuning toevoegen voor aggregatie- en joinbewerkingen voor matrices met gesorteerde tekenreeksen
- [SPARK-47458] [SC-160237][CORE] Los het probleem op met het berekenen van het maximum aantal gelijktijdige taken voor de barrièrefase
-
[SPARK-47534] [SC-160737][SQL]
o.a.s.variant
verplaatsen naaro.a.s.types.variant
- [SPARK-47396] [SC-159312][SQL] Een algemene toewijzing voor TIME WITHOUT TIME ZONE toevoegen aan TimestampNTZType
- [SPARK-44708] [SC-160734][PYTHON] Migreer test_reset_index assert_eq om assertDataFrameEqual te gebruiken
- [SPARK-47309] [SC-157733][SC-160398][SQL] XML: Schemadeductietests toevoegen voor waardetags
-
[SPARK-47007] [SC-160630][SQL] De
MapSort
-expressie toevoegen -
[SPARK-47523] [SC-160645][SQL] Vervangen afgeschafte
JsonParser#getCurrentName
doorJsonParser#currentName
- [SPARK-47440] [SC-160635][SQL] Probleem opgelost bij het pushen van niet-ondersteunde syntaxis naar MsSqlServer
- [SPARK-47512] [SC-160617][SS] Labelbewerkingstype dat wordt gebruikt met het exemplaarvergrendelings-/release van rocksDB-statusarchief
- [SPARK-47346] [SC-159425][PYTHON] De daemonmodus configureren bij het maken van Python Planner-werkrollen
-
[SPARK-47446] [SC-160163][CORE] Maak
BlockManager
waarschuwen voordatremoveBlockInternal
- [SPARK-46526] [SC-156099][SQL] Ondersteunt LIMIT over gecorreleerde subquery's waarbij de predicaten enkel naar de buitenste tabel verwijzen
-
[SPARK-47461] [SC-160297][CORE] Privéfunctie
totalRunningTasksPerResourceProfile
verwijderen uitExecutorAllocationManager
- [SPARK-47422] [SC-160219][SQL] Ondersteuning voor gesorteerde tekenreeksen in matrixbewerkingen
-
[SPARK-47500] [SC-160627][PYTHON][CONNECT] Splitsing van de kolomnaamverwerking uit
plan.py
-
[SPARK-47383] [SC-160144][CORE] Ondersteuning van
spark.shutdown.timeout
configuratie - [SPARK-47342] [SC-159049]Herstel "[SQL] Ondersteuning van TimestampNTZ voor DB2 TIMESTAMP MET TIJDZONE"
-
[SPARK-47486] [SC-160491][CONNECT] Ongebruikte privé-
ArrowDeserializers.getString
methode verwijderen - [SPARK-47233] [SC-154486][CONNECT][SS][2/2] Client & Serverlogica voor streamingquerylistener aan clientzijde
- [SPARK-47487] [SC-160534][SQL] Vereenvoudigen van code in AnsiTypeCoercion
- [SPARK-47443] [SC-160459][SQL] Window Aggregate-ondersteuning voor sorteringen
- [SPARK-47296] [SC-160457][SQL][SORTERING] Mislukt niet-ondersteunde functies voor niet-binaire sorteringen
- [SPARK-47380] [SC-160164][CONNECT] Zorg ervoor dat de SparkSession hetzelfde is aan de serverzijde
- [SPARK-47327] [SC-160069][SQL] Sorteersleutels gelijktijdigheidstest verplaatsen naar CollationFactorySuite
- [SPARK-47494] [SC-160495][Doc] Migratiedocument toevoegen voor de gedragswijziging van Parquet-timestampdeductie sinds Spark 3.3
- [SPARK-47449] [SC-160372][SS] Herstructureren en splitsen van eenheidslijsten/timer testen
-
[SPARK-46473] [SC-155663][SQL]
getPartitionedFile
methode opnieuw gebruiken - [SPARK-47423] [SC-160068][SQL] Sorteringen - Ondersteuning voor bewerkingen instellen voor tekenreeksen met sorteringen
- [SPARK-47439] [SC-160115][PYTHON] Documenteer de Python-gegevensbron-API in de API-referentiepagina
-
[SPARK-47457] [SC-160234][SQL]
IsolatedClientLoader.supportsHadoopShadedClient
oplossen om Hadoop 3.4+ te ondersteunen - [SPARK-47366] [SC-159348][SQL] Implementeer parse_json.
- [SPARK-46331] [SC-152982][SQL] CodegenFallback verwijderen uit subset van DateTime-expressies en version()-expressie
- [SPARK-47395] [SC-159404] Samenvoeging en sortering toevoegen aan andere API's
-
[SPARK-47437] [SC-160117][PYTHON][CONNECT] Corrigeer de foutklasse voor
DataFrame.sort*
- [SPARK-47174] [SC-154483][CONNECT][SS][1/2] SparkConnectListenerBusListener voor streamingquerylistener aan clientzijde
- [SPARK-47324] [SC-158720][SQL] Ontbrekende tijdstempelconversie toevoegen voor geneste JDBC-typen
- [SPARK-46962] [SC-158834][SS][PYTHON] Interface toevoegen voor de API voor python-streaminggegevensbron en python-werkrol implementeren om python-streaminggegevensbron uit te voeren
- [SPARK-45827] [SC-158498][SQL] Gegevenstypecontroles verplaatsen naar CreatableRelationProvider
- [SPARK-47342] [SC-158874][SQL] Ondersteun TimestampNTZ voor DB2 TIMESTAMP WITH TIME ZONE
- [SPARK-47399] [SC-159378][SQL] Gegenereerde kolommen uitschakelen voor expressies met sorteringen
- [SPARK-47146] [SC-158247][CORE] Mogelijke threadlek bij het uitvoeren van sorteer-merge-join
- [SPARK-46913] [SC-159149][SS] Ondersteuning toevoegen voor timers op basis van verwerking/gebeurtenistijd met transformWithState-operator
-
[SPARK-47375] [SC-159063][SQL] Richtlijnen toevoegen voor tijdstempeltoewijzing in
JdbcDialect#getCatalystType
- [SPARK-47394] [SC-159282][SQL] Ondersteuning voor TIJDSTEMPEL MET TIJDZONE voor H2Dialect
- [SPARK-45827] Revert “[SC-158498][SQL] Gegevenstypecontroles verplaatsen naar ...
- [SPARK-47208] [SC-159279][CORE] Overschrijven van basisoverheadgeheugen toestaan
- [SPARK-42627] [SC-158021][SPARK-26494][SQL] Ondersteuning voor Oracle TIMESTAMP WITH LOCAL TIME ZONE
- [SPARK-47055] [SC-156916][PYTHON] MyPy 1.8.0 bijwerken
- [SPARK-46906] [SC-157205][SS] Een controle toevoegen voor wijziging van stateful operators bij streaming.
- [SPARK-47391] [SC-159283][SQL] Verwijder de tijdelijke oplossing voor de testcase voor JDK 8
- [SPARK-47272] [SC-158960][SS] MapState-implementatie toevoegen voor State API v2.
- [SPARK-47375] [SC-159278][Doc][FollowUp] Corrigeer een fout in JDBC's preferTimestampNTZ option doc
- [SPARK-42328] [SC-157363][SQL] Verwijder _LEGACY_ERROR_TEMP_1175 uit foutklassen
- [SPARK-47375] [SC-159261][Doc][FollowUp] Corrigeer de beschrijving van de optie PreferTimestampNTZ in JDBC-document
- [SPARK-47344] [SC-159146] Breid INVALID_IDENTIFIER fout uit buiten het ondervangen van '-' in een niet-quote id en corrigeer "IS ! NULL" et al.
- [SPARK-47340] [SC-159039][SQL] Wijzig "collate" in de StringType-typenaam naar kleine letters
- [SPARK-47087] [SC-157077][SQL] Spark-uitzondering veroorzaken met een foutklasse bij de configuratiewaardebeoordeling
- [SPARK-47327] [SC-158824][SQL] Thread-veiligheidsprobleem in ICU Collator oplossen
- [SPARK-47082] [SC-157058][SQL] Foutvoorwaarde buiten de grenzen oplossen
- [SPARK-47331] [SC-158719][SS] Serialisatie met behulp van caseklassen/primitieven/POJO op basis van SQL-encoder voor Willekeurige status-API v2.
- [SPARK-47250] [SC-158840][SS] Aanvullende validaties en NERF-wijzigingen toevoegen voor de statusprovider RocksDB en het gebruik van kolomfamilies
- [SPARK-47328] [SC-158745][SQL] Hernoem UCS_BASIC sortering naar UTF8_BINARY
-
[SPARK-47207] [SC-157845][CORE] Ondersteuning
spark.driver.timeout
enDriverTimeoutPlugin
- [SPARK-47370] [SC-158956][Doc] Migratiedocument toevoegen: TimestampNTZ-type-inferentie voor Parquet-bestanden
- [SPARK-47309] [SC-158827][SQL][XML] Schema-afleidingsunittests toevoegen
-
[SPARK-47295] [SC-158850][SQL] ICU StringSearch toegevoegd voor de functies
startsWith
enendsWith
-
[SPARK-47343] [SC-158851][SQL] NPE herstellen wanneer
sqlString
variabele waarde null-tekenreeks is in uitvoeren onmiddellijk -
[SPARK-46293] [SC-150117][CONNECT][PYTHON] Gebruik
protobuf
transitieve afhankelijkheid -
[SPARK-46795] [SC-154143][SQL] Vervang
UnsupportedOperationException
doorSparkUnsupportedOperationException
insql/core
- [SPARK-46087] [SC-149023][PYTHON] PySpark-afhankelijkheden synchroniseren in docs- en dev-vereisten
- [SPARK-47169] [SC-158848][SQL] Bucketing uitschakelen voor gesorteerde kolommen
- [SPARK-42332] [SC-153996][SQL] Wijzigen van de vereiste voor een SparkException in ComplexTypeMergingExpression
- [SPARK-45827] [SC-158498][SQL] Gegevenstypecontroles verplaatsen naar CreatableRelationProvider
- [SPARK-47341] [SC-158825][Connect] Opdrachten vervangen door relaties in een paar tests in SparkConnectClientSuite
- [SPARK-43255] [SC-158026][SQL] Vervang de foutklasse _LEGACY_ERROR_TEMP_2020 door een interne fout
- [SPARK-47248] [SC-158494][SQL][COLLATIE] Verbeterde ondersteuning voor tekenreeksfuncties: bevat
-
[SPARK-47334] [SC-158716][SQL] Laat
withColumnRenamed
de implementatie vanwithColumnsRenamed
opnieuw gebruiken - [SPARK-46442] [SC-153168][SQL] DS V2 ondersteunt het doordrukken van PERCENTILE_CONT en PERCENTILE_DISC
- [SPARK-47313] [SC-158747][SQL] scala.MatchError-verwerking toegevoegd in QueryExecution.toInternalError
- [SPARK-45827] [SC-158732][SQL] Variant singletontype voor Java toevoegen
- [SPARK-47337] [SC-158743][SQL][DOCKER] Db2 Docker-installatiekopieën upgraden naar versie 11.5.8.0
- [SPARK-47302] [SC-158609][SQL] COLLATE-zoekwoord als identificator
-
[SPARK-46817] [SC-154196][CORE]
spark-daemon.sh
gebruik herstellen doordecommission
opdracht toe te voegen -
[SPARK-46739] [SC-153553][SQL] De foutklasse toevoegen
UNSUPPORTED_CALL
-
[SPARK-47102] [SC-158253][SQL] Voeg de
COLLATION_ENABLED
configuratievlag toe - [SPARK-46774] [SC-153925][SQL][AVRO] Gebruik mapreduce.output.fileoutputformat.compress in plaats van afgeschafte mapred.output.compress in Avro-schrijftaken
- [SPARK-45245] [SC-146961][PYTHON][CONNECT] PythonWorkerFactory: Time-out als de worker geen verbinding maakt.
- [SPARK-46835] [SC-158355][SQL][Collations] Join-ondersteuning voor niet-binaire sorteringen
- [SPARK-47131] [SC-158154][SQL][COLLATION] Stringfunctieondersteuning: bevat, begint met, eindigt met
- [SPARK-46077] [SC-157839][SQL] Overweeg het type dat is gegenereerd door TimestampNTZConverter in JdbcDialect.compileValue.
- [SPARK-47311] [SC-158465][SQL][PYTHON] Python-uitzonderingen onderdrukken waarbij PySpark zich niet in het Python-pad bevindt
- [SPARK-47319] [SC-158599][SQL] De berekening van missingInput verbeteren
- [SPARK-47316] [SC-158606][SQL] Fix TimestampNTZ in Postgres-array
- [SPARK-47268] [SC-158158][SQL][Collations] Ondersteuning voor repartitioneren met collations
- [SPARK-47191] [SC-157831][SQL] Vermijd onnodige relationele opzoekactie bij het verwijderen van de tabel en weergave uit cache.
- [SPARK-47168] [SC-158257][SQL] Schakel parquet-filter pushdown uit bij het werken met niet-standaard gecolleerde tekenreeksen
-
[SPARK-47236] [SC-158015][CORE]
deleteRecursivelyUsingJavaIO
herstellen om niet-bestaande bestandsinvoer over te slaan - [SPARK-47238] [SC-158466][SQL] Verminder het geheugengebruik van uitvoerders door gegenereerde code in WSCG een broadcastvariabele te maken
- [SPARK-47249] [SC-158133][CONNECT] Opgeloste fout waarbij alle verbindingsuitvoeringen worden beschouwd als verlaten, ongeacht hun werkelijke status
- [SPARK-47202] [SC-157828][PYTHON] Typfouten met tzinfo corrigeren
- [SPARK-46834] [SC-158139][SQL][Sorteringen] Ondersteuning voor aggregaties
- [SPARK-47277] [SC-158351][3.5] PySpark util-functie assertDataFrameEqual mag streaming DF niet ondersteunen
- [SPARK-47155] [SC-158473][PYTHON] Foutklasseprobleem oplossen
- [SPARK-47245] [SC-158163][SQL] Foutcode voor INVALID_PARTITION_COLUMN_DATA_TYPE verbeteren
-
[SPARK-39771] [SC-158425][CORE] Voeg een waarschuwing bericht toe in
Dependency
wanneer een te groot aantal shuffle-blokken moet worden gemaakt. - [SPARK-47277] [SC-158329] PySpark util function assertDataFrameEqual mag geen ondersteuning bieden voor streaming DF
- [SPARK-47293] [SC-158356][CORE] BatchSchema bouwen met sparkSchema in plaats van één voor één toe te voegen
- [SPARK-46732] [SC-153517][CONNECT]Subquery/Broadcast-thread werken met het artefactbeheer van Connect
- [SPARK-44746] [SC-158332][PYTHON] Voeg meer Python UDTF-documentatie toe voor functies die invoertabellen accepteren
- [SPARK-47120] [SC-157517][SQL] Het pushen van de gegevensfilter met null-vergelijking uit een deelquery leidt tot een NPE in Parquet-filter
-
[SPARK-47251] [SC-158291][PYTHON] Ongeldige typen blokkeren uit het argument
args
voorsql
opdracht -
[SPARK-47251] Teruggaan naar “[SC-158121][PYTHON] Ongeldige typen blokkeren uit het argument
args
voorsql
opdracht” - [SPARK-47015] [SC-157900][SQL] Partitionering uitschakelen voor gesorteerde kolommen
-
[SPARK-46846] [SC-154308][CORE]
WorkerResourceInfo
Serializable
expliciet uitbreiden - [SPARK-46641] [SC-156314][SS] Drempelwaarde voor maxBytesPerTrigger toevoegen
-
[SPARK-47244] [SC-158122][CONNECT]
SparkConnectPlanner
interne functies privé maken -
[SPARK-47266] [SC-158146][CONNECT]
ProtoUtils.abbreviate
hetzelfde type retourneren als de invoer - [SPARK-46961] [SC-158183][SS] ProcessorContext gebruiken om handle op te slaan en op te halen
- [SPARK-46862] [SC-154548][SQL] CSV-kolom snoeien uitschakelen in de modus met meerdere lijnen
-
[SPARK-46950] [SC-155803][CORE][SQL]
not available codec
foutklasse uitlijnen -
[SPARK-46368] [SC-153236][CORE] Ondersteuning
readyz
in REST Submission API - [SPARK-46806] [SC-154108][PYTHON] Foutbericht voor spark.table verbeteren wanneer argumenttype onjuist is
- [SPARK-47211] [SC-158008][CONNECT][PYTHON] Genegeerde PySpark Connect-tekenreekssortering opgelost
-
[SPARK-46552] [SC-151366][SQL] Vervang
UnsupportedOperationException
doorSparkUnsupportedOperationException
incatalyst
- [SPARK-47147] [SC-157842][PYTHON][SQL] Fout met pySpark-gesorteerde tekenreeksconversie oplossen
- [SPARK-47144] [SC-157826][CONNECT][SQL][PYTHON] Spark Connect-sorteringsfout oplossen door collateId protobuf-veld toe te voegen
- [SPARK-46575] [SC-153200][SQL][HIVE] HiveThriftServer2.startWithContext DevelopApi opnieuw probeervol maken en flakiness van ThriftServerWithSparkContextInHttpSuite herstellen
- [SPARK-46696] [SC-153832][CORE] In ResourceProfileManager moeten functieaanroepen plaatsvinden na variabeledeclaraties
- [SPARK-47214] [SC-157862][Python] Maak UDTF-API voor analysemethode om constante NULL-argumenten en andere typen argumenten te onderscheiden
- [SPARK-46766] [SC-153909][SQL][AVRO] ZSTD-buffergroepondersteuning voor AVRO-gegevensbron
- [SPARK-47192] [SC-157819] Enkele _LEGACY_ERROR_TEMP_0035-fouten converteren
- [SPARK-46928] [SC-157341][SS] Ondersteuning voor ListState toevoegen in Willekeurige status-API v2.
-
[SPARK-46881] [SC-154612][CORE] Ondersteuning
spark.deploy.workerSelectionPolicy
-
[SPARK-46800] [SC-154107][CORE] Ondersteuning
spark.deploy.spreadOutDrivers
- [SPARK-45484] [SC-146014][SQL] Los de fout op waarbij een onjuiste parquet-compressiecodec lz4raw wordt gebruikt.
- [SPARK-46791] [SC-154018][SQL] Ondersteuning voor Java Set in JavaTypeInference
-
[SPARK-46332] [SC-150224][SQL] Migreer
CatalogNotFoundException
naar de foutklasseCATALOG_NOT_FOUND
- [SPARK-47164] [SC-157616][SQL] Laat de standaardwaarde van een breder type zich in v2 hetzelfde gedragen als in v1 door het tot een klein letterlijke waarde te versmallen.
-
[SPARK-46664] [SC-153181][CORE] Verbeter
Master
om snel te herstellen in het geval van zero workers en apps - [SPARK-46759] [SC-153839][SQL][AVRO] Codec xz en zstandard ondersteunen compressieniveau voor avro-bestanden
Ondersteuning voor Databricks ODBC-/JDBC-stuurprogramma's
Databricks ondersteunt ODBC-/JDBC-stuurprogramma's die in de afgelopen 2 jaar zijn uitgebracht. Download de onlangs uitgebrachte stuurprogramma's en upgrade (ODBC-downloaden, JDBC-downloaden).
Zie onderhoudsupdates voor Databricks Runtime 15.2.
Systeemomgeving
- besturingssysteem: Ubuntu 22.04.4 LTS
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python-: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Geïnstalleerde Python-bibliotheken
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.1 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
zwart | 23.3.0 | richtingaanwijzer | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klikken | 8.0.4 | cloudpickle | 2.2.1 | communicatie | 0.1.2 |
contourpy | 1.0.5 | cryptografie | 41.0.3 | wielrijder | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
debugpy | 1.6.7 | decorateur | 5.1.1 | distlib | 0.3.8 |
invoerpunten | 0.4 | Uitvoeren | 0.8.3 | facettenoverzicht | 1.1.1 |
bestandsvergrendeling | 3.13.1 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.29.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.16.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.0 | googleapis-common-protos | 1.63.0 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | Jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | sleutelhanger | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.3 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | verpakking | 23.2 |
pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Kussen | 9.4.0 | pit | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-hulpmiddel | 3.0.36 | proto-plus | 1.23.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 23.2.0 |
Verzoeken | 2.31.0 | RSA | 4.9 | s3transfer | 0.10.1 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | Zes | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5.11 |
stapelgegevens | 0.2.0 | statsmodels | 0.14.0 | vasthoudendheid | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | upgrades zonder toezicht | 0.1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wiel | 0.38.4 | zipp | 3.11.0 |
geïnstalleerde R-bibliotheken
De R-bibliotheken worden geïnstalleerd vanuit de Posit Package Manager CRAN-snapshot.
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
pijl | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
terugporteringen | 1.4.1 | basis | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | beetje | 4.0.5 | 64-bits | 4.0.5 |
bitops | 1.0-7 | Blob | 1.2.4 | laars | 1.3-28 |
brouwsel | 1.0-10 | Brio | 1.1.4 | bezem | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | beller | 3.7.3 |
Caret | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
klas | 7.3-22 | CLI | 3.6.2 | clipr | 0.8.0 |
klok | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compiler | 4.3.2 |
configuratie | 0.3.2 | Tegenstrijdig | 1.2.0 | cpp11 | 0.4.7 |
Crayon | 1.5.2 | geloofsbrief | 2.0.1 | krul | 5.2.0 |
data.table | 1.15.0 | gegevenssets | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | Beschrijving | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | samenvatting | 0.6.34 |
naar beneden gerichte verlichting | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | beletselteken | 0.3.2 | evalueren | 0.23 |
fansi | 1.0.6 | kleuren | 2.1.1 | snelkaart | 1.1.1 |
fontawesome | 0.5.2 | voor katten | 1.0.0 | foreach | 1.5.2 |
buitenlands | 0.8-85 | smeden | 0.2.0 | Fs | 1.6.3 |
toekomst | 1.33.1 | future.apply | 1.11.1 | gorgelen | 1.5.2 |
Generieken | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globale variabelen | 0.16.2 | lijm | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
grafische elementen | 4.3.2 | grDevices | 4.3.2 | raster | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.10.1 |
gtable | 0.3.4 | veiligheidshelm | 1.3.1 | haven | 2.5.4 |
hoger | 0.10 | HMS | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | Ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | knitr | 1.45 | Labeling | 0.4.3 |
later | 1.3.2 | latwerk | 0.21-8 | lava | 1.7.3 |
levenscyclus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | Markdown | 1.12 | MASSA | 7.3-60 |
Matrix | 1.5-4.1 | memoriseren | 2.0.1 | Methoden | 4.3.2 |
mgcv | 1.8-42 | Mime | 0.12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | evenwijdig | 4.3.2 |
parallel | 1.36.0 | pilaar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | prijzen | 1.0.0 |
prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | vooruitgang | 1.2.3 |
progressr | 0.14.0 | Beloften | 1.2.1 | Proto | 1.0.0 |
proxy | 0.4-27 | PS | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
reactR | 0.5.0 | lezer | 2.1.5 | readxl | 1.4.3 |
Recepten | 1.0.9 | Rematch | 2.0.0 | opnieuw overeenkomen2 | 2.1.2 |
Afstandsbedieningen | 2.4.2.1 | reproduceerbaar voorbeeld | 2.1.0 | reshape2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2.25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.8 |
weegschaal | 1.3.0 | selectr | 0.4-2 | sessie-informatie | 1.2.2 |
vorm | 1.4.6 | glanzend | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | ruimtelijk | 7.3-15 | Splines | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Statistieken | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
overleven | 3.5-5 | Branie | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
tekstvormgeving | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | tijdwijziging | 0.3.0 |
tijdDatum | 4032.109 | tinytex | 0.49 | gereedschap | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | gebruik deze | 2.2.2 |
utf8 | 1.2.4 | hulpprogramma's | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
Vroom | 1.6.5 | Waldo | 0.5.2 | snor | 0.4.1 |
withr | 3.0.0 | xfun | 0.41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | ritssluiting | 2.3.1 |
Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.12-clusterversie)
Groeps-id | Artefact-ID | Versie |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | stroom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.17.1 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-gearceerd | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasgenoot | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotaties | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.caffeine | cafeïne | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-inheemsen |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-inheemsen |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-inheemsen |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-inheemsen |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | tink | 1.9.0 |
com.google.errorprone | foutgevoelige_annotaties | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guave | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | Profiler | 1.1.1 |
com.ibm.icu | icu4j | 72.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuratie | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-bestandsupload | commons-bestandsupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 3.0.3 |
dev.ludovic.netlib | Blas | 3.0.3 |
dev.ludovic.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.0.5 |
io.dropwizard.metrics | metrische aantekening | 4.2.19 |
io.dropwizard.metrics | metrische gegevenskern | 4.2.19 |
io.dropwizard.metrics | metrics-Graphite | 4.2.19 |
io.dropwizard.metrics | metrische statuscontroles | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-sokken | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | verzamelaar | 0.12.0 |
jakarta.annotatie | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activering | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transactie-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pekelen | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-CSV | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0.1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | tekenreeksjabloon | 3.2.1 |
org.apache.ant | mier | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | pijlnotatie | 15.0.0 |
org.apache.arrow | pijl-geheugen-kern | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | pijlvector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-cliënt | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recepten | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common (if no translation is needed for understanding, the original can be kept as is) | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | klimop | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-shaded | 4.23 |
org.apache.yetus | publiek-aantekeningen | 0.13.0 |
org.apache.zookeeper | dierentuinverzorger | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-vervolg | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security (beveiligingsmodule van Jetty) | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-API | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance opnieuw verpakt | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | hibernate-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Aantekeningen | 17.0.0 |
org.joda | joda-convert | 1.7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | vulplaatjes | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.3.2 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatibel | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1.9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | katten-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |