Databricks Runtime 15.4 LTS
De volgende releaseopmerkingen bevatten informatie over Databricks Runtime 15.4 LTS, mogelijk gemaakt door Apache Spark 3.5.0.
Databricks heeft deze versie uitgebracht in augustus 2024.
Notitie
LTS betekent dat deze versie op lange termijn wordt ondersteund. Zie de levenscyclus van de Databricks Runtime LTS-versie.
Tip
Als u releaseopmerkingen voor Databricks Runtime-versies wilt zien die end-of-support (EoS) hebben bereikt, raadpleegt u de releaseopmerkingen voor Databricks Runtime. De EoS Databricks Runtime-versies zijn buiten gebruik gesteld en worden mogelijk niet bijgewerkt.
Gedragswijzigingen
VARIANT
Een als invoer- of uitvoertype gebruiken met een Python UDF, UDAF of UDTF genereert een uitzondering- Wijzigen in de standaardmodus voor schemabinding voor weergaven
- Gebruik van de niet-gedocumenteerde
!
syntaxis niet in plaats vanNOT
booleaanse expressies - Niet-gedocumenteerde kolomdefinitiesyntaxis in weergaven niet toegestaan
- Consistente foutafhandeling voor Base64-decodering in Spark en Photon
- Als u een
CHECK
beperking toevoegt aan een ongeldige kolom, wordt nu de UNRESOLVED_COLUMN geretourneerd. foutklasse WITH_SUGGESTION
VARIANT
Een als invoer- of uitvoertype gebruiken met een Python UDF, UDAF of UDTF genereert een uitzondering
[Wijziging die fouten veroorzaakt] In Databricks Runtime 15.3 en hoger wordt een door de gebruiker gedefinieerde Python-functie (UDF), door de gebruiker gedefinieerde statistische functie (UDAF) of door de gebruiker gedefinieerde tabelfunctie (UDTF) aangeroepen die een VARIANT
type als argument of retourwaarde gebruikt, genereert een uitzondering. Deze wijziging wordt aangebracht om problemen te voorkomen die kunnen optreden vanwege een ongeldige waarde die door een van deze functies wordt geretourneerd. Zie VARIANT's gebruiken om semi-gestructureerde gegevens op te slaan voor meer informatie over het VARIANT
type.
Wijzigen in de standaardmodus voor schemabinding voor weergaven
Weergaven worden nu aangepast aan schemawijzigingen in de onderliggende query met behulp van schemacompensatie met reguliere cast-regels. Dit is een wijziging ten opzichte van BINDING
de vorige standaardmodus, die fouten heeft veroorzaakt wanneer een veilige cast niet kon worden uitgevoerd bij het verwijzen naar de weergave.
Zie de functie CREATE VIEW en cast.
Gebruik van de niet-gedocumenteerde !
syntaxis niet in plaats van NOT
booleaanse expressies
Met deze release is het gebruik van !
als synoniem voor NOT
buiten booleaanse expressies niet meer toegestaan. Bijvoorbeeld instructies zoals: CREATE ... IF ! EXISTS
, IS ! NULL, een ! NULL
kolom- of veldeigenschap, ! IN
en ! BETWEEN moet worden vervangen door: CREATE ... IF NOT EXISTS
, , IS NOT NULL
een NOT NULL
kolom- of veldeigenschap en NOT IN
NOT BETWEEN
.
Deze wijziging zorgt voor consistentie, is afgestemd op de SQL-standaard en maakt uw SQL draagbaarder.
De booleaanse voorvoegseloperator !
(bijvoorbeeld !is_mgr
of !(true AND false)
) wordt niet beïnvloed door deze wijziging.
Niet-gedocumenteerde kolomdefinitiesyntaxis in weergaven niet toegestaan
Databricks ondersteunt CREATE VIEW met benoemde kolommen en kolomopmerkingen. Eerder is de specificatie van kolomtypen, NOT NULL
beperkingen of DEFAULT
is toegestaan. Met deze release kunt u deze syntaxis niet meer gebruiken.
Deze wijziging zorgt voor consistentie, is afgestemd op de SQL-standaard en biedt ondersteuning voor toekomstige verbeteringen.
Consistente foutafhandeling voor Base64-decodering in Spark en Photon
In deze release wordt gewijzigd hoe Photon base64-decoderingsfouten verwerkt zodat deze overeenkomen met de Spark-verwerking van deze fouten. Vóór deze wijzigingen kon het pad voor het genereren van Photon- en Spark-code soms geen parseringsonderingen veroorzaken, terwijl de uitvoering door Spark correct werd geïnterpreteerd IllegalArgumentException
of ConversionInvalidInputError
. Deze update zorgt ervoor dat Photon consistent dezelfde uitzonderingen genereert als Spark tijdens base64-decoderingsfouten, wat voorspelbare en betrouwbare foutafhandeling biedt.
Als u een CHECK
beperking toevoegt aan een ongeldige kolom, wordt nu de UNRESOLVED_COLUMN geretourneerd. foutklasse WITH_SUGGESTION
Om nuttigere foutberichten te bieden, retourneert databricks Runtime 15.3 en hoger een ALTER TABLE ADD CONSTRAINT
instructie met een CHECK
beperking die verwijst naar een ongeldige kolomnaam de UNRESOLVED_COLUMN. WITH_SUGGESTION foutklasse. Eerder werd er een INTERNAL_ERROR
geretourneerd.
Nieuwe functies en verbeteringen
- UTF-8-validatiefuncties
- functies voor to_avro en from_avro
- Getypte gegevensset-API's met Scala UDF's
- UniForm Iceberg inschakelen met ALTER TABLE
- try_url_decode, functie
- Optioneel toestaan dat de optimizer afhankelijk is van niet-afgedwongen beperkingen voor refererende sleutels
- Parallelle taakuitvoeringen voor selectief overschrijven
- Verbeterde prestaties voor wijzigingsgegevensfeed met selectieve overschrijven
- Verbeterde querylatentie voor de
COPY INTO
opdracht - Ondersteuning voor het verwijderen van de tabelfunctie controlebeperkingen
- Compute van één gebruiker biedt ondersteuning voor gedetailleerd toegangsbeheer, gerealiseerde weergaven en streamingtabellen (openbare preview)
- Uitgebreide ondersteuning voor Java- en Scala-bibliotheken
- Uitgebreide ondersteuning voor Scala-gegevenssetbewerkingen
- Scala is algemeen beschikbaar op gedeelde rekenkracht van Unity Catalog
- Door Unity Catalog beheerde toegang tot externe cloudservices met behulp van servicereferenties (openbare preview)
UTF-8-validatiefuncties
In deze release worden de volgende functies geïntroduceerd voor het valideren van UTF-8-tekenreeksen:
- is_valid_utf8 gecontroleerd of een tekenreeks een geldige UTF-8-tekenreeks is.
- make_valid_utf8 converteert een mogelijk ongeldige UTF-8-tekenreeks naar een geldige UTF-8-tekenreeks met vervangingstekens
- validate_utf8 genereert een fout als de invoer geen geldige UTF-8-tekenreeks is.
- try_validate_utf8 retourneert
NULL
als de invoer geen geldige UTF-8-tekenreeks is.
functies voor to_avro en from_avro
Met de functies to_avro en from_avro kunnen SQL-typen worden geconverteerd naar binaire Avro-gegevens en terug.
Getypte gegevensset-API's met Scala UDF's
Deze release bevat extra ondersteuning voor getypte gegevensset-API's met door de gebruiker gedefinieerde Scala-functies (met uitzondering van door de gebruiker gedefinieerde statistische functies) op unity-catalogusberekeningen met de modus voor gedeelde toegang. Zie Getypte gegevensset-API's.
UniForm Iceberg inschakelen met ALTER TABLE
U kunt UniForm Iceberg nu inschakelen voor bestaande tabellen zonder gegevensbestanden opnieuw te schrijven. Zie Inschakelen door een bestaande tabel te wijzigen.
try_url_decode, functie
In deze release wordt de try_url_decode-functie geïntroduceerd, waarmee een tekenreeks met URL-codering wordt gedecodeerd. Als de tekenreeks niet de juiste indeling heeft, retourneert NULL
de functie in plaats van een fout op te geven.
Optioneel toestaan dat de optimizer afhankelijk is van niet-afgedwongen beperkingen voor refererende sleutels
Als u de queryprestaties wilt verbeteren, kunt u nu het RELY
trefwoord opgeven voor FOREIGN KEY
beperkingen wanneer u een tabel MAAKT of WIJZIGt .
Parallelle taakuitvoeringen voor selectief overschrijven
Selectief overschrijven met behulp van replaceWhere
nu uitgevoerde taken waarmee gegevens worden verwijderd en nieuwe gegevens parallel worden ingevoegd, waardoor de queryprestaties en het clustergebruik worden verbeterd.
Verbeterde prestaties voor wijzigingsgegevensfeed met selectieve overschrijven
Selectief overschrijven met behulp van replaceWhere
tabellen met wijzigingsgegevensfeed schrijft geen afzonderlijke wijzigingsgegevensbestanden meer voor ingevoegde gegevens. Deze bewerkingen maken gebruik van een verborgen _change_type
kolom die aanwezig is in de onderliggende Parquet-gegevensbestanden om wijzigingen vast te leggen zonder schrijfversterking.
Verbeterde querylatentie voor de COPY INTO
opdracht
Deze release bevat een wijziging die de querylatentie voor de COPY INTO
opdracht verbetert. Deze verbetering wordt geïmplementeerd door het laden van de status door de RocksDB-statusopslag asynchroon te maken. Met deze wijziging ziet u een verbetering in de begintijden voor query's met grote statussen, zoals query's met een groot aantal al opgenomen bestanden.
Ondersteuning voor het verwijderen van de tabelfunctie controlebeperkingen
U kunt de checkConstraints
tabelfunctie nu verwijderen uit een Delta-tabel met behulp van ALTER TABLE table_name DROP FEATURE checkConstraints
. Zie Controlebeperkingen uitschakelen.
Compute van één gebruiker biedt ondersteuning voor gedetailleerd toegangsbeheer, gerealiseerde weergaven en streamingtabellen (openbare preview)
Wanneer een werkruimte is ingeschakeld voor serverloze berekeningen, voegt Databricks Runtime 15.4 LTS ondersteuning toe voor fijnmazig toegangsbeheer voor rekenkracht van één gebruiker. Wanneer een query toegang heeft tot een van de volgende objecten, geeft de rekenresource voor één gebruiker in Databricks Runtime 15.4 LTS de query door aan de serverloze berekening om gegevensfiltering uit te voeren:
- Weergaven die zijn gedefinieerd in tabellen waarvoor de gebruiker niet over de
SELECT
bevoegdheid beschikt. - Dynamische weergaven.
- Tabellen waarop rijfilters of kolommaskers zijn toegepast.
- Gerealiseerde weergaven en streamingtabellen.
Deze query's worden niet ondersteund op rekenkracht van één gebruiker waarop Databricks Runtime 15.3 en lager wordt uitgevoerd.
Zie Fijnmazig toegangsbeheer voor rekenkracht van één gebruiker voor meer informatie.
Uitgebreide ondersteuning voor Java- en Scala-bibliotheken
Vanaf Databricks Runtime 15.4 LTS zijn alle Java- en Scala-bibliotheken die zijn gebundeld met Databricks Runtime beschikbaar in alle rekentoegangsmodi wanneer u Unity Catalog gebruikt. Zie Beperkingen voor de toegangsmodus voor Compute voor Unity Catalog voor meer informatie over taalondersteuning op Unity Catalog.
Uitgebreide ondersteuning voor Scala-gegevenssetbewerkingen
Met deze release ondersteunen Unity Catalog-rekenresources die gebruikmaken van de modus voor gedeelde toegang de volgende Scala-bewerkingenDataset
: map
, mapPartitions
, foreachPartition
, flatMap
reduce
en filter
.
Scala is algemeen beschikbaar op gedeelde rekenkracht van Unity Catalog
Met deze release is Scala algemeen beschikbaar op gedeelde toegangsmodus Unity Catalog-rekenkracht, waaronder ondersteuning voor door de gebruiker gedefinieerde scalaire functies (UDF's). Gestructureerde streaming, Hive UDF's en door de gebruiker gedefinieerde Statistische Functies van Hive worden niet ondersteund. Zie Beperkingen voor de compute-toegangsmodus voor Unity Catalog voor een volledige lijst met beperkingen.
Door Unity Catalog beheerde toegang tot externe cloudservices met behulp van servicereferenties (openbare preview)
Servicereferenties maken eenvoudige en veilige verificatie mogelijk met de services van uw cloudtenant met behulp van door Azure beheerde identiteiten (MI) en Unity Catalog. Zie Toegang tot externe cloudservices beheren met behulp van servicereferenties.
Bugfixes
Bibliotheekupgrades
- Bijgewerkte Python-bibliotheken:
- azure-core van 1.30.1 tot 1.30.2
- google-auth van 2.29.0 tot 2.31.0
- google-cloud-storage van 2.16.0 tot 2.17.0
- google-hervatbare media van 2.7.0 tot 2.7.1
- googleapis-common-protos van 1.63.0 tot 1.63.2
- mlflow-skinny van 2.11.3 tot 2.11.4
- proto-plus van 1.23.0 tot 1.24.0
- s3transfer van 0.10.1 tot 0.10.2
- Bijgewerkte R-bibliotheken:
- Bijgewerkte Java-bibliotheken:
- com.databricks.databricks-sdk-java van 0.17.1 tot 0.27.0
- com.ibm.icu.icu4j van 72.1 tot 75.1
- software.amazon.cryptools.AmazonCorrettoCryptoProvider van 1.6.1-linux-x86_64 tot 1.6.2-linux-x86_64
Apache Spark
Databricks Runtime 15.4 LTS bevat Apache Spark 3.5.0. Deze release bevat alle Spark-oplossingen en -verbeteringen die zijn opgenomen in Databricks Runtime 15.3 en de volgende aanvullende bugfixes en verbeteringen in Spark:
- [SPARK-48503] [DBRRM-1150][SC-172196][SQL] Groeperen op expressies in scalaire subquery's toestaan als ze afhankelijk zijn van buitenste rijen
- [SPARK-48834] [GEDRAG-79][SC-170972][SQL] Variantinvoer/uitvoer uitschakelen naar scalaire UDF's, UDDF's, UDAF's tijdens het compileren van query's
- [SPARK-48441] [SC-170980][SQL][WARMFIX] StringTrim-gedrag corrigeren voor niet-UTF8_BINARY sorteringen
- [SPARK-48440] [SC-170895][SQL][WARMFIX] TekenreeksTranslate-gedrag corrigeren voor niet-UTF8_BINARY sorteringen
- [SPARK-48872] [SC-170866][PYTHON] Verminder de overhead van _capture_call_site
- [SPARK-48862] [SC-170845][PYTHON][VERBINDING MAKEN] Bel niet
_proto_to_string
wanneer INFO-niveau niet is ingeschakeld - [SPARK-48852] [SC-170837][VERBINDING MAKEN] Functie voor het knippen van tekenreeksen in verbinding herstellen
- [SPARK-48791] [SC-170658][CORE] Prestatieregressie oplossen die wordt veroorzaakt door de registratie-overhead van accumulators met behulp van CopyOnWriteArrayList
- [SPARK-48118] [SQL] Ondersteuning voor
SPARK_SQL_LEGACY_CREATE_HIVE_TABLE
env-variabele - [SPARK-48241] [SC-165811][SQL] Csv-parseringsfout met kolommen van het type char/varchar
- [SPARK-48168] [SC-166900][SQL] Ondersteuning voor bitwise shifting-operators toevoegen
- [SPARK-48148] [SC-165630][CORE] JSON-objecten mogen niet worden gewijzigd wanneer ze als TEKENREEKS worden gelezen
- [SPARK-46625] [SC-170561] CTE met id-component als referentie
- [SPARK-48771] [SC-170546][SQL] Sneller uitvoeren
LogicalPlanIntegrity.validateExprIdUniqueness
voor grote queryplannen - [SPARK-48831] [GEDRAG-76][SC-170554][VERBINDING MAKEN] Standaardkolomnaam maken van
cast
compatibel met Spark Classic - [SPARK-48623] [SC-170544][CORE] Migraties voor gestructureerde logboekregistratie [deel 2]
- [SPARK-48296] [SC-166138][SQL] Ondersteuning voor codegen voor
to_xml
- [SPARK-48027] [SC-165154][SQL] InjectRuntimeFilter voor join met meerdere niveaus moet het onderliggende jointype controleren
- [SPARK-48686] [SC-170365][SQL] Prestaties van ParserUtils.unescapeSQLString verbeteren
- [SPARK-48798] [SC-170588][PYTHON] Introduceren
spark.profile.render
voor profilering op basis van SparkSession - [SPARK-48048] [SC-169099] [SC-164846][CONNECT][SS] Ondersteuning voor listener aan clientzijde toegevoegd voor Scala
- [SPARK-47910] [SC-168929][CORE] sluit de stream wanneer DiskBlockObjectWriterResources sluit om geheugenlekken te voorkomen
- [SPARK-48816] [SC-170547][SQL] Afkorting voor intervalconversieprogramma's in UnivocityParser
- [SPARK-48589] [SC-170132][SQL][SS] Optie snapshotStartBatchId en snapshotPartitionId toevoegen aan de statusgegevensbron
- [SPARK-48280] [SC-170293][SQL] Het oppervlakoppervlak voor sorteringstests verbeteren met behulp van expressies lopen
- [SPARK-48837] [SC-170540][ML] In CountVectorizer, alleen lezen binaire parameter eenmaal per transformatie, niet één keer per rij
- [SPARK-48803] [SC-170541][SQL] Interne fout genereren in Orc(De)serializer om te worden uitgelijnd met ParquetWriteSupport
- [SPARK-48764] [SC-170129][PYTHON] IPython-gerelateerde frames uit gebruikersstack filteren
- [SPARK-48818] [SC-170414][PYTHON] Functies vereenvoudigen
percentile
- [SPARK-48479] [SC-169079][SQL] Ondersteuning voor het maken van scalaire SQL UDF's en tabellen in parser
- [SPARK-48697] [SC-170122][LC-4703][SQL] Sorteringsbewuste tekenreeksfilters toevoegen
- [SPARK-48800] [SC-170409][VERBINDING MAKEN][SS] Deflake ClientStreamingQuerySuite
- [SPARK-48738] [SC-169814][SQL] Correct sinds versie voor ingebouwde func-alias
random
,position
, ,mod
,cardinality
,current_schema
,user
,session_user
,char_length
character_length
- [SPARK-48638] [SC-169575][VERBINDING MAKEN] Ondersteuning voor ExecutionInfo toevoegen voor DataFrame
- [SPARK-48064] [SC-164697][SQL] Foutberichten bijwerken voor routinefoutenklassen
- [SPARK-48810] [VERBINDING MAKEN] Sessiestop() API moet idempotent zijn en niet mislukken als de sessie al is gesloten door de server
- [SPARK-48650] [15.x][PYTHON] De juiste oproepsite weergeven vanuit IPython Notebook
- [SPARK-48271] [SC-166076][SQL] De overeenkomstfout in RowEncoder omzetten in UNSUPPORTED_DATA_TYPE_FOR_ENCODER
- [SPARK-48709] [SC-169603][SQL] Oplossing voor varchar-type komt niet overeen voor DataSourceV2 CTAS
- [SPARK-48792] [SC-170335][SQL] Regressie voor INSERT met gedeeltelijke kolomlijst herstellen naar een tabel met teken/varchar
- [SPARK-48767] [SC-170330][SQL] Enkele foutprompts oplossen wanneer
variant
typegegevens ongeldig zijn - [SPARK-48719] [SC-170339][SQL] Corrigeer de berekeningsfout van
RegrSlope
&RegrIntercept
wanneer de eerste parameter null is - [SPARK-48815] [SC-170334][VERBINDING MAKEN] Omgeving bijwerken bij het stoppen van de verbindingssessie
- [SPARK-48646] [SC-169020][PYTHON] Python-gegevensbron-API-docstring verfijnen en hints typen
- [SPARK-48806] [SC-170310][SQL] Werkelijke uitzondering doorgeven wanneer url_decode mislukt
- [SPARK-47777] [SC-168818] Test voor verbinding met python-streaminggegevensbron oplossen
- [SPARK-48732] [SC-169793][SQL] Afgeschaft API-gebruik opschonen met betrekking tot
JdbcDialect.compileAggregate
- [SPARK-48675] [SC-169538][SQL] Cachetabel met gesorteerde kolom herstellen
- [SPARK-48623] [SC-169034][CORE] Migraties voor gestructureerde logboekregistratie
- [SPARK-48655] [SC-169542][SQL] SPJ: Tests toevoegen voor het overslaan van willekeurige volgorde voor statistische query's
- [SPARK-48586] [SC-169808][SS] Vergrendelingsverwerving verwijderen in doMaintenance() door een diepe kopie te maken van bestandstoewijzingen in RocksDBFileManager in load()
- [SPARK-48799] [Backport][15.x][SC-170283][SS] Versiebeheer herstructureren voor lezen/schrijven van operatormetagegevens en bellers
- [SPARK-48808] [SC-170309][SQL] NPE oplossen bij het verbinden van thriftserver via Hive 1.2.1 en het resultaatschema is leeg
- [SPARK-48715] [SC-170291][SQL] UTF8String-validatie integreren in sorteringsbewuste tekenreeksfunctie-implementaties
- [SPARK-48747] [SC-170120][SQL] Codepunt-iterator toevoegen aan UTF8String
- [SPARK-48748] [SC-170115][SQL] Cache-numChars in UTF8String
- [SPARK-48744] [SC-169817][Core] Logboekvermelding mag slechts één keer worden samengesteld
- [SPARK-46122] [SC-164313][SQL] Standaard ingesteld op
spark.sql.legacy.createHiveTableByDefault
false
- [SPARK-48765] [SC-170119][IMPLEMENTEREN] Evaluatie van standaardwaarden verbeteren voor SPARK_IDENT_STRING
- [SPARK-48759] [SC-170128][SQL] Migratiedocument voor CREATE TABLE AS SELECT-gedrag wijzigen sinds Spark 3.4
- [SPARK-48598] [SC-169484][PYTHON][VERBINDING MAKEN] Schema in cache doorgeven in dataframebewerkingen
- [SPARK-48766] [SC-170126][PYTHON] Documenteer het gedragsverschil
extraction
tussenelement_at
entry_element_at
- [SPARK-48768] [SC-170124][PYTHON][VERBINDING MAKEN] Mag de cache niet opslaan
explain
- [SPARK-48770] [Backport][15.x][SC-170133][SS] Wijzig de metagegevens van de operator eenmaal in het stuurprogramma om te controleren of we informatie kunnen vinden voor numColsPrefixKey die wordt gebruikt voor sessievenster agg-query's
- [SPARK-48656] [SC-169529][CORE] Voer een lengtecontrole uit en genereert COLLECTION_SIZE_LIMIT_EXCEEDED fout in
CartesianRDD.getPartitions
- [SPARK-48597] [SC-168817][SQL] Een markering introduceren voor de eigenschap isStreaming in de tekstweergave van een logisch plan
- [SPARK-48472] [SC-169044][SQL] Expressies met gesorteerde tekenreeksen inschakelen
- [SPARK-48699] [SC-169597][SQL] Sorterings-API verfijnen
- [SPARK-48682] [SC-169812][SQL][GEDRAG-58] ICU gebruiken in InitCap-expressie voor UTF8_BINARY tekenreeksen
- [SPARK-48282] [SC-169813][SQL] Zoeklogica voor tekenreeksen wijzigen voor UTF8_BINARY_LCASE sortering (StringReplace, FindInSet)
- [SPARK-47353] [SC-169599][SQL] Ondersteuning voor sortering inschakelen voor de modusexpressie
- [SPARK-48320] [SPARK-48490] De nieuwste eigenschappen en testcases van OSS Spark synchroniseren
- [SPARK-48629] [SC-169479] De restcode migreren naar een gestructureerd framework voor logboekregistratie
- [SPARK-48681] [SC-169469][SQL][GEDRAG-58] ICU gebruiken in expressies onder/boven voor UTF8_BINARY tekenreeksen
- [SPARK-48573] [15.x][SC-169582][SQL] ICU-versie upgraden
- [SPARK-48687] [Backport][15.x][SS] Wijziging toevoegen om statusschemavalidatie uit te voeren en bij te werken op stuurprogramma voor stateful query's
- [SPARK-47579] [15.x][SC-167310][CORE][DEEL4] LogInfo migreren met variabelen naar een gestructureerd framework voor logboekregistratie
- [SPARK-48008] [SC-167363][1/2] Ondersteuning voor UDAF's in Spark Connect
- [SPARK-48578] [SC-169505][SQL] UTF8-tekenreeksvalidatiefuncties toevoegen
- [SPARK-48670] [SC-169598][SQL] Suggesties geven als onderdeel van een foutbericht wanneer er een ongeldige sorteringsnaam wordt gegeven
- [SPARK-48059] [SPARK-48145][SPARK-48134][SPARK-48182][SPARK-48209][BEVEILIGD-WACHTWOORDVERIFICATIE... … RK-48291] Gestructureerd logboekframework aan de java-zijde
- [SPARK-47599] [15.x][SC-166000][MLLIB] MLLib: LogWarn migreren met variabelen naar een gestructureerd framework voor logboekregistratie
- [SPARK-48706] [SC-169589][PYTHON] Python UDF in hogere volgorde functies mogen geen interne fout veroorzaken
- [SPARK-48498] [GEDRAG-38][SC-168060][SQL] Altijd tekenopvulling uitvoeren in predicaten
- [SPARK-48662] [SC-169533][SQL] StructsToXml-expressie met sorteringen herstellen
- [SPARK-48482] [SC-167702][PYTHON][15.x] dropDuplicates and dropDuplicatesWIthinWatermark moet variabele lengte args accepteren
- [SPARK-48678] [SC-169463][CORE] Prestatieoptimalisaties voor SparkConf.get(ConfigEntry)
- [SPARK-48576] [SQL] De naam van UTF8_BINARY_LCASE wijzigen in UTF8_LCASE
- [SPARK-47927] [SC-164123][SQL]: Los het kenmerk nullability in de UDF-decoder op
- [SPARK-47579] [SC-165297][CORE][DEEL1] LogInfo migreren met variabelen naar gestructureerd framework voor logboekregistratie (nieuw)
- [SPARK-48695] [SC-169473][PYTHON]
TimestampNTZType.fromInternal
de afgeschafte methoden niet gebruiken - [SPARK-48431] [SC-167290][LC-4066][SQL] Predicaten voor gesorteerde kolommen niet doorsturen naar bestandslezers
- [SPARK-47579] Revert "[SC-165297][CORE][PART1] Migrate logInfo with variables to structured logging framework"
- [SPARK-47585] [SC-164306][SQL] SQL Core: LogInfo migreren met variabelen naar een gestructureerd framework voor logboekregistratie
- [SPARK-48466] [SC-169042][SQL] Toegewezen knooppunt maken voor EmptyRelation in AQE
- [SPARK-47579] [SC-165297][CORE][DEEL1] LogInfo migreren met variabelen naar een gestructureerd framework voor logboekregistratie
- [SPARK-48410] [SC-168320][SQL] InitCap-expressie herstellen voor UTF8_BINARY_LCASE & ICU-sorteringen
- [SPARK-48318] [SC-167709][SQL] Ondersteuning voor hash-koppeling inschakelen voor alle sorteringen (complexe typen)
- [SPARK-48435] [SC-168128][SQL] Unicode-sortering mag geen ondersteuning bieden voor binaire gelijkheid
- [SPARK-48555] [SC-169041][SQL][PYTHON][VERBINDING MAKEN] Ondersteuning voor het gebruik van kolommen als parameters voor verschillende functies in pyspark/scala
- [SPARK-48591] [SC-169081][PYTHON] Een helperfunctie toevoegen om dit te vereenvoudigen
Column.py
- [SPARK-48574] [SC-169043][SQL] Ondersteuning voor StructTypes met sorteringen herstellen
- [SPARK-48305] [SC-166390][SQL] Ondersteuning voor sortering toevoegen voor CurrentLike-expressies
- [SPARK-48342] [SC-168941][SQL] Inleiding tot SQL Scripting Parser
- [SPARK-48649] [SC-169024][SQL] Voeg 'ignoreInvalidPartitionPaths' en 'spark.sql.files.ignoreInvalidPartitionPaths' toe om ongeldige partitiepaden te negeren
- [SPARK-48000] [SC-167194][SQL] Ondersteuning voor hash-koppeling inschakelen voor alle sorteringen (StringType)
- [SPARK-48459] [SC-168947][VERBINDING MAKEN][PYTHON] DataFrameQueryContext implementeren in Spark Connect
- [SPARK-48602] [SC-168692][SQL] Csv-generator ondersteunen verschillende uitvoerstijl met spark.sql.binaryOutputStyle
- [SPARK-48283] [SC-168129][SQL] Vergelijking van tekenreeksen wijzigen voor UTF8_BINARY_LCASE
- [SPARK-48610] [SC-168830][SQL] herstructureren: hulp-idMap gebruiken in plaats van OP_ID_TAG
- [SPARK-48634] [SC-169021][PYTHON][VERBINDING MAKEN] Vermijd het statisch initialiseren van threadpool bij ExecutePlanResponseReattachableIterator
- [SPARK-47911] [SC-164658][SQL] Introduceert een universele BinaryFormatter om binaire uitvoer consistent te maken
- [SPARK-48642] [SC-168889][CORE] False SparkOutOfMemoryError veroorzaakt door moordtaak bij overlopen
- [SPARK-48572] [SC-168844][SQL] DateSub-, DateAdd-, WindowTime-, TimeWindow- en SessionWindow-expressies herstellen
- [SPARK-48600] [SC-168841][SQL] Impliciete cast-expressies van FrameLessOffsetWindowFunction corrigeren
- [SPARK-48644] [SC-168933][SQL] Voer een lengtecontrole uit en gooi COLLECTION_SIZE_LIMIT_EXCEEDED fout in Hex.hex
- [SPARK-48587] [SC-168824][VARIANT] Opslagversterking voorkomen bij het openen van een subvariant
- [SPARK-48647] [SC-168936][PYTHON][VERBINDING MAKEN] Het foutbericht voor
YearMonthIntervalType
indf.collect
- [SPARK-48307] [SC-167802][SQL] InlineCTE moet niet-inline-relaties behouden in het oorspronkelijke WithCTE-knooppunt
- [SPARK-48596] [SC-168581][SQL] Prestatieverbetering voor het berekenen van hextekenreeks voor lange tijd
- [SPARK-48621] [SC-168726][SQL] Like-vereenvoudiging in Optimizer oplossen voor gesorteerde tekenreeksen
- [SPARK-47148] [SC-164179][SQL] Vermijd het materialiseren van AQE ExchangeQueryStageExec bij de annulering
- [SPARK-48584] [SC-168579][SQL] Prestatieverbetering voor unescapePathName
- [SPARK-48281] [SC-167260][SQL] Zoeklogica voor tekenreeksen wijzigen voor UTF8_BINARY_LCASE sortering (StringInStr, SubstringIndex)
- [SPARK-48577] [SC-168826][SQL] Ongeldige UTF-8 bytereeksvervanging
- [SPARK-48595] [SC-168580][CORE] Afgeschaft API-gebruik opschonen met betrekking tot
commons-compress
- [SPARK-48030] [SC-164303][SQL] SPJ: cache rowOrdering en structType voor InternalRowComparableWrapper
- [SPARK-48004] [SC-164005][SQL] WriteFilesExecBase-kenmerk toevoegen voor v1-schrijfbewerkingen
- [SPARK-48551] [SC-168438][SQL] Prestatieverbetering voor escapePathName
- [SPARK-48565] [SC-168437][UI] Weergave van threaddump in de gebruikersinterface herstellen
- [SPARK-48364] [SC-166782][SQL] AbstractMapType-type cast toevoegen en de parametertoewijzing RaiseError herstellen om te werken met gesorteerde tekenreeksen
- [SPARK-48421] [SC-168689][SQL] SPJ: documentatie toevoegen
- [SPARK-48604] [SC-168698][SQL] Afgeschafte methodeaanroep vervangen
new ArrowType.Decimal(precision, scale)
- [SPARK-46947] [SC-157561][CORE] Initialisatie van geheugenbeheer vertragen totdat de invoegtoepassing Stuurprogramma is geladen
- [SPARK-48411] [SC-168576][SS][PYTHON] E2E-test toevoegen voor DropDuplicateWithinWatermark
- [SPARK-48543] [SC-168697][SS] Validatiefouten van statusrijen bijhouden met behulp van expliciete foutklasse
- [SPARK-48221] [SC-167143][SQL] Zoeklogica voor tekenreeksen wijzigen voor UTF8_BINARY_LCASE sortering (Bevat, StartsWith, EndsWith, StringLocate)
- [SPARK-47415] [SC-168441][SQL] Ondersteuning voor sortering toevoegen voor Levenshtein-expressie
- [SPARK-48593] [SC-168719][PYTHON][VERBINDING MAKEN] De tekenreeksweergave van de lambda-functie herstellen
- [SPARK-48622] [SC-168710][SQL] haal SQLConf eenmaal op bij het omzetten van kolomnamen
- [SPARK-48594] [SC-168685][PYTHON][VERBINDING MAKEN] Naam van veld
child
wijzigenparent
in inColumnAlias
- [SPARK-48403] [SC-168319][SQL] Kleine en bovenste expressies voor UTF8_BINARY_LCASE & ICU-sorteringen herstellen
- [SPARK-48162] [SC-166062][SQL] Ondersteuning voor sortering toevoegen voor MISC-expressies
- [SPARK-48518] [SC-167718][CORE] LZF-compressie parallel uitvoeren
- [SPARK-48474] [SC-167447][CORE] Corrigeer de klassenaam van het logboek in
SparkSubmitArguments
&SparkSubmit
- [SPARK-48012] [SC-168267][SQL] SPJ: Ondersteuning voor Transfrom-expressies voor One Side Shuffle
- [SPARK-48552] [SC-168212][SQL] Csv-schemadeductie met meerdere regels moet ook FAILED_READ_FILE
- [SPARK-48560] [SC-168268][SS][PYTHON] StreamingQueryListener.spark-settable maken
- [SPARK-48569] [SC-168321][SS][VERBINDING MAKEN] Edge-aanvragen in query.name verwerken
- [SPARK-47260] [SC-167323][SQL] Naam toewijzen aan foutklasse _LEGACY_ERROR_TEMP_3250
- [SPARK-48564] [SC-168327][PYTHON][VERBINDING MAKEN] Schema in cache doorgeven in setbewerkingen
- [SPARK-48155] [SC-165910][SQL] AQEPropagateEmptyRelation voor join moet controleren of onderliggende items alleen BroadcastQueryStageExec zijn
- [SPARK-48506] [SC-167720][CORE] Korte namen van compressiecodecs zijn niet hoofdlettergevoelig, met uitzondering van gebeurtenislogboekregistratie
- [SPARK-48447] [SC-167607][SS] Statusarchiefproviderklasse controleren voordat u de constructor aanroept
- [SPARK-47977] [SC-167650] DateTimeUtils.timestampDiff en DateTimeUtils.timestampAdd mag geen INTERNAL_ERROR uitzondering genereren
- [SPARK-48513] [Backport][15.x][SC-168085][SS] Foutklasse toevoegen voor statusschemacompatibiliteit en kleine herstructurering
- [SPARK-48413] [SC-167669][SQL] ALTER COLUMN met sortering
- [SPARK-48561] [SC-168250][PS][VERBINDING MAKEN] Gooien
PandasNotImplementedError
voor niet-ondersteunde plottingsfuncties - [SPARK-48465] [SC-167531][SQL] Geen lege relatiedoorgifte voorkomen
- [SPARK-48553] [SC-168166][PYTHON][VERBINDING MAKEN] Meer eigenschappen in cache opslaan
- [SPARK-48540] [SC-168069][CORE] Laadinstellingen voor ivy-uitvoer vermijden in stdout
- [SPARK-48535] [SC-168057][SS] Configuratiedocumenten bijwerken om aan te geven dat gegevensverlies/beschadigingsprobleem mogelijk is als null-waarden voor de configuratie van stream-stream-joins zijn ingeschakeld
- [SPARK-48536] [SC-168059][PYTHON][VERBINDING MAKEN] Opgegeven schema cachegebruiker in applyInPandas en applyInArrow
- [SPARK-47873] [SC-163473][SQL] Gesorteerde tekenreeksen schrijven naar Hive-metastore met behulp van het normale tekenreekstype
- [SPARK-48461] [SC-167442][SQL] NullPointerExceptions vervangen door foutklasse in AssertNotNull-expressie
- [SPARK-47833] [SC-163191][SQL][CORE] Stackstrace van aanroeper voor checkAndGlobPathIfNecessary AnalysisException
- [SPARK-47898] [SC-163146][SQL] Poort HIVE-12270: DBTokenStore-ondersteuning toevoegen aan HS2-overdrachtstoken
- [SPARK-47578] [SC-167497][R] RPackageUtils migreren met variabelen naar gestructureerd framework voor logboekregistratie
- [SPARK-47875] [SC-162935][CORE] Verwijderen
spark.deploy.recoverySerializer
- [SPARK-47552] [SC-160880][CORE] Ingesteld
spark.hadoop.fs.s3a.connection.establish.timeout
op 30 als deze ontbreekt - [SPARK-47972] [SC-167692][SQL] CAST-expressie voor sorteringen beperken
- [SPARK-48430] [SC-167489][SQL] Toewijzingswaardeextractie herstellen wanneer toewijzing gesorteerde tekenreeksen bevat
- [SPARK-47318] [SC-162712][CORE][3.5] Voegt HKDF-ronde toe aan AuthEngine-sleutelderivatie om de standaard KEX-procedures te volgen
- [SPARK-48503] [GEDRAG-29][ES-1135236][SQL] Ongeldige scalaire subquery's herstellen met groeperen op niet-equivalente kolommen die onjuist waren toegestaan
- [SPARK-48508] [SC-167695][VERBINDING MAKEN][PYTHON] Opgegeven schema van cachegebruiker in
DataFrame.{to, mapInPandas, mapInArrow}
- [SPARK-23015] [SC-167188][WINDOWS] Fout in Windows oplossen waarbij het starten van meerdere Spark-exemplaren binnen dezelfde seconde een fout veroorzaakt
- [SPARK-45891] [SC-167608]Revert " Describe shredding scheme for Variant"
- [SPARK-48391] [SC-167554][CORE]AddAll gebruiken in plaats van functie toevoegen in fromAccumulatorInfos-methode van TaskMetrics-klasse
- [SPARK-48496] [SC-167600][CORE] Statische regex-patroonex-exemplaren gebruiken in JavaUtils.timeStringAs en JavaUtils.byteStringAs
- [SPARK-48476] [SC-167488][SQL] NPE-foutbericht voor null delmiter CSV oplossen
- [SPARK-48489] [SC-167598][SQL] Een betere, gebruikersgerichte fout bij het lezen van een ongeldig schema uit de tekstgegevensbron
- [SPARK-48471] [SC-167324][CORE] Documentatie en gebruikshandleiding voor geschiedenisserver verbeteren
- [SPARK-45891] [SC-167597] Het shreddingschema voor variant beschrijven
- [SPARK-47333] [SC-159043][SQL] CheckInputDataTypes gebruiken om de parametertypen van de functie te controleren
to_xml
- [SPARK-47387] [SC-159310][SQL] Enkele ongebruikte foutklassen verwijderen
- [SPARK-48265] [ES-1131440][SQL] De groepslimietbatch voor vensters afleiden moet constant vouwen
- [SPARK-47716] [SC-167444][SQL] Weergavenaamconflict voorkomen in semantische sorteercase van SQLQueryTestSuite
- [SPARK-48159] [SC-167141][SQL] Ondersteuning voor gesorteerde tekenreeksen uitbreiden op datum/tijd-expressies
- [SPARK-48462] [SC-167271][SQL][Tests] Gebruiken metSQLConf in tests: HiveQuerySuite en HiveTableScanSuite herstructureren
- [SPARK-48392] [SC-167195][CORE]
spark-defaults.conf
Laden indien opgegeven--properties-file
- [SPARK-48468] [SC-167417] LogicalQueryStage-interface toevoegen in katalysator
- [SPARK-47578] [SC-164988][CORE] Handmatige backport voor Spark PR #46309: LogWarning migreren met variabelen naar gestructureerd framework voor logboekregistratie
- [SPARK-48415] [SC-167321]'[PYTHON] TypeName herstructureren ter ondersteuning van geparameteriseerde gegevenstypen'
- [SPARK-46544] [SC-151361][SQL] Ondersteuning voor v2 DESCRIBE TABLE EXTENDED met tabelstatistieken
- [SPARK-48325] [SC-166963][CORE] Altijd berichten opgeven in ExecutorRunner.killProcess
- [SPARK-46841] [SC-167139][SQL] Ondersteuning voor sortering voor ICU-landinstellingen en sorteringsaanduidingen toevoegen
- [SPARK-47221] [SC-157870][SQL] Maakt gebruik van handtekeningen van CsvParser naar AbstractParser
- [SPARK-47246] [SC-158138][SQL] Vervangen
InternalRow.fromSeq
doornew GenericInternalRow
het opslaan van een verzamelingsconversie - [SPARK-47597] [SC-163932][STREAMING] Handmatige backport voor Spark PR #46192: Streaming: LogInfo migreren met variabelen naar gestructureerd logboeklogboekframework
- [SPARK-48415] [SC-167130][PYTHON] Herstructureren
TypeName
ter ondersteuning van geparameteriseerde gegevenstypen - [SPARK-48434] [SC-167132][PYTHON][VERBINDING MAKEN] Gebruik
printSchema
het schema in de cache - [SPARK-48432] [ES-1097114][SQL] Vermijd het opheffen van gehele getallen in UnivocityParser
- [SPARK-47463] [SC-162840][SQL] V2Predicate gebruiken om expressies te verpakken met het retourtype Booleaanse waarde
- [SPARK-47781] [SC-162293][SQL] Negatieve schaaldecimaaltekens verwerken voor JDBC-gegevensbronnen
- [SPARK-48394] [SC-166966][CORE] MapIdToMapIndex opschonen op mapoutput unregister
- [SPARK-47072] [SC-156933][SQL] Ondersteunde intervalindelingen in foutberichten herstellen
- [SPARK-47001] [SC-162487][SQL] Pushdown-verificatie in optimizer
- [SPARK-48335] [SC-166387][PYTHON][VERBINDING MAKEN] Compatibel
_parse_datatype_string
maken met Spark Connect - [SPARK-48329] [SC-166518][SQL] Standaard inschakelen
spark.sql.sources.v2.bucketing.pushPartValues.enabled
- [SPARK-48412] [SC-166898][PYTHON] JSON-parsering van gegevenstype herstructureren
- [SPARK-48215] [SC-166781][SQL] Ondersteuning voor gesorteerde tekenreeksen op date_format expressie uitbreiden
- [SPARK-45009] [SC-166873][SQL][OPVOLGEN] Foutklasse en tests toevoegen voor decorrelation van subquery's van predicaat in joinvoorwaarde die verwijzen naar onderliggende join
- [SPARK-47960] [SC-165295][SS][15.x] Toestaan dat andere stateful operators worden gekoppeld na de transformWithState-operator.
- [SPARK-48340] [SC-166468][PYTHON] Het schema van TimestampNTZ wordt afgeleid door ontbrekende prefer_timestamp_ntz
- [SPARK-48157] [SC-165902][SQL] Ondersteuning voor sortering toevoegen voor CSV-expressies
- [SPARK-48158] [SC-165652][SQL] Ondersteuning voor sortering voor XML-expressies toevoegen
- [SPARK-48160] [SC-166064][SQL] Ondersteuning voor sortering toevoegen voor XPATH-expressies
- [SPARK-48229] [SC-165901][SQL] Ondersteuning voor sortering toevoegen voor inputFile-expressies
- [SPARK-48367] [SC-166487][VERBINDING MAKEN] Lint-scala voor scalafmt herstellen om bestanden te detecteren die correct zijn opgemaakt
- [SPARK-47858] [SC-163095][SPARK-47852][PYTHON][SQL] De structuur herstructureren voor dataframe-foutcontext
- [SPARK-48370] [SC-166787][VERBINDING MAKEN] Controlepunt en localCheckpoint in Scala Spark Connect-client
- [SPARK-48247] [SC-166028][PYTHON] Alle waarden in een dict gebruiken bij het uitstellen van het MapType-schema
- [SPARK-48395] [SC-166794][PYTHON] Oplossing
StructType.treeString
voor geparameteriseerde typen - [SPARK-48393] [SC-166784][PYTHON] Een groep constanten verplaatsen naar
pyspark.util
- [SPARK-48372] [SC-166776][SPARK-45716][PYTHON] Implementeren
StructType.treeString
- [SPARK-48258] [SC-166467][PYTHON][VERBINDING MAKEN] Controlepunt en localCheckpoint in Spark Connect
Zie onderhoudsupdates voor Databricks Runtime 15.4 LTS.
Systeemomgeving
- Besturingssysteem: Ubuntu 22.04.4 LTS
- Java: Zulu 8.78.0.19-CA-linux64
- Scala: 2.12.18
- Python: 3.11.0
- R: 4.3.2
- Delta Lake: 3.2.0
Geïnstalleerde Python-bibliotheken
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
asttokens | 2.0.5 | astunparse | 1.6.3 | azure-core | 1.30.2 |
azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 | backcall | 0.2.0 |
zwart | 23.3.0 | oogklep | 1.4 | boto3 | 1.34.39 |
botocore | 1.34.39 | cachetools | 5.3.3 | certifi | 2023.7.22 |
cffiffi | 1.15.1 | chardet | 4.0.0 | charset-normalizer | 2.0.4 |
klikken | 8.0.4 | cloudpickle | 2.2.1 | comm | 0.1.2 |
contourpy | 1.0.5 | cryptografie | 41.0.3 | wielrijder | 0.11.0 |
Cython | 0.29.32 | databricks-sdk | 0.20.0 | dbus-python | 1.2.18 |
foutopsporing | 1.6.7 | decorateur | 5.1.1 | distlib | 0.3.8 |
invoerpunten | 0,4 | Uitvoeren | 0.8.3 | facets-overview | 1.1.1 |
filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.31.0 |
google-cloud-core | 2.4.1 | google-cloud-storage | 2.17.0 | google-crc32c | 1.5.0 |
google-resumable-media | 2.7.1 | googleapis-common-protos | 1.63.2 | grpcio | 1.60.0 |
grpcio-status | 1.60.0 | httplib2 | 0.20.2 | idna | 3.4 |
importlib-metadata | 6.0.0 | ipyflow-core | 0.0.198 | ipykernel | 6.25.1 |
ipython | 8.15.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
isodate | 0.6.1 | jedi | 0.18.1 | Jeepney | 0.7.1 |
jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
jupyter_core | 5.3.0 | sleutelhanger | 23.5.0 | kiwisolver | 1.4.4 |
launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
numpy | 1.23.5 | oauthlib | 3.2.0 | verpakking | 23.2 |
Pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
Patsy | 0.5.3 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Kussen | 9.4.0 | pit | 23.2.1 | platformdirs | 3.10.0 |
plotly | 5.9.0 | prompt-toolkit | 3.0.36 | proto-plus | 1.24.0 |
protobuf | 4.24.1 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
ptyprocess | 0.7.0 | pure-eval | 0.2.2 | pyarrow | 14.0.1 |
pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.52 |
pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.38 |
pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.1 |
pytz | 2022.7 | PyYAML | 6,0 | pyzmq | 23.2.0 |
requests | 2.31.0 | RSA | 4.9 | s3transfer | 0.10.2 |
scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
SecretStorage | 3.3.1 | setuptools | 68.0.0 | Zes | 1.16.0 |
smmap | 5.0.1 | sqlparse | 0.5.0 | ssh-import-id | 5,11 |
stack-data | 0.2.0 | statsmodels | 0.14.0 | vasthoudendheid | 8.2.2 |
threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tornado | 6.3.2 |
traitlets | 5.7.1 | typing_extensions | 4.10.0 | tzdata | 2022.1 |
ujson | 5.4.0 | upgrades zonder toezicht | 0,1 | urllib3 | 1.26.16 |
virtualenv | 20.24.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
wiel | 0.38.4 | zipp | 3.11.0 |
Geïnstalleerde R-bibliotheken
R-bibliotheken worden geïnstalleerd vanuit de Posit Pakketbeheer CRAN-momentopname.
Bibliotheek | Versie | Bibliotheek | Versie | Bibliotheek | Versie |
---|---|---|---|---|---|
pijl | 14.0.0.2 | askpass | 1.2.0 | assertthat | 0.2.1 |
backports | 1.4.1 | base | 4.3.2 | base64enc | 0.1-3 |
bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
bitops | 1.0-7 | blob | 1.2.4 | opstarten | 1.3-28 |
brouwsel | 1.0-10 | Brio | 1.1.4 | bezem | 1.0.5 |
bslib | 0.6.1 | cachem | 1.0.8 | beller | 3.7.3 |
caret | 6.0-94 | cellranger | 1.1.0 | Chron | 2.3-61 |
class | 7.3-22 | cli | 3.6.2 | clipr | 0.8.0 |
klok | 0.7.0 | cluster | 2.1.4 | codetools | 0.2-19 |
colorspace | 2.1-0 | commonmark | 1.9.1 | compiler | 4.3.2 |
configuratie | 0.3.2 | Strijd | 1.2.0 | cpp11 | 0.4.7 |
Crayon | 1.5.2 | aanmeldingsgegevens | 2.0.1 | curl | 5.2.0 |
data.table | 1.15.0 | gegevenssets | 4.3.2 | DBI | 1.2.1 |
dbplyr | 2.4.0 | Desc | 1.4.3 | devtools | 2.4.5 |
diagram | 1.6.5 | diffobj | 0.3.5 | verteren | 0.6.34 |
downlit | 0.4.3 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
e1071 | 1.7-14 | beletselteken | 0.3.2 | evaluate | 0.23 |
fansi | 1.0.6 | farver | 2.1.1 | fastmap | 1.1.1 |
fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
buitenlands | 0.8-85 | smeden | 0.2.0 | Fs | 1.6.3 |
toekomst | 1.33.1 | future.apply | 1.11.1 | gorgelen | 1.5.2 |
Generics | 0.1.3 | Gert | 2.0.1 | ggplot2 | 3.4.4 |
Gh | 1.4.0 | git2r | 0.33.0 | gitcreds | 0.1.2 |
glmnet | 4.1-8 | globals | 0.16.2 | lijm | 1.7.0 |
googledrive | 2.1.1 | googlesheets4 | 1.1.1 | Gower | 1.0.1 |
afbeeldingen | 4.3.2 | grDevices | 4.3.2 | rooster | 4.3.2 |
gridExtra | 2.3 | gsubfn | 0,7 | gt | 0.10.1 |
gtable | 0.3.4 | hardhat | 1.3.1 | haven | 2.5.4 |
highr | 0.10 | Hms | 1.1.3 | htmltools | 0.5.7 |
htmlwidgets | 1.6.4 | httpuv | 1.6.14 | httr | 1.4.7 |
httr2 | 1.0.0 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-14 | isoband | 0.2.7 | Iterators | 1.0.14 |
jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
KernSmooth | 2.23-21 | breiwerk | 1.45 | Labeling | 0.4.3 |
later | 1.3.2 | latwerk | 0.21-8 | lava | 1.7.3 |
levenscyclus | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
magrittr | 2.0.3 | Markdown | 1.12 | MASSA | 7.3-60 |
Matrix | 1.5-4.1 | memoise | 2.0.1 | methoden | 4.3.2 |
mgcv | 1.8-42 | Mime | 0,12 | miniUI | 0.1.1.1 |
mlflow | 2.10.0 | ModelMetrics | 1.2.2.2 | modeller | 0.1.11 |
munsell | 0.5.0 | nlme | 3.1-163 | nnet | 7.3-19 |
numDeriv | 2016.8-1.1 | openssl | 2.1.1 | parallel | 4.3.2 |
parallel | 1.36.0 | pilaar | 1.9.0 | pkgbuild | 1.4.3 |
pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.4 |
plogr | 0.2.0 | plyr | 1.8.9 | loven | 1.0.0 |
prettyunits | 1.2.0 | Proc | 1.18.5 | processx | 3.8.3 |
prodlim | 2023.08.28 | profvis | 0.3.8 | Voortgang | 1.2.3 |
progressr | 0.14.0 | Beloften | 1.2.1 | Proto | 1.0.0 |
proxy | 0.4-27 | ps | 1.7.6 | purrr | 1.0.2 |
R6 | 2.5.1 | ragg | 1.2.7 | randomForest | 4.7-1.1 |
rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
Rcpp | 1.0.12 | RcppEigen | 0.3.3.9.4 | reactable | 0.4.4 |
reactR | 0.5.0 | leesbewerking | 2.1.5 | readxl | 1.4.3 |
recepten | 1.0.9 | Rematch | 2.0.0 | opnieuw overeenkomen2 | 2.1.2 |
Afstandsbedieningen | 2.4.2.1 | reprex | 2.1.0 | hervorm2 | 1.4.4 |
rlang | 1.1.3 | rmarkdown | 2,25 | RODBC | 1.3-23 |
roxygen2 | 7.3.1 | rpart | 4.1.21 | rprojroot | 2.0.4 |
Rserve | 1.8-13 | RSQLite | 2.3.5 | rstudioapi | 0.15.0 |
rversions | 2.1.2 | rvest | 1.0.3 | Sass | 0.4.8 |
weegschaal | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
vorm | 1.4.6 | glanzend | 1.8.0 | sourcetools | 0.1.7-1 |
sparklyr | 1.8.4 | ruimtelijk | 7.3-15 | Splines | 4.3.2 |
sqldf | 0.4-11 | SQUAREM | 2021.1 | Stats | 4.3.2 |
stats4 | 4.3.2 | stringi | 1.8.3 | stringr | 1.5.1 |
overleving | 3.5-5 | swagger | 3.33.1 | sys | 3.4.2 |
systemfonts | 1.0.5 | tcltk | 4.3.2 | testthat | 3.2.1 |
tekstvorm | 0.3.7 | tibble | 3.2.1 | tidyr | 1.3.1 |
tidyselect | 1.2.0 | tidyverse | 2.0.0 | timechange | 0.3.0 |
timeDate | 4032.109 | tinytex | 0,49 | tools | 4.3.2 |
tzdb | 0.4.0 | urlchecker | 1.0.1 | usethis | 2.2.2 |
utf8 | 1.2.4 | utils | 4.3.2 | uuid | 1.2-0 |
V8 | 4.4.1 | vctrs | 0.6.5 | viridisLite | 0.4.2 |
Vroom | 1.6.5 | Waldo | 0.5.2 | snor | 0.4.1 |
withr | 3.0.0 | xfun | 0,41 | xml2 | 1.3.6 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.3.8 |
zeallot | 0.1.0 | ritssluiting | 2.3.1 |
Geïnstalleerde Java- en Scala-bibliotheken (Scala 2.12-clusterversie)
Groeps-id | Artefact-id | Versie |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudformation | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudfront | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.12.610 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.610 |
com.amazonaws | aws-java-sdk-codedeploy | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.610 |
com.amazonaws | aws-java-sdk-cognitosync | 1.12.610 |
com.amazonaws | aws-java-sdk-config | 1.12.610 |
com.amazonaws | aws-java-sdk-core | 1.12.610 |
com.amazonaws | aws-java-sdk-datapipeline | 1.12.610 |
com.amazonaws | aws-java-sdk-directconnect | 1.12.610 |
com.amazonaws | aws-java-sdk-directory | 1.12.610 |
com.amazonaws | aws-java-sdk-dynamodb | 1.12.610 |
com.amazonaws | aws-java-sdk-ec2 | 1.12.610 |
com.amazonaws | aws-java-sdk-ecs | 1.12.610 |
com.amazonaws | aws-java-sdk-efs | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticache | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.610 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.610 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.610 |
com.amazonaws | aws-java-sdk-emr | 1.12.610 |
com.amazonaws | aws-java-sdk-glacier | 1.12.610 |
com.amazonaws | aws-java-sdk-glue | 1.12.610 |
com.amazonaws | aws-java-sdk-iam | 1.12.610 |
com.amazonaws | aws-java-sdk-importexport | 1.12.610 |
com.amazonaws | aws-java-sdk-kinesis | 1.12.610 |
com.amazonaws | aws-java-sdk-kms | 1.12.610 |
com.amazonaws | aws-java-sdk-lambda | 1.12.610 |
com.amazonaws | aws-java-sdk-logs | 1.12.610 |
com.amazonaws | aws-java-sdk-machinelearning | 1.12.610 |
com.amazonaws | aws-java-sdk-opsworks | 1.12.610 |
com.amazonaws | aws-java-sdk-rds | 1.12.610 |
com.amazonaws | aws-java-sdk-redshift | 1.12.610 |
com.amazonaws | aws-java-sdk-route53 | 1.12.610 |
com.amazonaws | aws-java-sdk-s3 | 1.12.610 |
com.amazonaws | aws-java-sdk-ses | 1.12.610 |
com.amazonaws | aws-java-sdk-simpledb | 1.12.610 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.610 |
com.amazonaws | aws-java-sdk-sns | 1.12.610 |
com.amazonaws | aws-java-sdk-sqs | 1.12.610 |
com.amazonaws | aws-java-sdk-ssm | 1.12.610 |
com.amazonaws | aws-java-sdk-storagegateway | 1.12.610 |
com.amazonaws | aws-java-sdk-sts | 1.12.610 |
com.amazonaws | aws-java-sdk-support | 1.12.610 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.12.610 |
com.amazonaws | jmespath-java | 1.12.610 |
com.clearspring.analytics | stroom | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | databricks-sdk-java | 0.27.0 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-gearceerd | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | klasgenoot | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotaties | 2.15.2 |
com.fasterxml.jackson.core | jackson-core | 2.15.2 |
com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
com.github.ben-manes.cafeïne | cafeïne | 2.9.3 |
com.github.fommil | jniloader | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1 |
com.github.fommil.netlib | native_ref-java | 1.1-natives |
com.github.fommil.netlib | native_system-java | 1.1 |
com.github.fommil.netlib | native_system-java | 1.1-natives |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
com.github.luben | zstd-jni | 1.5.5-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.10.1 |
com.google.crypto.tink | Tink | 1.9.0 |
com.google.errorprone | error_prone_annotations | 2.10.0 |
com.google.flatbuffers | flatbuffers-java | 23.5.26 |
com.google.guava | guave | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.helger | profiler | 1.1.1 |
com.ibm.icu | icu4j | 75.1 |
com.jcraft | jsch | 0.1.55 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
com.ning | compress-lzf | 1.1.2 |
com.sun.mail | javax.mail | 1.5.2 |
com.sun.xml.bind | jaxb-core | 2.2.11 |
com.sun.xml.bind | jaxb-impl | 2.2.11 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | configuratie | 1.4.3 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.uber | h3 | 3.7.3 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.5.0 |
commons-codec | commons-codec | 1.16.0 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.5 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.13.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-pool | commons-pool | 1.5.4 |
dev.netje.netlib | arpack | 3.0.3 |
dev.netje.netlib | Blas | 3.0.3 |
dev.netje.netlib | lapack | 3.0.3 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0.25 |
io.delta | delta-sharing-client_2.12 | 1.1.1 |
io.dropwizard.metrics | metrische aantekening | 4.2.19 |
io.dropwizard.metrics | metrische gegevenskern | 4.2.19 |
io.dropwizard.metrics | metrische gegevensgrafiet | 4.2.19 |
io.dropwizard.metrics | metrische statuscontroles | 4.2.19 |
io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
io.dropwizard.metrics | metrics-jmx | 4.2.19 |
io.dropwizard.metrics | metrics-json | 4.2.19 |
io.dropwizard.metrics | metrics-jvm | 4.2.19 |
io.dropwizard.metrics | metrics-servlets | 4.2.19 |
io.netty | netty-all | 4.1.96.Final |
io.netty | netty-buffer | 4.1.96.Final |
io.netty | netty-codec | 4.1.96.Final |
io.netty | netty-codec-http | 4.1.96.Final |
io.netty | netty-codec-http2 | 4.1.96.Final |
io.netty | netty-codec-sokken | 4.1.96.Final |
io.netty | netty-common | 4.1.96.Final |
io.netty | netty-handler | 4.1.96.Final |
io.netty | netty-handler-proxy | 4.1.96.Final |
io.netty | netty-resolver | 4.1.96.Final |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-linux-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-aarch_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-osx-x86_64 |
io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-windows-x86_64 |
io.netty | netty-tcnative-classes | 2.0.61.Final |
io.netty | netty-transport | 4.1.96.Final |
io.netty | netty-transport-classes-epoll | 4.1.96.Final |
io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-aarch_64 |
io.netty | netty-transport-native-epoll | 4.1.96.Final-linux-x86_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
io.netty | netty-transport-native-unix-common | 4.1.96.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | verzamelaar | 0.12.0 |
jakarta.annotatie | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activering | 1.1.1 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1.1 |
javax.transaction | transaction-api | 1.1 |
javax.xml.bind | jaxb-api | 2.2.11 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.12.1 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pekelen | 1.3 |
net.sf.jpam | jpam | 1.1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-CSV | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4.9.3 |
org.antlr | tekenreekstemplate | 3.2.1 |
org.apache.ant | ant | 1.10.11 |
org.apache.ant | ant-jsch | 1.10.11 |
org.apache.ant | ant-launcher | 1.10.11 |
org.apache.arrow | pijlnotatie | 15.0.0 |
org.apache.arrow | arrow-memory-core | 15.0.0 |
org.apache.arrow | arrow-memory-netty | 15.0.0 |
org.apache.arrow | pijlvector | 15.0.0 |
org.apache.avro | avro | 1.11.3 |
org.apache.avro | avro-ipc | 1.11.3 |
org.apache.avro | avro-mapred | 1.11.3 |
org.apache.commons | commons-collections4 | 4.4 |
org.apache.commons | commons-compress | 1.23.0 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.6.1 |
org.apache.commons | commons-text | 1.10.0 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recepten | 2.13.0 |
org.apache.datasketches | datasketches-java | 3.1.0 |
org.apache.datasketches | datasketches-memory | 2.0.0 |
org.apache.derby | Derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.8.1 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.httpcomponents | httpclient | 4.5.14 |
org.apache.httpcomponents | httpcore | 4.4.16 |
org.apache.ivy | klimop | 2.5.1 |
org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
org.apache.logging.log4j | log4j-api | 2.22.1 |
org.apache.logging.log4j | log4j-core | 2.22.1 |
org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
org.apache.orc | orc-shims | 1.9.2 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
org.apache.xbean | xbean-asm9-gearceerd | 4.23 |
org.apache.yetus | aantekeningen voor doelgroepen | 0.13.0 |
org.apache.zookeeper | zookeeper | 3.6.3 |
org.apache.zookeeper | zookeeper-jute | 3.6.3 |
org.checkerframework | checker-qual | 3.31.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.collections | eclipse-collections | 11.1.0 |
org.eclipse.collections | eclipse-collections-api | 11.1.0 |
org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-vervolg | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance opnieuw verpakt | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
org.glassfish.jersey.core | jersey-client | 2.40 |
org.glassfish.jersey.core | jersey-common | 2.40 |
org.glassfish.jersey.core | jersey-server | 2.40 |
org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
org.hibernate.validator | sluimerstand-validator | 6.1.7.Final |
org.ini4j | ini4j | 0.5.4 |
org.javassist | javassist | 3.29.2-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | Aantekeningen | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.8.0 |
org.mlflow | mlflow-spark_2.12 | 2.9.1 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.6.1 |
org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
org.roaringbitmap | Shims | 0.9.45-databricks |
org.rocksdb | rocksdbjni | 8.11.4 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.15 |
org.scala-lang | scala-library_2.12 | 2.12.15 |
org.scala-lang | scala-reflect_2.12 | 2.12.15 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.2.15 |
org.scalanlp | breeze-macros_2.12 | 2.1.0 |
org.scalanlp | breeze_2.12 | 2.1.0 |
org.scalatest | scalatest-compatibel | 3.2.15 |
org.scalatest | scalatest-core_2.12 | 3.2.15 |
org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
org.scalatest | scalatest_2.12 | 3.2.15 |
org.slf4j | jcl-over-slf4j | 2.0.7 |
org.slf4j | jul-to-slf4j | 2.0.7 |
org.slf4j | slf4j-api | 2.0.7 |
org.slf4j | slf4j-simple | 1.7.25 |
org.threeten | threeten-extra | 1.7.1 |
org.tukaani | xz | 1,9 |
org.typelevel | algebra_2.12 | 2.0.1 |
org.typelevel | katten-kernel_2.12 | 2.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0 |
org.typelevel | spire-platform_2.12 | 0.17.0 |
org.typelevel | spire-util_2.12 | 0.17.0 |
org.typelevel | spire_2.12 | 0.17.0 |
org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
org.xerial | sqlite-jdbc | 3.42.0.0 |
org.xerial.snappy | snappy-java | 1.1.10.3 |
org.yaml | snakeyaml | 2.0 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.2-linux-x86_64 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |