Databricks Runtime 4.0 (EoS)
Poznámka:
Podpora této verze Databricks Runtime skončila. Datum ukončení podpory najdete v tématu Historie ukončení podpory. Všechny podporované verze databricks Runtime najdete v poznámkách k verzi Databricks Runtime a kompatibilitu.
Databricks vydala tuto verzi v březnu 2018.
Důležité
Tato verze byla vyřazena 1. listopadu 2018. Další informace o zásadách vyřazení databricks Runtime a plánu najdete v tématu Životní cyklus podpory Databricks.
Následující poznámky k verzi obsahují informace o modulu Databricks Runtime 4.0, který využívá Apache Spark.
Změny a vylepšení
- Zdroj dat JSON se teď pokouší automaticky rozpoznat kódování, a ne za předpokladu, že se jedná o UTF-8. V případech, kdy automatické zjišťování selže, můžou uživatelé zadat možnost znakové sady pro vynucení určitého kódování. Viz automatická detekce znakové sady.
- Bodování a predikce pomocí kanálů Spark MLlib ve strukturovaném streamování je plně podporované.
- Export modelu ML Databricks je plně podporovaný. Pomocí této funkce můžete vytrénovat model Spark MLlib v Databricks, exportovat ho pomocí volání funkce a použít knihovnu Databricks v systému podle vašeho výběru k importu modelu a určení skóre nových dat.
- Nová implementace zdroje dat Sparku nabízí škálovatelný přístup pro čtení a zápis ke službě Azure Synapse Analytics. Viz Spark – Konektor Synapse Analytics.
- Schéma
from_json
funkce je nyní vždy převedeno na hodnotu nullable. Jinými slovy, všechna pole včetně vnořených polí mají hodnotu null. Tím se zajistí, že data jsou kompatibilní se schématem, což brání poškození po zápisu dat do parquet, když v datech chybí pole, a schéma poskytnuté uživatelem deklaruje pole jako nenulové. - Upgradovali jste některé nainstalované knihovny Pythonu:
- futures: od 3.1.1 do 3.2.0
- pandas: od 0.18.1 do 0.19.2
- pyarrow: od 0.4.1 do 0.8.0
- instalační nástroje: od 38.2.3 do 38.5.1
- tornado: 4.5.2 až 4.5.3
- Upgradovali jsme několik nainstalovaných knihoven R. Viz nainstalované knihovny jazyka R.
- Upgradovali sadu AWS Java SDK z verze 1.11.126 na verzi 1.11.253.
- Upgrade ovladače SQL Server JDBC z verze 6.1.0.jre8 na 6.2.2.jre8.
- Upgrade ovladače PostgreSQL JDBC z verze 9.4-1204-jdbc41 na 42.1.4.
Apache Spark
Databricks Runtime 4.0 zahrnuje Apache Spark 2.3.0.
Core, PySpark a Spark SQL
Hlavní funkce
- Vektorizovaná čtečka ORC: [SPARK-16060]: Přidává podporu pro novou čtečku ORC, která podstatně zlepšuje propustnost skenování ORC prostřednictvím vektorizace (2–5x). Pokud chcete čtenáři povolit, můžou uživatelé nastavit
spark.sql.orc.impl
.native
- Spark History Server V2: [SPARK-18085]: Nový back-end serveru historie Sparku (SHS), který poskytuje lepší škálovatelnost pro rozsáhlé aplikace s efektivnějším mechanismem úložiště událostí.
- Rozhraní API zdroje dat V2: [SPARK-15689][SPARK-22386]: Experimentální rozhraní API pro připojení nových zdrojů dat ve Sparku. Nové rozhraní API se snaží vyřešit několik omezení rozhraní API V1 a má za cíl usnadnit vývoj vysoce výkonných, snadno udržovatých a rozšiřitelných externích zdrojů dat. Toto rozhraní API stále prochází aktivním vývojem a zásadními změnami by se měly očekávat.
- Vylepšení výkonu PySpark: [SPARK-22216][SPARK-21187]: Významná vylepšení výkonu a interoperability Pythonu díky rychlé serializaci dat a vektorizovanému provádění.
Výkon a stabilita
- [SPARK-21975]: Podpora histogramu v optimalizátoru založeném na nákladech
- [SPARK-20331]: Lepší podpora vyřazení predikátu pro vyřazení oddílů Hive
- [SPARK-19112]: Podpora kodeku komprese ZStandard.
- [SPARK-21113]: Podpora vstupního streamu pro čtení do amortizace vstupně-výstupních nákladů na disk ve čtečce přelití.
- [SPARK-22510][SPARK-22692][SPARK-21871]: Dále stabilizujte architekturu codegen, abyste se vyhnuli dosažení limitu 64KB bajtového kódu JVM u metody Java a limitu konstantního fondu kompilátoru Java.
- [SPARK-23207]: Opravili jsme dlouhou chybu ve Sparku, kdy po sobě jdoucí shuffle+repartition v datovém rámci mohlo vést k nesprávným odpovědím v některých chirurgických případech.
- [SPARK-22062][SPARK-17788][SPARK-21907]: Opravte různé příčiny OOM.
- [SPARK-22489][SPARK-22916][SPARK-22895][SPARK-20758][SPARK-22266][SPARK-19122][SPARK-22662][SPARK-21652]: Vylepšení optimalizátoru a plánovače založeného na pravidlech.
Další velmi vhodné změny
- [SPARK-20236]: Podpora dynamického oddílu ve stylu Hive přepsat sémantiku.
- [SPARK-4131]: Podpora
INSERT OVERWRITE DIRECTORY
zápisu dat přímo do systému souborů z dotazu. - [SPARK-19285][SPARK-22945][SPARK-21499][SPARK-20586][SPARK-20416][SPARK-20668]: Vylepšení UDF.
- [SPARK-20463][SPARK-19951][SPARK-22934][SPARK-21055][SPARK-17729][SPARK-20962][SPARK-20963][SPARK-20841][SPARK-17642][SPARK-22475][SPARK-22934]: Vylepšili jsme dodržování předpisů ANSI SQL a kompatibilitu Hive.
- [SPARK-20746]: Komplexnější integrované funkce SQL.
- [SPARK-21485]: Generování dokumentace Spark SQL pro integrované funkce
- [SPARK-19810]: Odeberte podporu pro Scala
2.10
. - [SPARK-22324]: Upgradujte na šipku a
0.8.0
Netty na4.1.17
.
Strukturované streamování
Průběžné zpracování
- Nový prováděcí modul, který může spouštět dotazy streamování s kompletní latencí v řádu milisekund, a to změnou pouze jednoho řádku uživatelského kódu. Další informace najdete v průvodci programováním.
Připojení stream-stream
- Možnost spojit dva datové proudy a ukládat řádky do vyrovnávací paměti, dokud do druhého datového proudu nedorazí odpovídající řazené kolekce členů. Predikáty lze použít pro sloupce času událostí k vázání množství stavu, který je potřeba zachovat.
Rozhraní API pro streamování V2
- Experimentální rozhraní API pro připojení k novému zdroji a jímce, které funguje pro dávkové, mikrodávkové a průběžné spouštění. Toto rozhraní API stále prochází aktivním vývojem a zásadní změny by se měly očekávat.
MLlib
Zvýrazňuje
- Predikce ML teď funguje se strukturovaným streamováním s využitím aktualizovaných rozhraní API. Podrobnosti následují.
Nová a vylepšená rozhraní API
- [SPARK-21866]: Integrovaná podpora čtení obrázků do datového rámce (Scala/Java/Python).
- [SPARK-19634]: Funkce datového rámce pro popisné souhrnné statistiky ve sloupcích vektorů (Scala/Java).
- [SPARK-14516]:
ClusteringEvaluator
pro ladění algoritmů clusteringu podporující siluetu Cosine a čtvercové metriky siluety Euclidean (Scala/Java/Python). - [SPARK-3181]: Robustní lineární regrese se ztrátou Huberu (Scala/Java/Python).
- [SPARK-13969]:
FeatureHasher
transformátor (Scala/Java/Python). - Podpora více sloupců pro několik transformátorů funkcí:
- [SPARK-13030]:
OneHotEncoderEstimator
(Scala/Java/Python) - [SPARK-22397]:
QuantileDiscretizer
(Scala/Java) - [SPARK-20542]:
Bucketizer
(Scala/Java/Python)
- [SPARK-13030]:
- [SPARK-21633] a SPARK-21542]: Vylepšená podpora vlastních součástí kanálu v Pythonu
Nové funkce
- [SPARK-21087]:
CrossValidator
ATrainValidationSplit
může shromažďovat všechny modely při montáži (Scala/Java). To vám umožní zkontrolovat nebo uložit všechny fitované modely. - [SPARK-19357]: Meta-algoritmy
CrossValidator
,TrainValidationSplit
podporujíOneVsRest
paralelismus Param pro přizpůsobení více dílčích modelů paralelně úloh Sparku. - [SPARK-17139]: Souhrn modelů pro multinomické logistické regrese (Scala/Java/Python)
- [SPARK-18710]: Přidejte posun v GLM.
- [SPARK-20199]: Přidání
featureSubsetStrategy
parametru doGBTClassifier
aGBTRegressor
. Použití této funkce k dílčímu razítku může výrazně zlepšit rychlost trénování; tato možnost byla klíčovou silnou stránkouxgboost
.
Další velmi vhodné změny
- [SPARK-22156]: Pevné
Word2Vec
škálování rychlosti učení snum
iteracemi Nová rychlost učení je nastavená tak, aby odpovídala původnímuWord2Vec
kódu jazyka C a měla by poskytovat lepší výsledky z trénování. - [SPARK-22289]: Přidání
JSON
podpory parametrů matice (opravili jsme chybu trvalosti ML přiLogisticRegressionModel
použití hranic s koeficienty.) - [SPARK-22700]:
Bucketizer.transform
nesprávně zahodí řádek obsahujícíNaN
. Když byl parametr parametrhandleInvalid
nastaven na "přeskočit"Bucketizer
, vyřadil by řádek s platnou hodnotou ve vstupním sloupci, pokud by mělNaN
jiný (irelevantní) sloupec hodnotu. - [SPARK-22446]: Optimalizátor Catalyst někdy způsoboval
StringIndexerModel
, že při nastavení na chybu vyvolá nesprávnou výjimkuhandleInvalid
"Nezoznaný popisek". K tomu může dojít u filtrovaných dat, protože predikát push-down způsobuje chyby i po vyfiltrování neplatných řádků ze vstupní datové sady. - [SPARK-21681]: Opravili jsme chybu hraničního případu v multinomické logistické regresi, která vedla k nesprávným koeficientům, když některé funkce měly nulovou odchylku.
- Hlavní optimalizace:
- [SPARK-22707]: Nižší spotřeba paměti pro
CrossValidator
. - [SPARK-22949]: Nižší spotřeba paměti pro
TrainValidationSplit
. - [SPARK-21690]:
Imputer
Měl by se trénovat pomocí jediného předávání dat. - [SPARK-14371]:
OnlineLDAOptimizer
Zabraňuje shromažďování statistik pro řidiče pro každou minidávku.
- [SPARK-22707]: Nižší spotřeba paměti pro
SparkR
Hlavním cílem SparkR ve verzi 2.3.0 bylo zlepšení stability funkcí definovaných uživatelem a přidání několika nových obálek SparkR kolem existujících rozhraní API:
Hlavní funkce
- Vylepšená parita funkcí mezi SQL a R
- [SPARK-22933]: Rozhraní API strukturovaného streamování pro
withWatermark
trigger
partitionBy
spojení datových proudů a streamů. - [SPARK-21266]: SparkR UDF s podporou schématu ve formátu DDL.
- [SPARK-20726][SPARK-22924][SPARK-22843]: Několik nových obálk rozhraní API datového rámce
- [SPARK-15767][SPARK-21622][SPARK-20917][SPARK-20307][SPARK-20906]: Několik nových obálk rozhraní API SparkML.
GraphX
Optimalizace
- [SPARK-5484]: Pregel nyní pravidelně kontroluje kontrolní body, aby se zabránilo
StackOverflowErrors
. - [SPARK-21491]: Malé zlepšení výkonu na několika místech.
Zastaralé
Python
- [SPARK-23122]: Vyřazení
register*
uživatelem definovaných funkcí aSQLContext
Catalog
v PySparku
MLlib
- [SPARK-13030]:
OneHotEncoder
Je zastaralý a odebere se ve verzi 3.0. Byla nahrazena novýmOneHotEncoderEstimator
.OneHotEncoderEstimator
se přejmenuje naOneHotEncoder
verzi 3.0 (aleOneHotEncoderEstimator
bude zachována jako alias).
Změny chování
SparkSQL
- [SPARK-22036]: Ve výchozím nastavení aritmetické operace mezi desetinnými místy vrátí zaokrouhlenou hodnotu, pokud přesné vyjádření není možné (místo vrácení
NULL
v předchozích verzích) - [SPARK-22937]: Pokud jsou všechny vstupy binární, vrátí SQL
elt()
výstup jako binární. V opačném případě se vrátí jako řetězec. V předchozích verzích se vždy vrátí jako řetězec bez ohledu na vstupní typy. - [SPARK-22895]: Deterministické predikáty spojení/filtru, které jsou za prvním ne deterministickým predikáty, se také posunou dolů/přes podřízené operátory, pokud je to možné. V předchozích verzích nebyly tyto filtry způsobilé pro posun predikátu.
- [SPARK-22771]: Pokud jsou všechny vstupy binární,
functions.concat()
vrátí výstup jako binární. V opačném případě se vrátí jako řetězec. V předchozích verzích se vždy vrátil jako řetězec bez ohledu na vstupní typy. - [SPARK-22489]: Pokud je některý z spojovacích stran všesměrový, dáváme přednost vysílání tabulky, která je explicitně určena v nápovědě vysílání.
- [SPARK-22165]: Odvození sloupce oddílu dříve zjistila nesprávný běžný typ pro různé odvozené typy. Dříve například skončila s typem
double
jako běžným typem prodouble
typ adate
typ. Teď najde správný společný typ pro takové konflikty. Podrobnosti najdete v průvodci migrací. - [SPARK-22100]: Funkce
percentile_approx
dříve akceptovalanumeric
vstup typu a výsledky výstupníhodouble
typu. Teď podporujedate
typ,timestamp
typ anumeric
typy jako vstupní typy. Výsledek se také změní tak, aby byl stejný jako vstupní typ, což je vhodnější pro percentily. - [SPARK-21610]: Dotazy z nezpracovaných souborů JSON/CSV se nepovolují, pokud odkazované sloupce obsahují jenom interní poškozený sloupec záznamu (pojmenovaný
_corrupt_record
ve výchozím nastavení). Místo toho můžete uložit analyzované výsledky do mezipaměti nebo uložit a pak odeslat stejný dotaz. - [SPARK-23421]: Vzhledem k tomu, že Spark 2.2.1 a 2.3.0, schéma se vždy odvodí za běhu, pokud tabulky zdroje dat obsahují sloupce, které existují ve schématu oddílů i schématu dat. Odvozené schéma nemá dělené sloupce. Při čtení tabulky Spark respektuje hodnoty oddílů těchto překrývajících se sloupců místo hodnot uložených v souborech zdroje dat. Ve verzi 2.2.0 a 2.1.x je odvozené schéma rozdělené na oddíly, ale data tabulky jsou pro uživatele neviditelná (tj. sada výsledků je prázdná).
PySpark
- [SPARK-19732]:
na.fill()
nebofillna
také přijímá logickou hodnotu a nahrazuje hodnoty null logickými hodnotami. V předchozích verzích Sparku ho PySpark jenom ignoruje a vrátí původní datový rámec datové sady nebo datového rámce. - [SPARK-22395]: Knihovna pandas
0.19.2
nebo vyšší se vyžaduje pro používání funkcí souvisejících s knihovnou pandas, jakotoPandas
je například ,createDataFrame
z datového rámce pandas atd. - [SPARK-22395]: Chování hodnot časového razítka pro funkce související s knihovnou pandas bylo změněno tak, aby respektovalo časové pásmo relace, které se v předchozích verzích ignoruje.
- [SPARK-23328]:
df.replace
Neumožňuje vynechatvalue
, pokudto_replace
není slovník.value
Dříve bylo možné v ostatních případech vynechat a ve výchozím nastavení toNone
je protiintuitivní a náchylné k chybám.
MLlib
- Zásadní změny rozhraní API: Hierarchie tříd a vlastností pro souhrny logistického regresního modelu byla změněna tak, aby byla přehlednější a lépe vyhovovala přidání souhrnu s více třídami. Jedná se o zásadní změnu uživatelského kódu, která přetypuje
LogisticRegressionTrainingSummary
na znak .BinaryLogisticRegressionTrainingSummary
Uživatelé by měli místo toho použít metodumodel.binarySummary
. Další podrobnosti najdete v tématu [SPARK-17139]: (všimněte si, že se jedná o@Experimental
rozhraní API). To nemá vliv na metodu souhrnu Pythonu, která bude stále fungovat správně pro multinomické i binární případy. - [SPARK-21806]:
BinaryClassificationMetrics.pr()
první bod (0.0, 1.0) je zavádějící a byl nahrazen (0,0, p), kde přesnost p odpovídá nejnižšímu bodu úplnosti. - [SPARK-16957]: Rozhodovací stromy teď při výběru hodnot rozdělení používají vážené střední body. To může změnit výsledky trénování modelu.
- [SPARK-14657]:
RFormula
Bez průsečíku teď vypíše referenční kategorii při kódování termínů řetězce, aby bylo možné shodovat s nativním chováním jazyka R. To může změnit výsledky trénování modelu. - [SPARK-21027]: Výchozí paralelismus použitý v
OneVsRest
je nyní nastaven na hodnotu 1 (tj. sériové). Ve verzi 2.2 a starších verzí byla úroveň paralelismu nastavena na výchozí velikost fondu vláken v jazyce Scala. To může změnit výkon. - [SPARK-21523]: Upgradoval jste větřík na
0.13.2
. To zahrnovalo důležitou opravu chyb v silném vyhledávání L-BFGS na řádku Wolfe. - [SPARK-15526]: Závislost JPMML je teď stínovaná.
- V části Opravy chyb najdete také informace o změnách chování vyplývajících z oprav chyb.
Známé problémy
- [SPARK-23523][SQL]: Nesprávný výsledek způsobený pravidlem
OptimizeMetadataOnlyQuery
. - [SPARK-23406]: Chyby v samoobslužných spojeních stream-stream.
Aktualizace údržby
Viz aktualizace údržby Databricks Runtime 4.0.
Prostředí systému
- Operační systém: Ubuntu 16.04.4 LTS
- Java: 1.8.0_151
- Scala: 2.11.8
- Python: 2.7.12 (nebo 3.5.2, pokud používáte Python 3)
- R: R verze 3.4.3 (2017-11-30)
- Clustery GPU: Nainstalují se následující knihovny NVIDIA GPU:
- Ovladač Tesla 375.66
- CUDA 8.0
- CUDNN 6.0
Nainstalované knihovny Pythonu
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
ansi2html | 1.1.1 | argparse | 1.2.1 | backports-abc | 0.5 |
boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
pivovar2mpl | 1.4.1 | certifi | 2016.2.28 | cffi | 1.7.0 |
chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
kryptografie | 1.5 | cyklista | 0.10.0 | Cython | 0.24.1 |
dekoratér | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
fusepy | 2.0.4 | budoucnosti | 3.2.0 | ggplot | 0.6.8 |
html5lib | 0,999 | idna | 2.1 | ipaddress | 1.0.16 |
ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
lxml | 3.6.4 | MarkupSafe | 0.23 | matplotlib | 1.5.3 |
mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
pandas | 0.19.2 | pathlib2 | 2.1.0 | bábovka | 0.4.1 |
pexpect | 4.0.1 | pickleshare | 0.7.4 | Polštář | 3.3.1 |
jádro | 9.0.1 | dýha | 3.9 | prompt-toolkit | 1.0.7 |
psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
pyparsing | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
python-dateutil | 2.5.3 | python-geohash | 0.8.5 | pytz | 2016.6.1 |
žádosti | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
scipy | 0.18.1 | drhnout | 0.32 | seaborn | 0.7.1 |
setuptools | 38.5.1 | simplejson | 3.8.2 | simples3 | 1.0 |
singledispatch | 3.4.0.3 | Šest | 1.10.0 | statsmodels | 0.6.1 |
tornádo | 4.5.3 | vlastnosti | 4.3.0 | urllib3 | 1.19.1 |
virtualenv | 15.0.1 | wcwidth | 0.1.7 | kolo | 0.30.0 |
wsgiref | 0.1.2 |
Nainstalované knihovny jazyka R
Knihovna | Verze | Knihovna | Verze | Knihovna | Verze |
---|---|---|---|---|---|
abind | 1.4-5 | assertthat | 0.2.0 | backporty | 1.1.1 |
base | 3.4.3 | BH | 1.65.0-1 | bindr | 0,1 |
bindrcpp | 0,2 | bitové | 1.1-12 | bit64 | 0.9-7 |
bitops | 1.0-6 | blob | 1.1.0 | startování | 1.3-20 |
vařit | 1.0-6 | koště | 0.4.3 | car | 2.1-6 |
caret | 6.0-77 | chron | 2.3-51 | class | 7.3-14 |
cluster | 2.0.6 | codetools | 0.2-15 | barevný prostor | 1.3-2 |
commonmark | 1.4 | – kompilátor | 3.4.3 | pastelka | 1.3.4 |
kudrna | 3,0 | CVST | 0.2-1 | data.table | 1.10.4-3 |
Power BI | 3.4.3 | DBI | 0,7 | ddalpha | 1.3.1 |
DEoptimR | 1.0-8 | Desc | 1.1.1 | devtools | 1.13.4 |
dichromat | 2.0-0 | trávit | 0.6.12 | dimRed | 0.1.0 |
doMC | 1.3.4 | dplyr | 0.7.4 | DRR | 0.0.2 |
foreach | 1.4.3 | zahraniční | 0.8-69 | Gbm | 2.1.3 |
ggplot2 | 2.2.1 | git2r | 0.19.0 | glmnet | 2.0-13 |
lepidlo | 1.2.0 | Gower | 0.1.2 | Grafika | 3.4.3 |
grDevices | 3.4.3 | mřížka | 3.4.3 | gsubfn | 0.6-6 |
gtable | 0.2.0 | h2o | 3.16.0.1 | httr | 1.3.1 |
hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
Iterátory | 1.0.8 | jsonlite | 1.5 | kernlab | 0.9-25 |
KernSmooth | 2.23-15 | značení | 0.3 | mříž | 0.20-35 |
láva | 1.5.1 | lazyeval | 0.2.1 | menší | 0.3.2 |
lme4 | 1.1-14 | lubridate | 1.7.1 | magrittr | 1.5 |
mapproj | 1.2-5 | mapy | 3.2.0 | MŠE | 7.3-48 |
Matice | 1.2-11 | Maticové modely | 0.4-1 | memoise | 1.1.0 |
metody | 3.4.3 | mgcv | 1.8-23 | mim | 0.5 |
minqa | 1.2.4 | mnormt | 1.5-5 | ModelMetrics | 1.1.0 |
munsell | 0.4.3 | mvtnorm | 1.0-6 | nlme | 3.1-131 |
nloptr | 1.0.4 | nnet | 7.3-12 | numDeriv | 2016.8-1 |
openssl | 0.9.9 | parallel | 3.4.3 | pbkrtest | 0.4-7 |
pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.1-1 |
plyr | 1.8.4 | chválit | 1.0.0 | pROC | 1.10.0 |
prodlim | 1.6.1 | proto | 1.0.0 | zkratka psychologie | 1.7.8 |
purrr | 0.2.4 | quantreg | 5.34 | R.methodsS3 | 1.7.1 |
R.oo | 1.21.0 | R.utils | 2.6.0 | R6 | 2.2.2 |
randomForest | 4.6-12 | RColorBrewer | 1.1-2 | Rcpp | 0.12.14 |
RcppEigen | 0.3.3.3.1 | RcppRoll | 0.2.2 | RCurl | 1.95-4.8 |
recepty | 0.1.1 | reshape2 | 1.4.2 | rlang | 0.1.4 |
robustbase | 0.92-8 | RODBC | 1.3-15 | roxygen2 | 6.0.1 |
rpart | 4.1-12 | rprojroot | 1.2 | Rserve | 1.7-3 |
RSQLite | 2.0 | rstudioapi | 0,7 | váhy | 0.5.0 |
sfsmisc | 1.1-1 | Sp | 1.2-5 | SparkR | 2.3.0 |
Řídký čas | 1.77 | prostorový | 7.3-11 | spline křivky | 3.4.3 |
sqldf | 0.4-11 | statmod | 1.4.30 | statistické údaje | 3.4.3 |
Statistiky 4 | 3.4.3 | stringi | 1.1.6 | stringr | 1.2.0 |
přežití | 2.41-3 | tcltk | 3.4.3 | TeachingDemos | 2.10 |
testthat | 1.0.2 | tibble | 1.3.4 | tidyr | 0.7.2 |
tidyselect | 0.2.3 | timeDate | 3042.101 | tools | 3.4.3 |
utils | 3.4.3 | viridisLite | 0.2.0 | vous | 0.3-2 |
withr | 2.1.0 | xml2 | 1.1.1 |
Nainstalované knihovny Java a Scala (verze clusteru Scala 2.11)
ID skupiny | ID artefaktu | Verze |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.7.3 |
com.amazonaws | automatické škálování aws-java-sdk | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.253 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.253 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.253 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.253 |
com.amazonaws | aws-java-sdk-config | 1.11.253 |
com.amazonaws | aws-java-sdk-core | 1.11.253 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.253 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.253 |
com.amazonaws | aws-java-sdk-directory | 1.11.253 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.253 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.253 |
com.amazonaws | aws-java-sdk-ecs | 1.11.253 |
com.amazonaws | aws-java-sdk-efs | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.253 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.253 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.253 |
com.amazonaws | aws-java-sdk-emr | 1.11.253 |
com.amazonaws | aws-java-sdk-glacier | 1.11.253 |
com.amazonaws | aws-java-sdk-iam | 1.11.253 |
com.amazonaws | aws-java-sdk-importexport | 1.11.253 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.253 |
com.amazonaws | aws-java-sdk-kms | 1.11.253 |
com.amazonaws | aws-java-sdk-lambda | 1.11.253 |
com.amazonaws | aws-java-sdk-logs | 1.11.253 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.253 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.253 |
com.amazonaws | aws-java-sdk-rds | 1.11.253 |
com.amazonaws | aws-java-sdk-redshift | 1.11.253 |
com.amazonaws | aws-java-sdk-route53 | 1.11.253 |
com.amazonaws | aws-java-sdk-s3 | 1.11.253 |
com.amazonaws | aws-java-sdk-ses | 1.11.253 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.253 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.253 |
com.amazonaws | aws-java-sdk-sns | 1.11.253 |
com.amazonaws | aws-java-sdk-sqs | 1.11.253 |
com.amazonaws | aws-java-sdk-ssm | 1.11.253 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.253 |
com.amazonaws | aws-java-sdk-sts | 1.11.253 |
com.amazonaws | podpora aws-java-sdk-support | 1.11.253 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.253 |
com.amazonaws | jmespath-java | 1.11.253 |
com.carrotsearch | hppc | 0.7.2 |
com.chuusai | shapeless_2.11 | 2.3.2 |
com.clearspring.analytics | datový proud | 2.7.0 |
com.databricks | Rserve | 1.8-3 |
com.databricks | dbml-local_2.11 | 0.3.0-db1-spark2.3 |
com.databricks | dbml-local_2.11-tests | 0.3.0-db1-spark2.3 |
com.databricks | jets3t | 0.7.1-0 |
com.databricks.scalapb | compilerplugin_2.11 | 0.4.15-9 |
com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
com.esotericsoftware | Kryo-shaded | 3.0.3 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | spolužák | 1.0.0 |
com.fasterxml.jackson.core | jackson-annotations | 2.6.7 |
com.fasterxml.jackson.core | jackson-core | 2.6.7 |
com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.6.7 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | nativní native_ref javy | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | nativní native_system javy | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.3.2-2 |
com.github.rwl | jtransforms | 2.4.0 |
com.google.code.findbugs | jsr305 | 2.0.1 |
com.google.code.gson | gson | 2.2.4 |
com.google.guava | guava | 15.0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.googlecode.javaewah | JavaEWAH | 0.3.2 |
com.h2database | h2 | 1.3.174 |
com.jamesmurty.utils | java-xmlbuilder | 1,1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.mchange | c3p0 | 0.9.5.1 |
com.mchange | mchange-commons-java | 0.2.10 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.0.11 |
com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.mail | javax.mail | 1.5.2 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.11 | 0.3 |
com.twitter | chill-java | 0.8.4 |
com.twitter | chill_2.11 | 0.8.4 |
com.twitter | parquet-hadoop-bundle | 1.6.0 |
com.twitter | util-app_2.11 | 6.23.0 |
com.twitter | util-core_2.11 | 6.23.0 |
com.twitter | util-jvm_2.11 | 6.23.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
com.univocity | univocity-parsers | 2.5.9 |
com.vlkan | flatbuffers | 1.2.0-3f79e055 |
com.zaxxer | HikariCP | 2.4.1 |
commons-beanutils | commons-beanutils | 1.7.0 |
commons-beanutils | commons-beanutils-core | 1.8.0 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1,10 |
commons-collections | commons-collections | 3.2.2 |
commons-configuration | commons-configuration | 1.6 |
commons-dbcp | commons-dbcp | 1.4 |
commons-digester | commons-digester | 1.8 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2,4 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 2,2 |
commons-pool | commons-pool | 1.5.4 |
info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
io.airlift | aircompressor | 0,8 |
io.dropwizard.metrics | metriky – jádro | 3.1.5 |
io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
io.dropwizard.metrics | metrics-graphite | 3.1.5 |
io.dropwizard.metrics | metriky – kontroly stavu | 3.1.5 |
io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
io.dropwizard.metrics | metrics-json | 3.1.5 |
io.dropwizard.metrics | metrics-jvm | 3.1.5 |
io.dropwizard.metrics | metrics-log4j | 3.1.5 |
io.dropwizard.metrics | metriky – servlety | 3.1.5 |
io.netty | netty | 3.9.9.Final |
io.netty | netty-all | 4.1.17.Final |
io.prometheus | simpleclient | 0.0.16 |
io.prometheus | simpleclient_common | 0.0.16 |
io.prometheus | simpleclient_dropwizard | 0.0.16 |
io.prometheus | simpleclient_servlet | 0.0.16 |
io.prometheus.jmx | sběratel | 0,7 |
javax.activation | aktivace | 1.1.1 |
javax.annotation | javax.annotation-api | 1.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.servlet | javax.servlet-api | 3.1.0 |
javax.servlet.jsp | jsp-api | 2.1 |
javax.transaction | jta | 1,1 |
javax.validation | validation-api | 1.1.0.Final |
javax.ws.rs | javax.ws.rs-api | 2.0.1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0-2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.11 |
joda-time | joda-time | 2.9.3 |
log4j | apache-log4j-extra | 1.2.17 |
log4j | log4j | 1.2.17 |
net.hydromatic | eigenbase-properties | 1.1.5 |
net.iharder | base64 | 2.3.8 |
net.java.dev.jets3t | jets3t | 0.9.4 |
net.razorvine | pyrolit | 4.13 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt | oncrpc | 1.0.7 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.4 |
org.antlr | antlr4-runtime | 4.7 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 0.8.0 |
org.apache.arrow | šipka – paměť | 0.8.0 |
org.apache.arrow | arrow-vector | 0.8.0 |
org.apache.avro | avro | 1.7.7 |
org.apache.avro | avro-ipc | 1.7.7 |
org.apache.avro | avro-ipc-tests | 1.7.7 |
org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
org.apache.calcite | calcite-avatica | 1.2.0-inkubační |
org.apache.calcite | kalcite-core | 1.2.0-inkubační |
org.apache.calcite | calcite-linq4j | 1.2.0-inkubační |
org.apache.commons | commons-compress | 1.4.1 |
org.apache.commons | commons-crypto | 1.0.0 |
org.apache.commons | commons-lang3 | 3.5 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.kurátor | kurátor-client | 2.7.1 |
org.apache.kurátor | kurátor-framework | 2.7.1 |
org.apache.kurátor | kurátor-recepty | 2.7.1 |
org.apache.derby | derby | 10.12.1.1 |
org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
org.apache.directory.api | api-util | 1.0.0-M20 |
org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
org.apache.hadoop | hadoop-annotations | 2.7.3 |
org.apache.hadoop | hadoop-auth | 2.7.3 |
org.apache.hadoop | hadoop-client | 2.7.3 |
org.apache.hadoop | hadoop-common | 2.7.3 |
org.apache.hadoop | hadoop-hdfs | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-app | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
org.apache.hadoop | hadoop-mapreduce-client-shuffle | 2.7.3 |
org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
org.apache.hadoop | hadoop-yarn-client | 2.7.3 |
org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
org.apache.hadoop | hadoop-yarn-server-common | 2.7.3 |
org.apache.htrace | htrace-core | 3.1.0-inkubační |
org.apache.httpcomponents | httpclient | 4.5.4 |
org.apache.httpcomponents | httpcore | 4.4.8 |
org.apache.ivy | břečťan | 2.4.0 |
org.apache.orc | orc-core-nohive | 1.4.1 |
org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
org.apache.parquet | parquet-column | 1.8.2-databricks1 |
org.apache.parquet | parquet-common | 1.8.2-databricks1 |
org.apache.parquet | kódování parquet | 1.8.2-databricks1 |
org.apache.parquet | parquet-format | 2.3.1 |
org.apache.parquet | parquet-hadoop | 1.8.2-databricks1 |
org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.9.3 |
org.apache.xbean | xbean-asm5-shaded | 4.4 |
org.apache.zookeeper | zookeeper | 3.4.6 |
org.bouncycastle | bcprov-jdk15on | 1.58 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.jackson | jackson-xc | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.8 |
org.codehaus.janino | Janino | 3.0.8 |
org.datanucleus | datanucleus-api-jdo | 3.2.6 |
org.datanucleus | datanucleus-core | 3.2.10 |
org.datanucleus | datanucleus-rdbms | 3.2.9 |
org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
org.eclipse.jetty | pokračování jetty | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-plus | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-proxy | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-security | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-server | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-webapp | 9.3.20.v20170531 |
org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
org.glassfish.hk2 | hk2-locator | 2.4.0-b34 |
org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.1 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.4.0-b34 |
org.glassfish.hk2.external | javax.inject | 2.4.0-b34 |
org.glassfish.jersey.bundles.repackaged | jersey-guava | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.22.2 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
org.glassfish.jersey.core | jersey-client | 2.22.2 |
org.glassfish.jersey.core | žerzejové společné | 2.22.2 |
org.glassfish.jersey.core | jersey-server | 2.22.2 |
org.glassfish.jersey.media | jersey-media-jaxb | 2.22.2 |
org.hibernate | Hibernate-validator | 5.1.1.Final |
org.iq80.snappy | kousavý | 0,2 |
org.javassist | Javassist | 3.18.1-GA |
org.jboss.logging | jboss-logging | 3.1.3.GA |
org.jdbi | jdbi | 2.63.1 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.11 | 3.2.11 |
org.json4s | json4s-core_2.11 | 3.2.11 |
org.json4s | json4s-jackson_2.11 | 3.2.11 |
org.lz4 | lz4-java | 1.4.0 |
org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
org.mockito | mockito-all | 1.9.5 |
org.objenesis | objenesis | 2.1 |
org.postgresql | postgresql | 42.1.4 |
org.roaringbitmap | RoaringBitmap | 0.5.11 |
org.rocksdb | rocksdbjni | 5.2.1 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.11 | 2.11.8 |
org.scala-lang | scala-library_2.11 | 2.11.8 |
org.scala-lang | scala-reflect_2.11 | 2.11.8 |
org.scala-lang | scalap_2.11 | 2.11.8 |
org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.11 | 1.12.5 |
org.scalanlp | breeze-macros_2.11 | 0.13.2 |
org.scalanlp | breeze_2.11 | 0.13.2 |
org.scalatest | scalatest_2.11 | 2.2.6 |
org.slf4j | jcl-over-slf4j | 1.7.16 |
org.slf4j | jul-to-slf4j | 1.7.16 |
org.slf4j | slf4j-api | 1.7.16 |
org.slf4j | slf4j-log4j12 | 1.7.16 |
org.spark-project.hive | hive-beeline | 1.2.1.spark2 |
org.spark-project.hive | hive-cli | 1.2.1.spark2 |
org.spark-project.hive | hive-exec | 1.2.1.spark2 |
org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
org.spark-project.hive | hive-metastore | 1.2.1.spark2 |
org.spark-project.spark | nepoužitý | 1.0.0 |
org.spire-math | spire-macros_2.11 | 0.13.0 |
org.spire-math | spire_2.11 | 0.13.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.tukaani | xz | 1.0 |
org.typelevel | machinist_2.11 | 0.6.1 |
org.typelevel | makro-compat_2.11 | 1.1.1 |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.2.6 |
org.yaml | snakeyaml | 1.16 |
oro | oro | 2.0.8 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |
xmlenc | xmlenc | 0,52 |