Databricks Runtime 10.1 (EoS)
Примечание.
Поддержка этой версии databricks Runtime закончилась. Сведения о дате окончания поддержки см . в журнале завершения поддержки. Все поддерживаемые версии среды выполнения Databricks см. в заметках о выпуске Databricks Runtime и совместимости.
В следующих заметках о выпуске содержатся сведения о Databricks Runtime 10.1 и Databricks Runtime 10.1 Photon на базе Apache Spark 3.2.0. Databricks выпустила эту версию в ноябре 2021 года. Photon сейчас находится в режиме общедоступной предварительной версии.
Новые функции и внесенные улучшения
- Новые параметры разностных таблиц для сжатия небольших файлов
- Новые метрики группы строк для сканирования запросов Parquet
- Trigger.AvailableNow для запросов разностных исходных потоков
- Trigger.AvailableNow для автоматического загрузчика
- Разностная поддержка конфигураций файловой системы Hadoop, передаваемых через параметры кадров данных
- Асинхронная контрольная точка состояния теперь поддерживается в заданиях потоковой передачи с отслеживанием состояния (общедоступная предварительная версия)
- Sparklyr со сквозной передачей учетных данных
- Данные Databricks Utilities обобщают контроль точности (общедоступная предварительная версия)
- Теперь записные книжки Azure Databricks можно использовать с ядром IPython
- Новые функции в Spark SQL
Новые параметры разностных таблиц для сжатия небольших файлов
Свойство delta.autoOptimize.autoCompact
разностной таблицы теперь принимает новые значения auto
и legacy
в дополнение к существующим значениям true
и false
. Если задано значение auto
(рекомендуется), автоматическое сжатие использует улучшенные значения по умолчанию, например, значение 32 МБ в качестве целевого размера файла (хотя действие по умолчанию в будущем может измениться). Если задано значение legacy
или true
, автоматическое сжатие использует значение 128 МБ в качестве целевого для размера файла.
Вместо задания этого свойства для отдельной таблицы можно задать для конфигурации spark.databricks.delta.autoCompact.enabled
значение auto
, legacy
или true
, чтобы включить автоматическое сжатие для всех разностных таблиц. Эта конфигурация имеет приоритет над связанным свойством таблицы во время текущего сеанса.
Размер целевого файла для автоматического сжатия можно контролировать с помощью конфигурации spark.databricks.delta.autoCompact.maxFileSize
.
Дополнительные сведения об автоматическом уплотнении см. в разделе "Автоматическое сжатие" для Delta Lake в Azure Databricks.
Новые метрики группы строк для сканирования запросов Parquet
Запросы со сканированием Parquet теперь отображают метрики группы строк в пользовательском интерфейсе Spark. Ниже перечислены эти метрики групп строк.
- общее число групп строк Parquet
- число считанных групп строк Parquet
Trigger.AvailableNow для запросов разностных исходных потоков
Это изменение поддерживает новый тип триггера для разностных запросов с исходными потоками в Scala: Trigger.AvailableNow
. Он похож на процесс Trigger.Once
, который обрабатывает все доступные данные и останавливает запрос. Однако Trigger.AvailableNow
обеспечивает лучшую масштабируемость, поскольку данные могут обрабатываться в нескольких пакетах, а не в одном. Это изменение не приводит к появлению нового интерфейса, а реализует существующий API Spark. Этот триггер также поддерживает все параметры ограничения скорости, которые уже поддерживаются Delta в качестве источника.
Пример:
spark.readStream
.format("delta")
.option("maxFilesPerTrigger", "1")
.load(inputDir)
.writeStream
.trigger(Trigger.AvailableNow)
.option("checkpointLocation", checkpointDir)
.start()
Описание Trigger.AvailableNow
см. в статье об автозагрузчике.
Trigger.AvailableNow для автоматического загрузчика
Trigger.AvailableNow
— новый режим триггера потоковой передачи, аналогичный Trigger.Once
.
Trigger.Once
обрабатывает все доступные данные, а затем останавливает запрос.
Trigger.AvailableNow
обеспечивает лучшую масштабируемость, поскольку данные могут обрабатываться в нескольких пакетах, а не в одном. Автозагрузчик теперь поддерживает Trigger.AvailableNow
как в режиме списков каталогов, так и в режиме уведомления файлов для Scala. Описание Trigger.AvailableNow
см. в статье об автозагрузчике.
Разностная поддержка конфигураций файловой системы Hadoop, передаваемых через параметры кадров данных
Как и в случае с Parquet, Delta теперь поддерживает чтение конфигураций файловой системы Hadoop из параметров DataFrameReader
и DataFrameWriter
при чтении или написании таблицы с помощью DataFrameReader.load(path)
или DataFrameWriter.save(path)
. См. раздел "Настройка учетных данных хранилища Delta".
Асинхронная контрольная точка состояния теперь поддерживается в заданиях потоковой передачи с отслеживанием состояния (общедоступная предварительная версия)
Асинхронная контрольная точка состояния — это новая функция, которая потенциально сокращает сквозную микропакетную задержку в заданиях потоковой передачи с отслеживанием состояния с большими обновлениями состояния. См . асинхронную контрольную точку состояния для запросов с отслеживанием состояния.
Sparklyr со сквозной передачей учетных данных
Теперь вы можете использовать API sparklyr для чтения и записи данных в облачном хранилище с помощью сквозной передачи учетных данных. Эта функция ограничена стандартными кластерами с доступом только для одного пользователя. См. раздел "Доступ к Azure Data Lake Storage" с помощью сквозного руководства учетных данных Microsoft Entra ID (устаревшая версия).
Данные Databricks Utilities обобщают контроль точности (общедоступная предварительная версия)
Новый параметр precise
для dbutils.data.summarize
управляет точностью сводных результатов. Если для параметра precise
задано значение false (значение по умолчанию), то сводка возвращает приблизительные результаты для числа различных объектов, процентилей и частых счетчиков элементов. Если для параметра precise
задано значение true, то сводки теперь вычисляются с точностью различных объектов и частыми счетчиками элементов с более точными оценками процентилей. См. команду обобщения (dbutils.data.summarize).
Теперь записные книжки Azure Databricks можно использовать с ядром IPython
Теперь можно настроить кластер Azure Databricks для выполнения кода Python с помощью ядра IPython. Использование ядра IPython в Azure Databricks добавляет поддержку инструментов отображения и вывода IPython. Кроме того, ядро IPython захватывает выходные данные stdout и stderr дочерних процессов, созданных записной книжкой, позволяя включать эти выходные данные в результаты команды записной книжки.
Дополнительные сведения см. в разделе Ядро IPython.
Новые функции в Spark SQL
Для работы с данными в каталоге Unity (предварительная версия) были добавлены следующие объекты и команды.
- Внешние расположения
- ALTER CATALOG
- ALTER CREDENTIAL
- ALTER LOCATION
- CREATE CATALOG
- CREATE LOCATION
- CREATE RECIPIENT
- DESCRIBE CATALOG
- DESCRIBE CREDENTIAL
- DESCRIBE LOCATION
- DROP CATALOG
- DROP CREDENTIAL
- DROP LOCATION
- LIST
- SHOW CATALOGS
- SHOW CREDENTIALS
- SHOW LOCATIONS
- USE CATALOG
В Delta Sharing (предварительная версия) были добавлены следующие команды, позволяющие обмениваться данными только для чтения с получателями за пределами вашей организации.
- Деление
- ALTER SHARE
- CREATE SHARE
- DESCRIBE RECIPIENT
- DESCRIBE SHARE
- DROP RECIPIENT
- DROP SHARE
- GRANT ПОДЕЛИТЬСЯ
- REVOKE ПОДЕЛИТЬСЯ
- SHOW ALL IN SHARE
- SHOW RECIPIENTS
- SHOW SHARES
- SHOW GRANTS ON SHARE
- SHOW GRANTS TO RECIPIENT
Исправления ошибок
- Исправлено состояние гонки, которое могло привести к сбою запроса с использованием
IOException
в качествеNo FileSystem for scheme
, или привести к тому, что изменения вsparkContext.hadoopConfiguration
не вступят в силу в запросах.
Обновления библиотек
- Обновленные библиотеки Python:
- filelock с 3.0.12 до 3.3.1
- koalas с 1.8.1 до 1.8.2
- plotly с 5.1.0 до 5.3.0
- Обновленные библиотеки R:
- bslib с 0.3.0 до 0.3.1
- caret с 6.0-88 до 6.0-90
- cpp11 с 0.3.1 до 0.4.0
- data.table с 1.14.0 до 1.14.2
- desc с 1.3.0 до 1.4.0
- diffobj с 0.3.4 до 0.3.5
- digest с 0.6.27 до 0.6.28
- generics с 0.1.0 до 0.1.1
- hms с 1.1.0 до 1.1.1
- knitr с 1.34 до 1.36
- lattice с 0.20-44 до 0.20-45
- lifecycle с 1.0.0 до 1.0.1
- lubridate с 1.7.10 до 1.8.0
- mgcv с 1.8-37 до 1.8-38
- mime с 0.11 до 0.12
- pkgload с 1.2.2 до 1.2.3
- progressr с 0.8.0 до 0.9.0
- rcmdcheck с 1.3.3 до 1.4.0
- readr с 2.0.1 до 2.0.2
- recipes с 0.1.16 до 0.1.17
- remotes с 2.4.0 до 2.4.1
- rlang с 0.4.11 до 0.4.12
- rvest с 1.0.1 до 1.0.2
- shiny с 1.6.0 до 1.7.1
- stringi с 1.7.4 до 1.7.5
- testthat с 3.0.4 до 3.1.0
- tidyr с 1.1.3 до 1.1.4
- tinytex с 0.33 до 0.34
- usethis с 2.0.1 до 2.1.2
- xfun с 0.26 до 0.27
- Обновленные библиотеки Java:
- com.zaxxer.HikariCP с 3.1.0 до 4.0.3
Apache Spark
Databricks Runtime 10.1 включает Apache Spark 3.2.0. Этот выпуск включает все исправления и улучшения Spark, включенные в Databricks Runtime 10.0 (EoS), а также следующие дополнительные исправления ошибок и улучшения, внесенные в Spark:
- [SPARK-37037] [SQL] Улучшение сортировки массива байтов путем унификации функции compareTo UTF8String и ByteArray
- [Spark-37091] [R] SystemRequirements включают Java < 18
- [SPARK-37041] [SQL] Бэкпорт HIVE-15025: поддержка Secure-Socket-Layer (SSL) для HMS
- [SPARK-37098] [SQL] Изменение свойств таблицы должно сделать кэш недействительным
- [SPARK-36992] [SQL] Улучшение производительности сортировки массива байтов путем объединения функции getPrefix UTF8String и ByteArray
- [SPARK-37047] [SQL] Добавление функций lpad и rpad для двоичных строк
- [SPARK-37076] [SQL] явно Реализация StructType.toString для Scala 2.13
- [SPARK-37075] [SQL] Перемещение построения выражений UDAF из sql/catalyst в sql/core
- [spark-37084] [SQL] Настройка spark.sql.files.openCostInBytes на bytesConf
- [SPARK-37088] [PYSPARK] [SQL] Поток записи не должен получать доступ к вводу после возврата слушателя завершения задачи
- [SPARK-37069] [SQL] Правильный резервный вариант, когда Hive.getWithoutRegisterFns недоступен
- [Spark-37050] [Python] Инструкции по установке обновления Conda
- [SPARK-37067] [SQL] Использование ZoneId.of() для обработки строки часового пояса в DatetimeUtils
- [SPARK-35925] [SQL] Поддержка DayTimeIntervalType в функции width-bucket
- [SPARK-35926] [SQL] Добавлена поддержка YearMonthIntervalType для width_bucket
-
[SPARK-35973] [SQL] Добавлена команда
SHOW CATALOGS
- [SPARK-36922] [SQL] Функции SIGN / SIGNUM должны поддерживать интервалы ANSI
- [Spark-37078] [CORE] Поддержка старых конструкторов Sink с 3 параметрами
- [SPARK-37061] [SQL] CustomMetrics при использовании внутренних классов
- [Spark-35918] [AVRO] Унификация обработки несоответствия схемы для чтения / записи и улучшения сообщений об ошибках
- [SPARK-36871] [SQL] Миграция CreateViewStatement в команду v2
- [SPARK-36898] [SQL] Настраиваемый коэффициент объединения хэшей в случайном порядке
-
[SPARK-36921] [SQL] Поддержка интервалов ANSI по
DIV
- [SPARK-36794] [SQL] Игнорирование дублирующихся ключей соединения при построении отношения для перемешиваемого хэш-соединения SEMI / ANTI
- [SPARK-36867] [SQL] Исправление сообщения об ошибке с помощью псевдонима GROUP BY
- [SPARK-36914] [SQL] Реализация dropIndex и listIndexes в JDBC (диалект MySQL)
- [SPARK-35531] [SQL] Непосредственная передача таблицы hive в HiveClient при вызове getPartitions, чтобы избежать ненужного преобразования из HiveTable — > CatalogTable — > HiveTable
- [SPARK-36718] [SQL] Сворачивать проекты только в том случае, если мы не дублируем дорогостоящие выражения
- [SPARK-37046] [SQL]: Изменение представления не сохраняет регистр столбцов
- [SPARK-36978] [SQL] Правило InferConstraints должно создавать ограничения IsNotNull для доступного вложенного поля вместо корневого вложенного типа
- [Spark-37052] [CORE] Spark должен передавать аргумент –verbose основному классу только тогда, когда это оболочка sql
- [SPARK-37017] [SQL] Уменьшение области действия синхронизации, чтобы предотвратить потенциальную взаимоблокировку
- [SPARK-37032] [SQL] Неработающая ссылка на синтаксис SQL на странице справочника SQL
- [SPARK-36905] [SQL] Чтение представлений hive без явных имен столбцов
- [SPARK-36678] Миграция SHOW TABLES использовать команду версии 2 по умолчанию
- [SPARK-36943] [SQL] Улучшение читаемости сообщения об ошибке отсутствующего столбца
- [SPARK-36980] [SQL] Вставка запроса поддержки с CTE
- [SPARK-37001] [SQL] Отключение двух уровней карт для окончательной агрегации хэшей по умолчанию
-
[SPARK-36970] [SQL] Отключенный вручную формат
B
функцииdate_format
для обеспечения совместимости Java 17 с Java 8 - [SPARK-36546] [SQL] Добавление поддержки массивов в объединение по имени
- [SPARK-36979] [SQL] Правило RewriteLateralSubquery в nonExcludableRules
- [SPARK-36949] [SQL] Запрет таблиц поставщиков Hive с интервалами ANSI
- [SPARK-36849] [SQL] Миграция UseStatement в структуру команд v2
- [SPARK-36868] [SQL] Миграция CreateFunctionStatement в структуру команд v2
-
[SPARK-36841] [SQL] Добавление синтаксиса ansi
set catalog xxx
для изменения текущего каталога - [SPARK-36821] [SQL] Класс ColumnarBatch расширяемый — дополнение
- [SPARK-36963] [SQL] Добавление max_by/min_by в sql.functions
- [SPARK-36913] [SQL] Реализация createIndex и IndexExists в DS V2 JDBC (диалект MySQL)
- [SPARK-36848] [SQL] Миграция ShowCurrentNamespaceStatement в структуру команд v2
- [SPARK-36526] [SQL] Поддержка индекса DSV2: добавление интерфейса supportsIndex
- [SPARK-36960] [SQL] Фильтры Pushdown со значениями интервала ANSI в ORC
- [SPARK-36929] [SQL] Удаление неиспользуемого метода EliminateSubqueryAliasesSuite#assertEquivalent
- [SPARK-36931] [SQL] Поддержка чтения и записи интервалов ANSI из / в источники данных ORC
- [SPARK-34980] [SQL] Поддержка секционирования объединения путем объединения в AQE
- [SPARK-36809] [SQL] Удаление широковещательной рассылки для InSubqueryExec, используемой в DPP
- [SPARK-36813] [SQL] [PYTHON] Предложение инфраструктуры соединения по состоянию и внедрение ps.merge_asof
- [SPARK-36918] [SQL] Игнорирование типов при сравнении структур для unionByName
- [SPARK-36891] [SQL] Рефакторинг SpecificParquetRecordReaderBase и добавление большего охвата векторизованного декодирования Parquet
-
[SPARK-36920] [SQL] Поддержка интервалов ANSI
ABS()
- [SPARK-36888] [SQL] Добавление тестовых случаев для функции sha2
-
[SPARK-36889] [SQL] Соблюдение
spark.sql.parquet.filterPushdown
построителем сканирования v2 parquet - [SPARK-36830] [SQL] Поддержка чтения и записи интервалов ANSI из / в источники данных JSON
- [SPARK-36870] [SQL] Введение класса ошибки INTERNAL_ERROR
- [SPARK-36831] [SQL] Поддержка чтения и записи интервалов ANSI из / в источники данных CSV.
- [SPARK-36550] [SQL] Причина распространения при сбое отражения UDF
- [SPARK-36866] [SQL] Фильтры Pushdown со значениями интервала ANSI для parquet
- [SPARK-33832] [SQL] Принудительное упрощение и улучшение кода соединения с отклонением
- [SPARK-36642] [SQL] Добавление df.withMetadata pyspark API
- [SPARK-35765] [SQL] Отдельные агрегаторы не чувствительны к дублированию
- [SPARK-36825] [SQL] Чтение и запись кадров данных с интервалами ANSI из / в файлы parquet
- [SPARK-36829] [SQL] Рефакторинг проверки значений NULL для collectionOperators
- [SPARK-32712] [SQL] Поддержка записи таблицы с сегментами Hive (форматы файлов Hive с хэшем Hive)
- [SPARK-36797] [SQL] Объединение должно разрешать вложенные столбцы как столбцы верхнего уровня
- [SPARK-36838] [SQL] Повышение производительности сгенерированного InSet кода
- [SPARK-36683] [SQL] Добавлены новые встроенные функции SQL: SEC и CSC
- [SPARK-36721] [SQL] Упрощение логических равенств, если одна сторона литеральна
- [SPARK-36760] [SQL] Добавление интерфейса SupportsPushDownV2Filters
- [SPARK-36652] [SQL] Выбор динамического соединения AQE не должен применяться к неэквивалентному соединению
- [SPARK-36745] [SQL] ExtractEquiJoinKeys должен возвращать исходные предикаты для ключей соединения
- [SPARK-36107] [SQL] Рефакторинг первого набора из 20 ошибок выполнения запроса для использования классов ошибок
- [SPARK-32709] [SQL] Поддержка записи таблицы с сегментами Hive (формат Parquet / ORC с хэшем Hive)
- [SPARK-36735] [SQL] Настройка издержек кэшированного отношения для DPP
- [SPARK-33832] [SQL] Поддержка оптимизации асимметричного соединения, даже если вводится дополнительное перемешивание
- [SPARK-36822] [SQL] BroadcastNestedLoopJoinExec должен использовать все условия вместо неэквивалентных условий
- [SPARK-35221] [SQL] Добавление проверки поддерживаемых подсказок присоединения
- [SPARK-36814] [SQL] Класс ColumnarBatch расширяемый
- [SPARK-36663] [SQL] Поддержка имен столбцов, состоящих только из чисел, в источниках данных ORC
- [SPARK-36751] [SQL] [PYTHON] [R] Добавление API bit/octet_length в Scala, Python и R
- [SPARK-36733] [SQL] Исправление проблемы производительности в SchemaPruning, когда структура имеет много полей
- [SPARK-36724] [SQL] Поддержка timestamp_ntz в качестве типа столбца времени для SessionWindow
- [SPARK-36556] [SQL] Добавление фильтров DSV2
- [SPARK-36687] [SQL] [CORE] Переименование классов ошибок с суффиксом _ERROR suffix
- [SPARK-35803] [SQL] Поддержка DataSource V2 CreateTempViewUsing
- [SPARK-36642] [SQL] Добавление df.withMetadata: синтаксис для обновления метаданных кадра данных
Обновления в рамках обслуживания
См. Служебные обновления Databricks Runtime 10.1.
Системная среда
- Операционная система: Ubuntu 20.04.3 LTS
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14.
- Python: 3.8.10
- R: 4.1.1
- Delta Lake: 1.0.0
Установленные библиотеки Python
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
Antergos Linux | 2015.10 (ISO-Rolling) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
async-generator | 1,10 | attrs | 20.3.0 | backcall | 0.2.0 |
bleach | 3.3.0 | boto3 | 1.16.7 | botocore | 1.19.7 |
certifi | 2020.12.5 | cffi | 1.14.5 | chardet | 4.0.0 |
cycler | 0.10.0 | Cython | 0.29.23 | dbus-python | 1.2.16 |
decorator | 5.0.6 | defusedxml | 0.7.1 | distlib | 0.3.3 |
distro-info | 0.23ubuntu1 | entrypoints | 0,3 | facets-overview | 1.0.0 |
filelock | 3.3.1 | idna | 2,10 | ipykernel | 5.3.4 |
ipython | 7.22.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.6.3 |
jedi | 0.17.2 | Jinja2 | 2.11.3 | jmespath | 0.10.0 |
joblib | 1.0.1 | jsonschema | 3.2.0 | jupyter-client | 6.1.12 |
jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 | jupyterlab-widgets | 1.0.0 |
kiwisolver | 1.3.1 | koalas | 1.8.2 | MarkupSafe | 2.0.1 |
matplotlib | 3.4.2 | mistune | 0.8.4 | nbclient | 0.5.3 |
nbconvert | 6.0.7 | nbformat | 5.1.3 | nest-asyncio | 1.5.1 |
записная книжка | 6.3.0 | numpy | 1.19.2 | во внешнем виде | 20,9 |
pandas | 1.2.4 | pandocfilters | 1.4.3 | parso | 0.7.0 |
patsy | 0.5.1 | pexpect | 4.8.0 | pickleshare | 0.7.5 |
Pillow | 8.2.0 | pip | 21.0.1 | график | 5.3.0 |
prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 | protobuf | 3.17.2 |
psycopg2 | 2.8.5 | ptyprocess | 0.7.0 | pyarrow | 4.0.0 |
pycparser | 2,20 | Pygments | 2.8.1 | PyGObject | 3.36.0 |
pyparsing | 2.4.7 | pyrsistent | 0.17.3 | python-apt | 2.0.0+ubuntu0.20.4.6 |
python-dateutil | 2.8.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
requests | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
scikit-learn | 0.24.1 | scipy | 1.6.2 | мореборн | 0.11.1 |
Send2Trash | 1.5.0 | setuptools | 52.0.0 | six | 1.15.0 |
ssh-import-id | 5,10 | statsmodels | 0.12.2 | tenacity | 8.0.1 |
terminado | 0.9.4 | testpath | 0.4.4 | threadpoolctl | 2.1.0 |
tornado | 6.1 | traitlets | 5.0.5 | unattended-upgrades | 0,1 |
urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
webencodings | 0.5.1 | wheel | 0.36.2 | widgetsnbextension | 3.5.1 |
Установленные библиотеки R
Библиотеки R устанавливаются из моментального снимка Microsoft CRAN от 26.10.2021.
Библиотека | Версия | Библиотека | Версия | Библиотека | Версия |
---|---|---|---|---|---|
askpass | 1,1 | assertthat | 0.2.1 | внутренние порты | 1.2.1 |
base | 4.1.1 | base64enc | 0.1-3 | bit | 4.0.4 |
bit64 | 4.0.5 | большой двоичный объект | 1.2.2 | загрузка | 1.3-28 |
заваривать | 1.0–6 | brio | 1.1.2 | метла | 0.7.9 |
bslib | 0.3.1 | cachem | 1.0.6 | вызывающий объект | 3.7.0 |
крышка | 6.0-90 | cellranger | 1.1.0 | chron | 2.3-56 |
class | 7.3-19 | cli | 3.0.1 | clipr | 0.7.1 |
cluster | 2.1.2 | codetools | 0.2-18 | colorspace | 2.0-2 |
commonmark | 1,7 | компилятор | 4.1.1 | config | 0.3.1 |
cpp11 | 0.4.0 | карандаш | 1.4.1 | учетные данные | 1.3.1 |
curl | 4.3.2 | data.table | 1.14.2 | наборы данных | 4.1.1 |
DBI | 1.1.1 | dbplyr | 2.1.1 | desc | 1.4.0 |
средства разработки | 2.4.2 | diffobj | 0.3.5 | digest | 0.6.28 |
dplyr | 1.0.7 | dtplyr | 1.1.0 | e1071 | 1.7-9 |
многоточие | 0.3.2 | evaluate | 0,14 | вентиляторы | 0.5.0 |
Farver | 2.1.0 | fastmap | 1.1.0 | fontawesome | 0.2.2 |
forcats | 0.5.1 | foreach | 1.5.1 | иностранный | 0.8-81 |
forge | 0.2.0 | fs | 1.5.0 | будущее | 1.22.1 |
future.apply | 1.8.1 | gargle | 1.2.0 | Универсальные шаблоны | 0.1.1 |
gert | 1.4.1 | ggplot2 | 3.3.5 | gh | 1.3.0 |
gitcreds | 0.1.1 | glmnet | 4.1-2 | globals | 0.14.0 |
клей | 1.4.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
Говер | 0.2.2 | графика | 4.1.1 | grDevices | 4.1.1 |
grid | 4.1.1 | gridExtra | 2.3 | gsubfn | 0,7 |
gtable | 0.3.0 | haven | 2.4.3 | высокий | 0,9 |
hms | 1.1.1 | htmltools | 0.5.2 | htmlwidgets | 1.5.4 |
httpuv | 1.6.3 | httr | 1.4.2 | hwriter | 1.3.2 |
hwriterPlus | 1.0-3 | ids | 1.0.1 | ini | 0.3.1 |
ipred | 0.9-12 | isoband | 0.2.5 | Итераторы | 1.0.13 |
jquerylib | 0.1.4 | jsonlite | 1.7.2 | KernSmooth | 2.23-20 |
трикотажный | 1,36 | маркирование | 0.4.2 | later | 1.3.0 |
решётка | 0.20-45 | Lava | 1.6.10 | жизненный цикл | 1.0.1 |
listenv | 0.8.0 | lubridate | 1.8.0 | magrittr | 2.0.1 |
Markdown | 1,1 | МАССАЧУСЕТС | 7.3-54 | «Матрица» | 1.3-4 |
memoise | 2.0.0 | оплаты | 4.1.1 | mgcv | 1.8-38 |
мим | 0,12 | ModelMetrics | 1.2.2.2 | modelr | 0.1.8 |
munsell | 0.5.0 | nlme | 3.1-152 | nnet | 7.3-16 |
numDeriv | 2016.8-1.1 | openssl | 1.4.5 | parallel | 4.1.1 |
parallelly | 1.28.1 | столб | 1.6.4 | pkgbuild | 1.2.0 |
pkgconfig | 2.0.3 | pkgload | 1.2.3 | plogr | 0.2.0 |
plyr | 1.8.6 | хвалить | 1.0.0 | prettyunits | 1.1.1 |
pROC | 1.18.0 | processx | 3.5.2 | prodlim | 2019.11.13 |
Ход выполнения | 1.2.2 | progressr | 0.9.0 | promises | 1.2.0.1 |
proto | 1.0.0 | proxy | 0.4-26 | ps | 1.6.0 |
purrr | 0.3.4 | r2d3 | 0.2.5 | R6 | 2.5.1 |
randomForest | 4.6-14 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
RColorBrewer | 1.1-2 | Rcpp | 1.0.7 | readr | 2.0.2 |
readxl | 1.3.1 | Рецепты | 0.1.17 | реванш | 1.0.1 |
rematch2 | 2.1.2 | remotes | 2.4.1 | reprex | 2.0.1 |
reshape2 | 1.4.4 | rlang | 0.4.12 | rmarkdown | 2,11 |
RODBC | 1.3-19 | roxygen2 | 7.1.2 | rpart | 4.1-15 |
rprojroot | 2.0.2 | Rserve | 1.8-8 | RSQLite | 2.2.8 |
rstudioapi | 0,13 | rversions | 2.1.1 | rvest | 1.0.2 |
sass | 0.4.0 | весы | 1.1.1 | селектор | 0.4-2 |
sessioninfo | 1.1.1 | форма | 1.4.6 | блестящий | 1.7.1 |
sourcetools | 0.1.7 | sparklyr | 1.7.2 | SparkR | 3.2.0 |
пространственный | 7.3-11 | Сплайны | 4.1.1 | sqldf | 0.4-11 |
SQUAREM | 2021.1 | stats | 4.1.1 | статистика4 | 4.1.1 |
stringi | 1.7.5 | stringr | 1.4.0 | выживание | 3.2-13 |
sys | 3,4 | tcltk | 4.1.1 | ОбучениеDemos | 2,10 |
testthat | 3.1.0 | tibble | 3.1.5 | tidyr | 1.1.4 |
tidyselect | 1.1.1 | tidyverse | 1.3.1 | TimeDate | 3043.102 |
tinytex | 0,34 | средства | 4.1.1 | tzdb | 0.1.2 |
usethis | 2.1.2 | utf8 | 1.2.2 | служебные программы | 4.1.1 |
uuid | 0.1-4 | vctrs | 0.3.8 | viridisLite | 0.4.0 |
vroom | 1.5.5 | waldo | 0.3.1 | усы | 0,4 |
withr | 2.4.2 | xfun | 0,27 | xml2 | 1.3.2 |
xopen | 1.0.0 | xtable | 1.8-4 | yaml | 2.2.1 |
zip | 2.2.0 |
Установленные библиотеки Java и Scala (версия кластера Scala 2.12)
ИД группы | Идентификатор артефакта | Версия |
---|---|---|
antlr | antlr | 2.7.7 |
com.amazonaws | amazon-kinesis-client | 1.12.0 |
com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
com.amazonaws | aws-java-sdk-config | 1.11.655 |
com.amazonaws | aws-java-sdk-core | 1.11.655 |
com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
com.amazonaws | aws-java-sdk-directory | 1.11.655 |
com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
com.amazonaws | aws-java-sdk-efs | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
com.amazonaws | aws-java-sdk-emr | 1.11.655 |
com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
com.amazonaws | aws-java-sdk-glue | 1.11.655 |
com.amazonaws | aws-java-sdk-iam | 1.11.655 |
com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
com.amazonaws | aws-java-sdk-kms | 1.11.655 |
com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
com.amazonaws | aws-java-sdk-logs | 1.11.655 |
com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
com.amazonaws | aws-java-sdk-rds | 1.11.655 |
com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
com.amazonaws | aws-java-sdk-ses | 1.11.655 |
com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
com.amazonaws | aws-java-sdk-sns | 1.11.655 |
com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
com.amazonaws | aws-java-sdk-sts | 1.11.655 |
com.amazonaws | aws-java-sdk-support | 1.11.655 |
com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
com.amazonaws | jmespath-java | 1.11.655 |
com.chuusai | shapeless_2.12 | 2.3.3 |
com.clearspring.analytics | потоковая передача | 2.9.6 |
com.databricks | Rserve | 1.8-3 |
com.databricks | jets3t | 0.7.1–0 |
com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
com.esotericsoftware | kryo-shaded | 4.0.2 |
com.esotericsoftware | minlog | 1.3.0 |
com.fasterxml | classmate | 1.3.4 |
com.fasterxml.jackson.core | jackson-annotations | 2.12.2 |
com.fasterxml.jackson.core | jackson-core | 2.12.2 |
com.fasterxml.jackson.core | jackson-databind | 2.12.2 |
com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.2 |
com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.2 |
com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.2 |
com.github.ben-manes.caffeine | caffeine | 2.3.4 |
com.github.fommil | jniloader | 1,1 |
com.github.fommil.netlib | core | 1.1.2 |
com.github.fommil.netlib | native_ref-java | 1,1 |
com.github.fommil.netlib | native_ref-java-natives | 1,1 |
com.github.fommil.netlib | native_system-java | 1,1 |
com.github.fommil.netlib | native_system-java-natives | 1,1 |
com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1,1 |
com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1,1 |
com.github.luben | zstd-jni | 1.5.0-4 |
com.github.wendykierp | JTransforms | 3.1 |
com.google.code.findbugs | jsr305 | 3.0.0 |
com.google.code.gson | gson | 2.8.6 |
com.google.crypto.tink | tink | 1.6.0 |
com.google.flatbuffers | flatbuffers-java | 1.9.0 |
com.google.guava | guava | 15,0 |
com.google.protobuf | protobuf-java | 2.6.1 |
com.h2database | h2 | 1.4.195 |
com.helger | профилировщик | 1.1.1 |
com.jcraft | jsch | 0.1.50 |
com.jolbox | bonecp | 0.8.0.RELEASE |
com.lihaoyi | sourcecode_2.12 | 0.1.9 |
com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
com.ning | compress-lzf | 1.0.3 |
com.sun.istack | istack-commons-runtime | 3.0.8 |
com.sun.mail | javax.mail | 1.5.2 |
com.tdunning | json | 1.8 |
com.thoughtworks.paranamer | paranamer | 2.8 |
com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
com.twitter | chill-java | 0.10.0 |
com.twitter | chill_2.12 | 0.10.0 |
com.twitter | util-app_2.12 | 7.1.0 |
com.twitter | util-core_2.12 | 7.1.0 |
com.twitter | util-function_2.12 | 7.1.0 |
com.twitter | util-jvm_2.12 | 7.1.0 |
com.twitter | util-lint_2.12 | 7.1.0 |
com.twitter | util-registry_2.12 | 7.1.0 |
com.twitter | util-stats_2.12 | 7.1.0 |
com.typesafe | config | 1.2.1 |
com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
com.univocity | univocity-parsers | 2.9.1 |
com.zaxxer | HikariCP | 4.0.3 |
commons-cli | commons-cli | 1.2 |
commons-codec | commons-codec | 1.15 |
commons-collections | commons-collections | 3.2.2 |
commons-dbcp | commons-dbcp | 1.4 |
commons-fileupload | commons-fileupload | 1.3.3 |
commons-httpclient | commons-httpclient | 3.1 |
commons-io | commons-io | 2.8.0 |
commons-lang | commons-lang | 2.6 |
commons-logging | commons-logging | 1.1.3 |
commons-net | commons-net | 3.1 |
commons-pool | commons-pool | 1.5.4 |
dev.ludovic.netlib | arpack | 1.3.2 |
dev.ludovic.netlib | blas | 1.3.2 |
dev.ludovic.netlib | lapack | 1.3.2 |
hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
io.airlift | aircompressor | 0,19 |
io.delta | delta-sharing-spark_2.12 | 0.2.0 |
io.dropwizard.metrics | metrics-core | 4.1.1 |
io.dropwizard.metrics | metrics-graphite | 4.1.1 |
io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
io.dropwizard.metrics | metrics-jmx | 4.1.1 |
io.dropwizard.metrics | metrics-json | 4.1.1 |
io.dropwizard.metrics | metrics-jvm | 4.1.1 |
io.dropwizard.metrics | metrics-servlets | 4.1.1 |
io.netty | netty-all | 4.1.63.Final |
io.prometheus | simpleclient | 0.7.0 |
io.prometheus | simpleclient_common | 0.7.0 |
io.prometheus | simpleclient_dropwizard | 0.7.0 |
io.prometheus | simpleclient_pushgateway | 0.7.0 |
io.prometheus | simpleclient_servlet | 0.7.0 |
io.prometheus.jmx | коллектор | 0.12.0 |
jakarta.annotation | jakarta.annotation-api | 1.3.5 |
jakarta.servlet | jakarta.servlet-api | 4.0.3 |
jakarta.validation | jakarta.validation-api | 2.0.2 |
jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
javax.activation | activation | 1.1.1 |
javax.annotation | javax.annotation-api | 1.3.2 |
javax.el | javax.el-api | 2.2.4 |
javax.jdo | jdo-api | 3.0.1 |
javax.transaction | jta | 1,1 |
javax.transaction | transaction-api | 1,1 |
javax.xml.bind | jaxb-api | 2.2.2 |
javax.xml.stream | stax-api | 1.0–2 |
javolution | javolution | 5.5.1 |
jline | jline | 2.14.6 |
joda-time | joda-time | 2.10.5 |
log4j | apache-log4j-extras | 1.2.17 |
log4j | log4j | 1.2.17 |
maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
net.java.dev.jna | jna | 5.8.0 |
net.razorvine | pyrolite | 4.30 |
net.sf.jpam | jpam | 1,1 |
net.sf.opencsv | opencsv | 2.3 |
net.sf.supercsv | super-csv | 2.2.0 |
net.snowflake | snowflake-ingest-sdk | 0.9.6 |
net.snowflake | snowflake-jdbc | 3.13.3 |
net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
net.sourceforge.f2j | arpack_combined_all | 0,1 |
org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
org.antlr | ST4 | 4.0.4 |
org.antlr | antlr-runtime | 3.5.2 |
org.antlr | antlr4-runtime | 4,8 |
org.antlr | stringtemplate | 3.2.1 |
org.apache.ant | ant | 1.9.2 |
org.apache.ant | ant-jsch | 1.9.2 |
org.apache.ant | ant-launcher | 1.9.2 |
org.apache.arrow | arrow-format | 2.0.0 |
org.apache.arrow | arrow-memory-core | 2.0.0 |
org.apache.arrow | arrow-memory-netty | 2.0.0 |
org.apache.arrow | arrow-vector | 2.0.0 |
org.apache.avro | avro | 1.10.2 |
org.apache.avro | avro-ipc | 1.10.2 |
org.apache.avro | avro-mapred | 1.10.2 |
org.apache.commons | commons-compress | 1,20 |
org.apache.commons | commons-crypto | 1.1.0 |
org.apache.commons | commons-lang3 | 3.12.0 |
org.apache.commons | commons-math3 | 3.4.1 |
org.apache.commons | commons-text | 1,6 |
org.apache.curator | curator-client | 2.13.0 |
org.apache.curator | curator-framework | 2.13.0 |
org.apache.curator | curator-recipes | 2.13.0 |
org.apache.derby | derby | 10.14.2.0 |
org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
org.apache.hive | hive-beeline | 2.3.9 |
org.apache.hive | hive-cli | 2.3.9 |
org.apache.hive | hive-jdbc | 2.3.9 |
org.apache.hive | hive-llap-client | 2.3.9 |
org.apache.hive | hive-llap-common | 2.3.9 |
org.apache.hive | hive-serde | 2.3.9 |
org.apache.hive | hive-shims | 2.3.9 |
org.apache.hive | hive-storage-api | 2.7.2 |
org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
org.apache.hive.shims | hive-shims-common | 2.3.9 |
org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
org.apache.htrace | htrace-core4 | 4.1.0-incubating |
org.apache.httpcomponents | httpclient | 4.5.13 |
org.apache.httpcomponents | httpcore | 4.4.12 |
org.apache.ivy | ivy | 2.5.0 |
org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
org.apache.orc | orc-core | 1.6.10 |
org.apache.orc | orc-mapreduce | 1.6.10 |
org.apache.orc | orc-shims | 1.6.10 |
org.apache.parquet | parquet-column | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-encoding | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
org.apache.thrift | libfb303 | 0.9.3 |
org.apache.thrift | libthrift | 0.12.0 |
org.apache.xbean | xbean-asm9-shaded | 4,20 |
org.apache.yetus | audience-annotations | 0.5.0 |
org.apache.zookeeper | zookeeper | 3.6.2 |
org.apache.zookeeper | zookeeper-jute | 3.6.2 |
org.checkerframework | checker-qual | 3.5.0 |
org.codehaus.jackson | jackson-core-asl | 1.9.13 |
org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
org.codehaus.janino | commons-compiler | 3.0.16 |
org.codehaus.janino | janino | 3.0.16 |
org.datanucleus | datanucleus-api-jdo | 4.2.4 |
org.datanucleus | datanucleus-core | 4.1.17 |
org.datanucleus | datanucleus-rdbms | 4.1.19 |
org.datanucleus | javax.jdo | 3.2.0-m3 |
org.eclipse.jetty | jetty-client | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-continuation | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-http | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-io | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-jndi | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-plus | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-proxy | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-security | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-server | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlet | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-servlets | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-util-ajax | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-webapp | 9.4.40.v20210413 |
org.eclipse.jetty | jetty-xml | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-api | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-client | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-common | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-server | 9.4.40.v20210413 |
org.eclipse.jetty.websocket | websocket-servlet | 9.4.40.v20210413 |
org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
org.glassfish.hk2 | hk2-api | 2.6.1 |
org.glassfish.hk2 | hk2-locator | 2.6.1 |
org.glassfish.hk2 | hk2-utils | 2.6.1 |
org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
org.glassfish.jersey.core | jersey-client | 2.34 |
org.glassfish.jersey.core | jersey-common | 2.34 |
org.glassfish.jersey.core | jersey-server | 2.34 |
org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
org.hibernate.validator | hibernate-validator | 6.1.0.Final |
org.javassist | javassist | 3.25.0-GA |
org.jboss.logging | jboss-logging | 3.3.2.Final |
org.jdbi | jdbi | 2.63.1 |
org.jetbrains | annotations | 17.0.0 |
org.joda | joda-convert | 1,7 |
org.jodd | jodd-core | 3.5.2 |
org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
org.json4s | json4s-core_2.12 | 3.7.0-M11 |
org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
org.lz4 | lz4-java | 1.7.1 |
org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
org.objenesis | objenesis | 2.5.1 |
org.postgresql | postgresql | 42.2.19 |
org.roaringbitmap | RoaringBitmap | 0.9.14 |
org.roaringbitmap | shims | 0.9.14 |
org.rocksdb | rocksdbjni | 6.20.3 |
org.rosuda.REngine | REngine | 2.1.0 |
org.scala-lang | scala-compiler_2.12 | 2.12.14 |
org.scala-lang | scala-library_2.12 | 2.12.14 |
org.scala-lang | scala-reflect_2.12 | 2.12.14 |
org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
org.scala-sbt | test-interface | 1.0 |
org.scalacheck | scalacheck_2.12 | 1.14.2 |
org.scalactic | scalactic_2.12 | 3.0.8 |
org.scalanlp | breeze-macros_2.12 | 1.0 |
org.scalanlp | breeze_2.12 | 1.0 |
org.scalatest | scalatest_2.12 | 3.0.8 |
org.slf4j | jcl-over-slf4j | 1.7.30 |
org.slf4j | jul-to-slf4j | 1.7.30 |
org.slf4j | slf4j-api | 1.7.30 |
org.slf4j | slf4j-log4j12 | 1.7.30 |
org.spark-project.spark | неиспользованный | 1.0.0 |
org.springframework | spring-core | 4.1.4.RELEASE |
org.springframework | spring-test | 4.1.4.RELEASE |
org.threeten | threeten-extra | 1.5.0 |
org.tukaani | xz | 1.8 |
org.typelevel | algebra_2.12 | 2.0.0-M2 |
org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
org.typelevel | machinist_2.12 | 0.6.8 |
org.typelevel | macro-compat_2.12 | 1.1.1 |
org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
org.typelevel | spire-util_2.12 | 0.17.0-M1 |
org.typelevel | spire_2.12 | 0.17.0-M1 |
org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
org.xerial | sqlite-jdbc | 3.8.11.2 |
org.xerial.snappy | snappy-java | 1.1.8.4 |
org.yaml | snakeyaml | 1.24 |
oro | oro | 2.0.8 |
pl.edu.icm | JLargeArrays | 1.5 |
software.amazon.ion | ion-java | 1.0.2 |
stax | stax-api | 1.0.1 |