Отслеживание разработки моделей с помощью MLflow
В этой статье содержатся примеры разработки моделей отслеживания в Azure Databricks. Автоматически регистрируют и отслеживают модели машинного обучения и глубокого обучения с помощью MLflow или вручную с помощью API MLflow.
Отслеживание моделей и MLflow
Разработка и оптимизации модели — это итеративные процессы, отслеживание которых может быть непростой задачей. В Azure Databricks можно использовать отслеживание MLflow в ходе разработки модели для мониторинга настройки параметров и их комбинаций, а также влияния на производительность модели.
Отслеживание MLflow использует эксперименты и выполняется для регистрации и отслеживания разработки моделей машинного обучения и глубокого обучения. Выполнение — это однократный запуск кода модели. Во время выполнения MLflow можно регистрировать параметры и результаты модели. Эксперимент — это набор связанных выполнений. В эксперименте можно сравнить и отфильтровать запуски, чтобы понять, как выполняется модель и как ее производительность зависит от параметров, входных данных и т. д.
Записные книжки в этой статье содержат простые примеры, которые помогут быстро приступить к использованию MLflow для отслеживания разработки модели. Дополнительные сведения об использовании отслеживания MLflow в Azure Databricks см. в разделе "Отслеживание машинного обучения и глубокого обучения".
Примечание.
Отслеживание MLflow не поддерживает задания, отправленные в API заданий с помощью spark_submit_task. Вместо этого можно использовать проекты MLflow для выполнения кода Spark.
Использование автоматического ведения журнала для отслеживания разработки модели
MLflow может автоматически записывать код обучения, написанный во многих платформах машинного обучения и глубокого обучения. Это самый простой способ начать работу с отслеживанием MLflow.
В этом примере записной книжки показано, как использовать функцию автоматического ведения журнала в scikit-learn. Дополнительные сведения об автоматическом ведении журналов с помощью других библиотек Python см. в разделе Автоматическая регистрация выполнений обучения в MLflow.
Записная книжка Python для автологирования MLflow
Использование API ведения журнала для отслеживания разработки модели
В этой записной книжке показано, как использовать API ведения журнала MLflow. Использование API ведения журнала обеспечивает больший контроль над зарегистрированными метриками и позволяет регистрировать дополнительные артефакты, такие как таблицы и диаграммы.
В этом примере записной книжки показано, как использовать API ведения журнала Python. MLflow также содержит REST API, API R и Java.
Записная книжка Python api ведения журнала MLflow
Полный пример
В этой записной книжке представлен полный пример обучения модели в Azure Databricks, включая загрузку данных, визуализацию данных, настройку параллельной оптимизации гиперпараметров, а также использование MLflow для просмотра результатов, регистрации модели и выполнения вывода новых данных с помощью зарегистрированной модели в UDF Spark.
Требования
Databricks Runtime ML
Пример записной книжки
Если рабочая область включена для каталога Unity, используйте эту версию записной книжки:
Использование scikit-learn с интеграцией MLflow в Databricks (каталог Unity)
Если рабочая область не включена для каталога Unity, используйте эту версию записной книжки: