了解模型部署策略

已完成

完成模型训练后,下一步就是部署。 若要有效地部署模型,需要使用 MLflow。

MLflow 有助于管理整个过程,包括记录参数和指标、打包和共享模型。

你还需要考虑如何部署模型。 可以选择使用 Mosaic AI Model Serving 进行实时预测,或使用 Azure Databricks 作业进行批量预测。 或者,可以与 Azure 机器学习集成,并使用其内置功能将模型部署到实时或批处理终结点。

无论选择哪种方法,模型部署都能确保模型已准备好投入生产并能提供所需的见解。

使用 MLflow 管理模型

搭配使用 Azure Databricks 与 MLflow。 MLflow 是用于管理整个机器学习生命周期的开源平台。

借助 MLflow,可以跟踪试验、打包代码以及共享和部署模型。 MLflow 可确保从开发到生产的过程中,以一致的方式管理模型。

MLflow 的跟踪服务器允许记录参数、指标和项目。 MLflow 的跟踪功能会提供模型性能的全面记录,有助于重现。

提示

了解有关如何记录、加载、注册和部署 MLflow 模型的更多信息。

使用 Databricks 部署模型

使用 Azure Databricks 部署模型涉及使用 Mosaic AI Model Serving 从自定义 Python 模型创建生产级 API。

自定义 Python 模型是使用 scikit-learn、XGBoost、PyTorch 和 HuggingFace 转换器等库训练的模型。

训练后,以 MLflow 格式记录训练后的模型,并在 Unity 目录或工作区注册表中注册 MLflow 资产。

注册后,可以创建和查询模型服务终结点,通过将终结点集成到解决方案中,确保模型已做好准备进行实时预测。

提示

详细了解如何部署和查询自定义模型

生成批量预测

对于不需要实时预测的用例,批量推理可能是一种更有效的部署策略。 批量预测通常用于生成定期报告或使用新见解更新数据仓库等场方案。

Azure Databricks 可以使用 Apache Spark 并行处理大型数据集,使其非常适合批量推理任务。

运行 Azure Databricks 作业时,可以按照计划的方式使用模型处理大量数据。 可以生成可根据需要存储和访问的批量预测或见解。

提示

了解有关如何部署模型进行批量推理和预测的更多信息。

与 Azure 机器学习集成

通过集成 Azure Databricks 与 Azure 机器学习,你能够将模型部署到 Azure 机器学习工作区中的终结点。

Azure Databricks 和 Azure 机器学习都支持使用 MLflow 来管理模型。 可以在 Azure Databricks 中训练模型,并将其保存为 MLflow 模型。 然后,可以在 Azure 机器学习工作区中注册 MLflow 模型,之后可以轻松地将模型部署到批处理或实时终结点。