モデル デプロイ戦略を調べる
モデルをトレーニングしたら、次の手順はデプロイです。 モデルを効果的にデプロイするには、MLflow を使用する必要があります。
MLflow は、パラメーターとメトリックのログ記録から、モデルのパッケージ化と共有まで、プロセス全体を管理するのに役立ちます。
また、モデルのデプロイ方法も検討する必要があります。 モザイク AI モデル サービスを使用してリアルタイム予測を選択するか、Azure Databricks ジョブでのバッチ予測を選択できます。 または、Azure Machine Learning と統合してその組み込み機能を使用することで、モデルをリアルタイム エンドポイントまたはバッチ エンドポイントにデプロイすることもできます。
どの方法を選択しても、モデル デプロイでは、モデルを運用環境に対応させ、必要な分析情報を提供できるようにできます。
モデル管理に MLflow を使用する
Azure Databricks では MLflow を使用できます。 MLflow は、機械学習ライフサイクルの全体を管理するためのオープンソース プラットフォームです。
MLflow を使用すると、実験の追跡、コードのパッケージ化、モデルの共有とデプロイを行うことができます。 MLflow を使用すると、モデルは開発から運用まで一貫して管理されます。
MLflow の追跡サーバーを使用すると、パラメーター、メトリック、成果物をログに記録できます。 MLflow の追跡機能は、モデルのパフォーマンスの包括的な記録を提供し、再現性に役立ちます。
ヒント
MLflow モデルのログ記録、読み込み、登録、デプロイの方法に関する詳細情報。
Databricks を使用してモデルをデプロイする
Azure Databricks を使用してモデルをデプロイするには、Mosaic AI Model Serving を使用して、カスタム Python モデルから運用グレードの API を作成する必要があります。
カスタム Python モデルは、scikit-learn、XGBoost、PyTorch、HuggingFace トランスフォーマーなどのライブラリを使用してトレーニングするモデルです。
トレーニング後、トレーニング済みのモデルを MLflow 形式でログに記録し、MLflow 資産を Unity カタログまたはワークスペース レジストリに登録します。
登録が完了したら、モデルを提供するエンドポイントを作成してクエリを実行できます。このエンドポイントをソリューションに統合することで、モデルがリアルタイムの予測に対応できるようにします。
ヒント
カスタム モデルをデプロイしてクエリを実行する方法に関する詳細情報。
バッチ予測の生成
リアルタイム予測が必要ないユース ケースでは、バッチ推論がより効果的なデプロイ戦略である可能性があります。 バッチ予測は、定期的なレポートの生成や、データ ウェアハウスを新しい分析情報で更新する場合などのシナリオでよく使用されます。
Azure Databricks では Apache Spark を使用して大規模なデータセットを並列処理できるため、バッチ推論タスクに適しています。
Azure Databricks ジョブを実行すると、スケジュールされた方法で大量のデータにモデルを適用できます。 保存して必要に応じてアクセスすることが可能なバッチ予測または分析情報を生成できます。
ヒント
バッチ推論と予測のためにモデルをデプロイする方法に関する詳細情報。
Azure Machine Learning との統合
Azure Databricks は Azure Machine Learning と統合されているため、Azure Machine Learning ワークスペース内のエンドポイントにモデルをデプロイできます。
Azure Databricks と Azure Machine Learning の両方が MLflow と連携してモデルを管理します。 Azure Databricks でモデルをトレーニングし、MLflow モデルとして保存できます。 その後、MLflow モデルを Azure Machine Learning ワークスペースに登録できます。その後、モデルをバッチ エンドポイントまたはリアルタイム エンドポイントに簡単にデプロイできます。
ヒント