Laden eines trainierten Modells
Wichtig
Der Support für Machine Learning Studio (klassisch) endet am 31. August 2024. Es wird empfohlen, bis zu diesem Datum auf Azure Machine Learning umzustellen.
Ab dem 1. Dezember 2021 können Sie keine neuen Ressourcen in Machine Learning Studio (klassisch) mehr erstellen. Bis zum 31. August 2024 können Sie die vorhandenen Ressourcen in Machine Learning Studio (klassisch) weiterhin verwenden.
- Siehe Migrieren zu Azure Machine Learning
- Weitere Informationen zu Azure Machine Learning.
Die Dokumentation zu ML Studio (klassisch) wird nicht mehr fortgeführt und kann künftig nicht mehr aktualisiert werden.
Laden eines im Web gehosteten trainierten Modells
Kategorie: Dateneingabe und -ausgabe
Hinweis
Gilt nur für: Machine Learning Studio (klassisch)
Ähnliche Drag & Drop-Module sind im Azure Machine Learning-Designer verfügbar.
Modulübersicht
In diesem Artikel wird beschrieben, wie Sie das Modul Load Trained Model in Machine Learning Studio (klassisch) verwenden, um ein bereits trainiertes Modell für die Verwendung in einem Experiment zu laden.
Dieses Modul erfordert ein vorhandenes trainiertes Modell. In der Regel erstellen und trainieren Sie das Modell in einem anderen Experiment und speichern das Modell dann entweder in Ihrem Arbeitsbereich oder in einer der unterstützten Cloudspeicheroptionen.
Anschließend verwenden Sie das Modul Load Trained model (Trainiertes Modell laden ), um das trainierte Modell abzurufen und es in einem neuen Experiment auszuführen.
Verwenden des trainierten Modells "Laden"
So verwenden Sie ein vorhandenes Modell, um Vorhersagen für neue Daten zu treffen:
- Das Modell muss zuvor trainiert und dann im iLearner-Format gespeichert worden sein.
- Auf das Modell muss entweder über die URL oder in Azure Blob Storage zugegriffen werden können.
In diesem Abschnitt wird beschrieben, wie Sie ein Modell speichern, ein gespeichertes Modell abrufen und ein gespeichertes Modell anwenden.
Speichern eines trainierten Modells
Sie können Modelle speichern, indem Sie die (klassische) Studio-Schnittstelle oder ein Experiment verwenden, das als Webdienst ausgeführt wird.
Speichern eines Modells mithilfe eines Webdiensts
- Erstellen eines Experiments, das das Trainieren oder erneute Trainieren des Modells als Webdienst übernimmt
- Veröffentlichen Sie dieses Experiment als Webdienst.
- Wenn Sie den BES-Endpunkt des Trainingswebdiensts aufrufen, speichert der Webdienst ein trainiertes Modell mithilfe der iLearner-Schnittstelle und speichert die Datei im von Ihnen angegebenen Azure Blob Storage-Konto.
Schritt-für-Schritt-Informationen zum Erstellen eines Trainingswebdiensts finden Sie in den folgenden Artikeln:
- Programmgesteuertes erneutes Trainieren Machine Learning Modellen
- Speichern eines Experiments als Webdienst
Speichern eines Modells in Studio (klassisch)
- Führen Sie das Experiment aus, das das Modell erstellt und trainiert.
- Klicken Sie nach Abschluss des Trainings mit der rechten Maustaste auf das Modul, das für das Training verwendet wurde, wählen Sie Trainiertes Modell aus, und klicken Sie dann auf Als trainiertes Modell speichern.
- Standardmäßig werden Modelle in Ihrem (klassischen) Studio-Arbeitsbereich gespeichert. Sie können sie über die (klassische) Benutzeroberfläche von Studio anzeigen.
Die folgenden Module können ein gespeichertes Modell erstellen, das die erforderliche iLearner-Schnittstelle verwendet:
- Train Model (Modell trainieren)
- Trainieren des Clusteringmodells
- Train Anomaly Detection Model (Anomalieerkennungsmodell trainieren)
- Tune Model Hyperparameters
- Bereinigungs-Clustering (Sweep)
Hinweis
Beliebige Modelle werden nicht unterstützt. Das Modell muss im Standardbinärformat gespeichert worden sein, das zum Beibehalten von Machine Learning Modellen verwendet wird.
Laden des Modells in ein neues Experiment
Fügen Sie ihrem Experiment in Studio (klassisch) das Modul Load Trained Model hinzu.
Geben Sie für Datenquelle den Speicherort des trainierten Modells an, indem Sie eine der folgenden Optionen verwenden:
Web-URL über HTTP: Geben Sie eine URL an, die auf das Experiment und die Datei verweist, die das trainierte Modell darstellt. In Machine Learning werden trainierte Modelle standardmäßig im ILearner-Format gespeichert.
Azure Blob Storage: Wählen Sie diese Option nur aus, wenn Sie das trainierte Modell in Azure Storage exportiert haben. Anschließend müssen Sie den Kontonamen und den Kontoschlüssel sowie den Pfad zum Container, Verzeichnis oder Blob angeben.
Wenn Sie beabsichtigen, einen Request-Response Webdienst zu erstellen, der auf dem aktuellen Experiment basiert, wählen Sie die Option Allow to use in RRS (Verwendung in RRS zulassen) aus. Andernfalls wird die Bewertung mithilfe der Option Batchausführungsdienst (Batch Execution Service, BES) durchgeführt. Dies wird empfohlen. Weitere Informationen finden Sie im Abschnitt Technische Hinweise .
Wählen Sie die Option Zwischengespeicherte Ergebnisse verwenden aus, wenn Sie das trainierte Modell aus dem Cache laden möchten, wenn der Cache verfügbar und aufgefüllt ist. Diese Option wird ignoriert, nachdem das Experiment als Webdienst-API bereitgestellt wurde.
Beispiele
Beispiele für die Verwendung dieses Moduls finden Sie im Cortana Intelligence-Katalog.
Laden eines trainierten Deep Learning-Modells: Im Beispiel wird ein benutzerdefiniertes neuronales Netzwerk für die Bilderkennung erstellt. Mithilfe des Moduls Load Trained Model können Sie dieses Modell problemlos wiederverwenden, ohne es trainieren zu müssen. Dies kann zeitaufwändig sein.
Diese Sammlung enthält ein Trainingsexperiment zum Erstellen des Modells und ein Vorhersageexperiment, in dem das Modell als Webdienst geladen und für Vorhersagen verwendet wird.
Technische Hinweise
Dieser Abschnitt enthält Implementierungsdetails, Tipps und Antworten auf häufig gestellte Fragen.
Häufig gestellte Fragen
Warum ist die RRS-Verwendung nicht standardmäßig aktiviert?
Es wird allgemein erwartet, dass RRS-Aufrufe Ergebnisse innerhalb kurzer Zeit zurückgeben. Da das Modul das trainierte Modell jedoch in Form eines Blobs aus einem Azure-Speicherkonto oder einer Datei laden muss, die auf einem öffentlichen HTTP-Endpunkt gehostet wird, können Dateivorgänge zu unvorhersehbaren Verzögerungen führen.
Daher wird im Allgemeinen empfohlen, den Webdienst im Batchausführungsmodus (Batch Execution Mode, BES) auszuführen. Wenn Sie die Option für die Ausführung mit RRS auswählen, sollten Sie die potenzielle Verzögerung beachten. Allgemeine Informationen zu Ausführungszeiten finden Sie in der Machine Learning-SLA.
Wird das trainierte Modell schneller geladen, wenn ich die Option zwischengespeicherte Ergebnisse verwende?
Ja, aber nur, wenn das Experiment in Machine Learning Studio (klassisch) ausgeführt wird, und erst, nachdem der Cache durch die erste Ausführung gefüllt wurde. Nachdem das Experiment als Webdienst bereitgestellt wurde, wird dieses Flag von der Webdienstausführung ignoriert.
Gibt es eine Möglichkeit, den Prozess zu automatisieren?
Sie können PowerShell verwenden, um viele Aufgaben in Machine Learning zu vereinfachen oder zu automatisieren. Beispielsweise können Sie den Inhalt eines gesamten Experiments oder eines bestimmten Moduls herunterladen, die Definition des Webdiensts exportieren oder die Webdienstausführungs-API aufrufen. Weitere Informationen finden Sie unter PowerShell-Modul für Microsoft Machine Learning.
Modulparameter
Name | Range | type | Standard | Beschreibung |
---|---|---|---|---|
Verwendung in RRS zulassen | TRUE/FALSE | Boolean | false | Zulassen der Ausführung dieses Moduls im Anforderung/Antwort-Webdienst, was zu unvorhersehbaren Verzögerungen führen kann |
Datenquellen- | Web-URL über HTTP oder Azure Blob Storage | T_DataSourceOrSink | Azure Blob Storage | Die Datenquelle kann HTTP oder eine Datei in Azure Blob Storage sein (erforderlich). |
Für Web-URL über HTTP: | ||||
Datenquellen-URL | any | Zeichenfolge | URL für HTTP | |
Für Azure Blob Storage: | ||||
Kontoname | any | Zeichenfolge | Kontoname | |
Kontoschlüssel | any | SecureString | Der Schlüssel, der dem Microsoft Azure Storage-Konto zugeordnet ist | |
Pfad zu Container, Verzeichnis oder Blob | any | Zeichenfolge | Der Pfad zum Blob oder der Name einer Tabelle |
Ausgaben
Name | Type | Beschreibung |
---|---|---|
Trainiertes Modell | ILearner-Schnittstelle | Trainiertes Modell |
Ausnahmen
Ausnahme | Beschreibung |
---|---|
Fehler 0003 | Eine Ausnahme tritt auf, wenn mindestens eine Eingabe NULL oder leer ist. |
Eine Liste der Fehler, die für Studio-Module (klassisch) spezifisch sind, finden Sie unter Machine Learning Fehlercodes.
Eine Liste der API-Ausnahmen finden Sie unter Machine Learning REST-API-Fehlercodes.