Freigeben über


Laden eines Modells

Wichtig

Für Windows Machine Learning sind ONNX-Modelle, Version 1.2 oder höher, erforderlich.

Nachdem Sie über ein trainiertes ONNX-Modell verfügen, verteilen Sie die ONNX-Modelldateien mit Ihrer App. Sie können die ONNX-Dateien in das APPX-Paket einbinden. Für Desktop-Apps können sie sich an einem beliebigen Speicherort befinden, auf den Ihre App auf der Festplatte zugreifen kann.

Es gibt mehrere Möglichkeiten zum Laden eines Modells mithilfe statischer Methoden für die LearningModel-Klasse:

Mit den LoadFromStream*-Methoden können Anwendungen besser steuern, woher das Modell stammt. Eine App könnte sich beispielsweise dafür entscheiden, das Modell auf dem Datenträger zu verschlüsseln und es nur im Arbeitsspeicher zu entschlüsseln, bevor eine der LoadFromStream*-Methoden aufgerufen wird. Weitere Optionen sind z. B. das Laden des Modelldatenstroms aus einer Netzwerkfreigabe oder einem anderen Medium.

Tipp

Das Laden eines Modells kann einige Zeit in Anspruch nehmen. Achten Sie daher darauf, dass Sie keine Load*-Methode aus dem UI-Thread aufrufen.

Im folgenden Beispiel wird gezeigt, wie Sie ein Modell in Ihre Anwendung laden können:

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

Siehe auch

Hinweis

Verwende die folgenden Ressourcen, wenn du Hilfe mit Windows ML benötigst:

  • Wenn du technische Fragen zu Windows ML stellen oder beantworten möchtest, verwende das Tag windows-machine-learning auf Stack Overflow.
  • Wenn du einen Fehler melden möchtest, erstelle eine Anfrage auf GitHub.