Partager via


Charger un modèle

Important

Windows Machine Learning nécessite des modèles ONNX version 1.2 ou ultérieure.

Une fois que vous aurez obtenu un modèle ONNX entraîné, vous distribuerez le ou les fichiers de modèle .onnx avec votre application. Vous pouvez inclure les fichiers .onnx dans votre package APPX ou, pour les applications de bureau, ils peuvent se trouver à n’importe quel emplacement accessible par votre application sur le disque dur.

Il existe plusieurs façons de charger un modèle à l’aide de méthodes statiques sur la classe LearningModel :

Les méthodes LoadFromStream* permettent aux applications d’avoir davantage de contrôle sur l’origine du modèle. Par exemple, une application peut choisir de chiffrer le modèle sur le disque et de le déchiffrer uniquement en mémoire avant d’appeler l’une des méthodes LoadFromStream*. Les autres options incluent le chargement du flux de modèle à partir d’un partage réseau ou d’un autre média.

Conseil

Le chargement d’un modèle peut prendre un certain temps. Veillez donc à ne pas appeler une méthode Load* à partir de votre thread d’interface utilisateur.

L’exemple suivant montre comment charger un modèle dans votre application :

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

Voir aussi

Remarque

Utilisez les ressources suivantes pour obtenir de l’aide sur Windows ML :

  • Pour poser des questions techniques ou apporter des réponses à des questions techniques sur Windows ML, veuillez utiliser le mot clé windows-machine-learning sur Stack Overflow.
  • Pour signaler un bogue, veuillez signaler un problème dans notre plateforme GitHub.