Compartir a través de


Carga de un modelo

Importante

Windows Machine Learning requiere modelos ONNX, versión 1.2 o superior.

Después de obtener un modelo ONNX entrenado, debes distribuir los archivos de modelo .onnx con la aplicación. Puede incluir los archivos .onnx en el paquete APPX o, en el caso de las aplicaciones de escritorio, pueden estar en cualquier ubicación del disco duro a la que la aplicación pueda acceder.

Hay varias maneras de cargar un modelo con métodos estáticos en la clase LearningModel:

Los métodos LoadFromStream* permiten a las aplicaciones tener más control sobre la procedencia del modelo. Por ejemplo, una aplicación puede optar por tener el modelo cifrado en el disco y descifrarlo solo en la memoria antes de llamar a uno de los métodos LoadFromStream*. Otras opciones incluyen la carga del flujo del modelo desde un recurso compartido de red u otro medio.

Sugerencia

Cargar un modelo puede tardar cierto tiempo, por lo que debes tener cuidado de no llamar a un método Load* desde el subproceso de la interfaz de usuario.

En el ejemplo siguiente se muestra cómo puede cargar un modelo en la aplicación:

private async LearningModel LoadModelAsync(string modelPath)
{
    // Load and create the model
    var modelFile = await StorageFile.GetFileFromApplicationUriAsync(
        new Uri(modelPath));

    LearningModel model =
        await LearningModel.LoadFromStorageFileAsync(modelFile);

    return model;
}

Consulte también

Nota:

Use los siguientes recursos para obtener ayuda con Windows ML:

  • Para formular o responder a preguntas técnicas sobre Windows Machine Learning, utilice la etiqueta windows-machine-learning en Stack Overflow.
  • Para notificar un error, registre un problema en GitHub.