Distribuire il modello di ML.NET in un'app di Windows con le API di Windows Machine Learning
Nella parte precedente di questa esercitazione si è appreso come compilare ed esportare un modello di ML.NET in formato ONNX. Ora che si dispone di tale modello, è possibile incorporarlo in un'applicazione Windows ed eseguirlo localmente in un dispositivo chiamando le API WinML.
Al termine, avrai un'app UWP (C#) del classificatore di immagini funzionante.
Informazioni sull'app di esempio
Usando il modello verrà creata un'app in grado di classificare le immagini degli alimenti. Consente di selezionare un'immagine dal dispositivo locale ed elaborarla in base a un modello ONNX di classificazione archiviato localmente creato ed eseguito il training nella parte precedente. I tag restituiti vengono visualizzati accanto all'immagine, nonché la probabilità di attendibilità della classificazione.
Se hai seguito questa esercitazione finora, dovresti avere già i prerequisiti necessari per lo sviluppo di app. Se è necessario un aggiornamento, vedere la prima parte di questa esercitazione.
Nota
Se si preferisce scaricare il codice di esempio completo, è possibile clonare il file della soluzione. Clonare il repository, passare a questo esempio, quindi aprire il classifierMLNETModel.sln
file con Visual Studio. È quindi possibile passare al passaggio [Avvia l'applicazione](#Launch'applicazione).
Creare una piattaforma UWP WinML (C#)
Di seguito verrà illustrato come creare l'app e il codice WinML da zero. Nello specifico:
- Caricare un modello di Machine Learning.
- Caricare un'immagine nel formato richiesto.
- Associare gli input e gli output del modello.
- Valutare il modello e visualizzare risultati significativi.
Si userà anche XAML di base per creare una GUI semplice, in modo da poter testare il classificatore di immagini.
Creare l'app
- Aprire Visual Studio e scegliere
create a new project
.
- Nella barra di ricerca digitare
UWP
e quindi selezionareBlank APP (Universal Windows
. Verrà aperto un nuovo progetto C# per un'app UWP (Single Page Piattaforma UWP (Universal Windows Platform)) senza controlli o layout predefiniti. Selezionare questa opzioneNext
per aprire una finestra di configurazione per il progetto.
- Nella finestra di configurazione:
- Scegliere un nome per il progetto. In questo caso viene usato classifierMLNETModel.
- Scegliere il percorso del progetto.
- Se si usa VS 2019, verificare che
Place solution and project in the same directory
sia deselezionata. - Se si usa VS 2017, verificare che
Create directory for solution
sia selezionata.
Premere create
per creare il progetto. È possibile che venga visualizzata la finestra della versione di destinazione minima. Assicurarsi che la versione minima sia impostata su Windows 10 build 17763 o versione successiva.
Per creare un'app e distribuire un modello con un'app WinML, sono necessari gli elementi seguenti:
- Dopo aver creato il progetto, passare alla cartella del progetto, aprire la cartella assets [....\classifierMLNETModel\Assets] e copiare il
bestModel.onnx
file in questo percorso.
Esplorare la soluzione del progetto
Si esaminerà ora la soluzione del progetto.
Visual Studio ha creato automaticamente diversi file cs-code all'interno del Esplora soluzioni. MainPage.xaml
contiene il codice XAML per l'interfaccia utente grafica e MainPage.xaml.cs
contiene il codice dell'applicazione. Se hai creato un'app UWP in precedenza, questi file dovrebbero essere molto familiari.
Creare l'interfaccia utente grafica dell'applicazione
Creare prima di tutto un'interfaccia utente grafica semplice per l'app.
Fare doppio clic sul
MainPage.xaml
file. Nell'app vuota il modello XAML per l'interfaccia utente grafica dell'app è vuoto, quindi è necessario aggiungere alcune funzionalità dell'interfaccia utente.Sostituire il codice di
MainPage.xaml
con il codice seguente.
<Page
x:Class="classifierMLNETModel.MainPage"
xmlns="http://schemas.microsoft.com/winfx/2006/xaml/presentation"
xmlns:x="http://schemas.microsoft.com/winfx/2006/xaml"
xmlns:local="using:classifierMLNETModel"
xmlns:d="http://schemas.microsoft.com/expression/blend/2008"
xmlns:mc="http://schemas.openxmlformats.org/markup-compatibility/2006"
mc:Ignorable="d"
Background="{ThemeResource ApplicationPageBackgroundThemeBrush}">
<Grid Background="{ThemeResource ApplicationPageBackgroundThemeBrush}">
<StackPanel Margin="1,0,-1,0">
<TextBlock x:Name="Menu"
FontWeight="Bold"
TextWrapping="Wrap"
Margin="10,0,0,0"
Text="Image Classification"/>
<TextBlock Name="space" />
<Button Name="recognizeButton"
Content="Pick Image"
Click="OpenFileButton_Click"
Width="110"
Height="40"
IsEnabled="True"
HorizontalAlignment="Left"/>
<TextBlock Name="space3" />
<Button Name="Output"
Content="Result is:"
Width="110"
Height="40"
IsEnabled="True"
HorizontalAlignment="Left"
VerticalAlignment="Top">
</Button>
<!--Dispaly the Result-->
<TextBlock Name="displayOutput"
FontWeight="Bold"
TextWrapping="Wrap"
Margin="25,0,0,0"
Text="" Width="1471" />
<TextBlock Name="space2" />
<!--Image preview -->
<Image Name="UIPreviewImage" Stretch="Uniform" MaxWidth="300" MaxHeight="300"/>
</StackPanel>
</Grid>
</Page>
Aggiungere il modello al progetto usando Il generatore di codice di Windows Machine Learning
Generatore di codice di Windows Machine Learning o mlgen è un'estensione di Visual Studio che consente di iniziare a usare le API WinML nelle app UWP. Genera codice modello quando aggiungi un file ONNX sottoposto a training nel progetto UWP.
Il generatore di codice di Windows Machine Learning mlgen crea un'interfaccia (per C#, C++/WinRT e C++/CX) con classi wrapper che chiamano automaticamente l'API di Windows ML. In questo modo è possibile caricare, associare e valutare facilmente un modello nel progetto. Verrà usato in questa esercitazione per gestire molte di queste funzioni.
Il generatore di codice è disponibile per Visual Studio 2017 e versioni successive. Tieni presente che in Windows 10 versione 1903 e successive mlgen non è più incluso in Windows 10 SDK, quindi devi scaricare e installare l'estensione. Se è stata eseguita questa esercitazione dall'introduzione, questa operazione sarà già stata gestita, ma in caso contrario, è consigliabile scaricare vs 2019 o per VS 2017.
Nota
Per altre informazioni su mlgen, vedere la documentazione di mlgen
Se non è già stato fatto, installare mlgen.
Fare clic con il pulsante destro del mouse sulla
Assets
cartella nel Esplora soluzioni in Visual Studio e scegliereAdd > Existing Item
.Passare alla cartella assets all'interno
ImageClassifierAppUWP [….\ImageClassifierAppUWP\Assets]
di , individuare il modello ONNX copiato in precedenza e selezionareadd
.Dopo aver aggiunto un modello ONNX (nome: "classificatore") alla cartella assets in Esplora soluzioni in Visual Studio, il progetto dovrebbe ora avere due nuovi file:
bestModel.onnx
- Questo è il modello in formato ONNX.bestModel.cs
: file di codice WinML generato automaticamente.
- Per assicurarsi che il modello venga compilato durante la compilazione dell'applicazione, selezionare il
bestModel.onnx
file e scegliereProperties
. PerBuild Action
selezionareContent
.
Si esaminerà ora il codice appena generato nel bestModel.cs
file.
Il codice generato include tre classi:
bestModelModel
: questa classe include due metodi per la creazione di istanze del modello e la valutazione del modello. Ci aiuterà a creare la rappresentazione del modello di Machine Learning, creare una sessione nel dispositivo predefinito del sistema, associare gli input e gli output specifici al modello e valutare il modello in modo asincrono.bestModelInput
: questa classe inizializza i tipi di input previsti dal modello. L'input del modello dipende dai requisiti del modello per i dati di input.bestModelOutput
: questa classe inizializza i tipi restituiti dal modello. L'output del modello dipende dalla modalità di definizione del modello.
A questo punto si useranno queste classi per caricare, associare e valutare il modello nel progetto.
Conversione tensor
Per semplificare la gestione della tensorizzazione, modificare la classe di input TensorFloat
in ImageFeatureValue
.
- Apportare le modifiche seguenti nel
bestModel.cs
file:
Il codice:
public sealed class bestModelInput
{
public TensorFloat input; // shape(-1,3,32,32)
}
Diventerà:
public sealed class bestModelInput
{
public ImageFeatureValue input; // shape(-1,3,32,32)
}
Caricare il modello e gli input
Caricare il modello
Fare doppio clic sul file di
MainPage.xaml.cs
codice per aprire il codice dell'applicazione.Sostituire le istruzioni "using" con quanto segue per ottenere un accesso a tutte le API necessarie.
// Specify all the using statements which give us the access to all the APIs that you'll need
using System;
using System.Threading.Tasks;
using Windows.AI.MachineLearning;
using Windows.Graphics.Imaging;
using Windows.Media;
using Windows.Storage;
using Windows.Storage.Pickers;
using Windows.Storage.Streams;
using Windows.UI.Xaml;
using Windows.UI.Xaml.Controls;
using Windows.UI.Xaml.Media.Imaging;
- Aggiungere le dichiarazioni di variabili seguenti dopo le istruzioni using all'interno della
MainPage
classe , nello spazio dei nomiclassifierMLNETModel
.
// All the required fields declaration
private bestModelModel modelGen;
private bestModelInput image = new bestModelInput();
private bestModelOutput results;
private StorageFile selectedStorageFile;
private string label = "";
private float probability = 0;
private Helper helper = new Helper();
public enum Labels
{
desert,
soup,
vegetable_fruit,
}
A questo punto, si implementerà il LoadModel
metodo . Il metodo accederà al modello ONNX e lo archivierà in memoria. Si userà quindi il CreateFromStreamAsync
metodo per creare un'istanza LearningModel
del modello come oggetto . La LearningModel
classe rappresenta un modello di Machine Learning sottoposto a training. Una volta creata un'istanza, è l'oggetto LearningModel
iniziale usato per interagire con Windows ML.
Per caricare il modello, è possibile usare diversi metodi statici nella LearningModel
classe . In questo caso, si userà il CreateFromStreamAsync
metodo .
Il CreateFromStreamAsync
metodo è stato creato automaticamente con mlgen, quindi non è necessario implementare questo metodo. È possibile esaminare questo metodo facendo doppio clic sul bestModel.cs
file generato da mlgen.
Per altre informazioni sulla LearningModel
classe, vedere la documentazione della classe LearningModel.
Per altre informazioni sui modi aggiuntivi per caricare il modello, vedere la documentazione caricare un modello
- Definire il metodo principale.
// The main page to initialize and execute the model.
public MainPage()
{
this.InitializeComponent();
loadModel();
}
- Aggiungere l'implementazione del
loadModel
metodo alMainPage.xaml.cs
file di codice all'interno dellaMainPage
classe .
private async Task loadModel()
{
// Get an access the ONNX model and save it in memory.
StorageFile modelFile = await StorageFile.GetFileFromApplicationUriAsync(new Uri($"ms-appx:///Assets/bestModel.onnx"));
// Instantiate the model.
modelGen = await bestModelModel.CreateFromStreamAsync(modelFile);
}
Caricare l'immagine
- È necessario definire un evento click per avviare la sequenza di quattro chiamate di metodo per l'esecuzione del modello: conversione, associazione e valutazione, estrazione di output e visualizzazione dei risultati. Aggiungere il metodo seguente al
MainPage.xaml.cs
file di codice all'interno dellaMainPage
classe .
// Waiting for a click event to select a file
private async void OpenFileButton_Click(object sender, RoutedEventArgs e)
{
if (!await getImage())
{
return;
}
// After the click event happened and an input selected, begin the model execution.
// Bind the model input
await imageBind();
// Model evaluation
await evaluate();
// Extract the results
extractResult();
// Display the results
await displayResult();
}
- A questo punto, si implementerà il
getImage()
metodo . Questo metodo selezionerà un file di immagine di input e lo salverà in memoria. Aggiungere il metodo seguente alMainPage.xaml.cs
file di codice all'interno dellaMainPage
classe .
// A method to select an input image file
private async Task<bool> getImage()
{
try
{
// Trigger file picker to select an image file
FileOpenPicker fileOpenPicker = new FileOpenPicker();
fileOpenPicker.SuggestedStartLocation = PickerLocationId.PicturesLibrary;
fileOpenPicker.FileTypeFilter.Add(".jpg");
fileOpenPicker.FileTypeFilter.Add(".png");
fileOpenPicker.ViewMode = PickerViewMode.Thumbnail;
selectedStorageFile = await fileOpenPicker.PickSingleFileAsync();
if (selectedStorageFile == null)
{
return false;
}
}
catch (Exception)
{
return false;
}
return true;
}
Successivamente, si implementerà un metodo di immagine Bind()
per ottenere la rappresentazione del file nel formato bitmap BGRA8. Prima di tutto si creerà una classe helper per ridimensionare l'immagine.
- Per creare un file helper, fare clic con il pulsante destro del mouse sul nome della soluzione (
ClassifierPyTorch
), quindi scegliereAdd a new item
. Nella finestra aperta selezionareClass
e assegnare un nome. In questo caso, vieneHelper
chiamato .
- Verrà visualizzato un nuovo file di classe all'interno del progetto. Aprire questa classe e aggiungere il codice seguente:
using System;
using System.Threading.Tasks;
using Windows.Graphics.Imaging;
using Windows.Media;
namespace classifierPyTorch
{
public class Helper
{
private const int SIZE = 32;
VideoFrame cropped_vf = null;
public async Task<VideoFrame> CropAndDisplayInputImageAsync(VideoFrame inputVideoFrame)
{
bool useDX = inputVideoFrame.SoftwareBitmap == null;
BitmapBounds cropBounds = new BitmapBounds();
uint h = SIZE;
uint w = SIZE;
var frameHeight = useDX ? inputVideoFrame.Direct3DSurface.Description.Height : inputVideoFrame.SoftwareBitmap.PixelHeight;
var frameWidth = useDX ? inputVideoFrame.Direct3DSurface.Description.Width : inputVideoFrame.SoftwareBitmap.PixelWidth;
var requiredAR = ((float)SIZE / SIZE);
w = Math.Min((uint)(requiredAR * frameHeight), (uint)frameWidth);
h = Math.Min((uint)(frameWidth / requiredAR), (uint)frameHeight);
cropBounds.X = (uint)((frameWidth - w) / 2);
cropBounds.Y = 0;
cropBounds.Width = w;
cropBounds.Height = h;
cropped_vf = new VideoFrame(BitmapPixelFormat.Bgra8, SIZE, SIZE, BitmapAlphaMode.Ignore);
await inputVideoFrame.CopyToAsync(cropped_vf, cropBounds, null);
return cropped_vf;
}
}
}
A questo punto, convertire l'immagine nel formato appropriato.
La bestModelInput
classe inizializza i tipi di input previsti dal modello. In questo caso, il codice è stato configurato in modo da prevedere un oggetto ImageFeatureValue
.
La ImageFeatureValue
classe descrive le proprietà dell'immagine usata per passare a un modello. Per creare un oggettoImageFeatureValue
, usare il CreateFromVideoFrame
metodo . Per informazioni più specifiche sul funzionamento di queste classi e metodi, vedere la documentazione della classe ImageFeatureValue.
Nota
In questa esercitazione viene usata la ImageFeatureValue
classe anziché un tensore. Se Window ML non supporta il formato di colore del modello, questa non sarà un'opzione. Per un esempio di come usare le conversioni di immagini e la tensorizzazione, vedere l'esempio di tensorizzazione personalizzata.
- Aggiungere l'implementazione del metodo al
MainPage.xaml.cs
file diconvert()
codice all'interno della classe MainPage. Il metodo convert ci otterrà una rappresentazione del file di input in un formato BGRA8.
// A method to convert and bind the input image.
private async Task imageBind()
{
UIPreviewImage.Source = null;
try
{
SoftwareBitmap softwareBitmap;
using (IRandomAccessStream stream = await selectedStorageFile.OpenAsync(FileAccessMode.Read))
{
// Create the decoder from the stream
BitmapDecoder decoder = await BitmapDecoder.CreateAsync(stream);
// Get the SoftwareBitmap representation of the file in BGRA8 format
softwareBitmap = await decoder.GetSoftwareBitmapAsync();
softwareBitmap = SoftwareBitmap.Convert(softwareBitmap, BitmapPixelFormat.Bgra8, BitmapAlphaMode.Premultiplied);
}
// Display the image
SoftwareBitmapSource imageSource = new SoftwareBitmapSource();
await imageSource.SetBitmapAsync(softwareBitmap);
UIPreviewImage.Source = imageSource;
// Encapsulate the image within a VideoFrame to be bound and evaluated
VideoFrame inputImage = VideoFrame.CreateWithSoftwareBitmap(softwareBitmap);
// Resize the image size to 224x224
inputImage=await helper.CropAndDisplayInputImageAsync(inputImage);
// Bind the model input with image
ImageFeatureValue imageTensor = ImageFeatureValue.CreateFromVideoFrame(inputImage);
image.input1 = imageTensor;
// Encapsulate the image within a VideoFrame to be bound and evaluated
VideoFrame inputImage = VideoFrame.CreateWithSoftwareBitmap(softwareBitmap);
// Bind the input image
ImageFeatureValue imageTensor = ImageFeatureValue.CreateFromVideoFrame(inputImage);
image.modelInput = imageTensor;
}
catch (Exception e)
{
}
}
Associare e valutare il modello
Si creerà quindi una sessione basata sul modello, si associano l'input e l'output dalla sessione e si valuterà il modello.
Creare una sessione per associare il modello:
Per creare una sessione, usare la LearningModelSession
classe . Questa classe viene usata per valutare i modelli di Machine Learning e associa il modello a un dispositivo che esegue e valuta il modello. È possibile selezionare un dispositivo quando si crea una sessione per eseguire il modello in un dispositivo specifico del computer. Il dispositivo predefinito è la CPU.
Nota
Per altre informazioni su come scegliere un dispositivo, vedere la documentazione Creare una sessione .
Associare input e output del modello:
Per associare input e output, usare la LearningModelBinding
classe . Un modello di Machine Learning include caratteristiche di input e output, che passano informazioni all'interno e all'esterno del modello. Tenere presente che le funzionalità necessarie devono essere supportate dalle API Windows ML. La LearningModelBinding
classe viene applicata a un LearningModelSession
oggetto per associare valori alle funzionalità di input e output denominate.
L'implementazione dell'associazione viene generata automaticamente da mlgen, quindi non è necessario prenderne cura. L'associazione viene implementata chiamando i metodi predefiniti della LearningModelBinding
classe . In questo caso, usa il Bind
metodo per associare un valore al tipo di funzionalità denominato.
Valutare il modello:
Dopo aver creato una sessione per associare il modello e i valori delimitati agli input e agli output di un modello, è possibile valutare gli input del modello e ottenere le stime. Per eseguire l'esecuzione del modello, è necessario chiamare uno dei metodi di valutazione predefiniti in LearningModelSession. In questo caso si userà il EvaluateAsync
metodo .
Analogamente a CreateFromStreamAsync
, il EvaluateAsync
metodo è stato generato automaticamente anche dal generatore di codice WinML, quindi non è necessario implementare questo metodo. È possibile esaminare questo metodo nel bestModel.cs
file .
Il EvaluateAsync
metodo valuterà in modo asincrono il modello di Machine Learning usando i valori delle funzionalità già associati nelle associazioni. Creerà una sessione con LearningModelSession
, associa l'input e l'output con LearningModelBinding
, eseguirà la valutazione del modello e otterrà le funzionalità di output del modello usando la LearningModelEvaluationResult
classe .
Nota
Per informazioni su altri metodi di valutazione per eseguire il modello, verificare quali metodi possono essere implementati in LearningModelSession esaminando la documentazione della classe LearningModelSession.
- Aggiungere il metodo seguente al
MainPage.xaml.cs
file di codice all'interno della classe MainPage per creare una sessione, associare e valutare il modello.
// A method to evaluate the model
private async Task evaluate()
{
results = await modelGen.EvaluateAsync(image);
}
Estrarre e visualizzare i risultati
Sarà ora necessario estrarre l'output del modello e visualizzare il risultato corretto, che verrà eseguito implementando i extractResult
metodi e displayResult
. È necessario trovare la probabilità più alta per restituire l'etichetta corretta.
- Aggiungere il
extractResult
metodo alMainPage.xaml.cs
file di codice all'interno dellaMainPage
classe .
// A method to extract output from the model
private void extractResult()
{
// Retrieve the results of evaluation
var mResult = results.modelOutput as TensorFloat;
// convert the result to vector format
var resultVector = mResult.GetAsVectorView();
probability = 0;
int index = 0;
// find the maximum probability
for(int i=0; i<resultVector.Count; i++)
{
var elementProbability=resultVector[i];
if (elementProbability > probability)
{
index = i;
}
}
label = ((Labels)index).ToString();
}
- Aggiungere il
displayResult
metodo alMainPage.xaml.cs
file di codice all'interno dellaMainPage
classe .
private async Task displayResult()
{
displayOutput.Text = label;
}
Ecco fatto! L'app di Machine Learning di Windows è stata creata correttamente con un'interfaccia utente grafica di base per testare il modello di classificazione. Il passaggio successivo consiste nell'avviare l'applicazione ed eseguirla localmente nel dispositivo Windows.
Avvia l'applicazione
Dopo aver completato l'interfaccia dell'applicazione, aggiunto il modello e generato il codice di Windows ML, è possibile testare l'applicazione.
Abilitare la modalità sviluppatore e testare l'applicazione da Visual Studio. Assicurarsi che i menu a discesa nella barra degli strumenti superiore siano impostati su Debug
. Impostare Solution Platform su x64 per eseguire il progetto nel computer locale se il dispositivo è a 64 bit o x86 se è a 32 bit.
Per testare l'app, si userà l'immagine seguente della zuppa. Vediamo come l'app classifica il contenuto dell'immagine.
Salvare questa immagine nel dispositivo locale per testare l'app. Modificare il formato dell'immagine in
.jpg
se necessario. È anche possibile aggiungere qualsiasi altra immagine pertinente dal dispositivo locale in un.jpg
formato o.png
.Per eseguire il progetto, selezionare il
Start Debugging
pulsante sulla barra degli strumenti oppure premereF5
.All'avvio dell'applicazione, premere
Pick Image
e selezionare l'immagine dal dispositivo locale.
Il risultato verrà visualizzato immediatamente sullo schermo. Come si può notare, l'app di Windows ML ha classificato correttamente l'immagine come zuppa.
Riepilogo
È stata appena creata la prima app di Windows Machine Learning, dalla creazione del modello alla corretta esecuzione.
Risorse aggiuntive
Per altre informazioni sugli argomenti presentati in questa esercitazione, vedere le risorse seguenti:
- Strumenti di Windows ML: altre informazioni su strumenti come dashboard di Windows ML, WinMLRunner e generatore di codice di Windows ML mglen .
- Modello ONNX: altre informazioni sul formato ONNX.
- Prestazioni e memoria di Windows ML: altre informazioni su come gestire le prestazioni delle app con Windows ML.
- Informazioni di riferimento sulle API di Windows Machine Learning: altre informazioni sulle tre aree delle API di Windows ML.