Läsa in tränad modell
Viktigt
Stödet för Machine Learning Studio (klassisk) upphör den 31 augusti 2024. Vi rekommenderar att du byter till Azure Machine Learning innan dess.
Från och med den 1 december 2021 kan du inte längre skapa nya Machine Learning Studio-resurser (klassisk). Du kan fortsätta att använda befintliga Machine Learning Studio-resurser (klassisk) till och med den 31 augusti 2024.
- Se information om hur du flyttar maskininlärningsprojekt från ML Studio (klassisk) till Azure Machine Learning.
- Läs mer om Azure Machine Learning.
Dokumentationen om ML Studio (klassisk) håller på att dras tillbaka och kanske inte uppdateras i framtiden.
Läsa in en webbaserad tränad modell
Kategori: Indata och utdata
Anteckning
Gäller endast för: Machine Learning Studio (klassisk)
Liknande dra och släpp-moduler är tillgängliga i Azure Machine Learning designer.
Modulöversikt
Den här artikeln beskriver hur du använder modulen Load Trained Model (Läs in tränad modell) i Machine Learning Studio (klassisk) för att läsa in en redan tränad modell för användning i ett experiment.
Den här modulen kräver en befintlig tränad modell. Normalt skapar och tränar du modellen i ett annat experiment och sparar sedan modellen antingen på din arbetsyta eller till något av molnlagringsalternativen som stöds.
Sedan använder du modulen Load Trained model (Läs in tränad modell) för att hämta den tränade modellen och köra den i ett nytt experiment.
Använda inläsningstränad modell
Så här använder du en befintlig modell för att göra förutsägelser för nya data:
- Modellen måste ha tränats tidigare och sedan sparats i iLearner-format.
- Modellen måste vara tillgänglig antingen via URL eller i Azure Blob Storage.
I det här avsnittet beskrivs hur du sparar en modell, hämtar en sparad modell och tillämpar en sparad modell.
Spara en tränad modell
Du kan spara modeller med hjälp av Studio-gränssnittet (klassisk) eller med hjälp av ett experiment som körs som en webbtjänst.
Spara en modell med hjälp av en webbtjänst
- Skapa ett experiment som tränar eller tränar om modellen som en webbtjänst
- Publicera experimentet som en webbtjänst.
- När du anropar BES-slutpunkten för träningswebbtjänsten sparar webbtjänsten en tränad modell med hjälp av iLearner-gränssnittet och sparar filen i det Azure Blob Storage-konto som du anger.
Stegvis information om hur du skapar en träningswebbtjänst finns i följande artiklar:
Spara en modell i Studio (klassisk)
- Kör experimentet som skapar och tränar modellen.
- När träningen är klar högerklickar du på modulen som användes för träning, väljer Tränad modell och klickar sedan på Spara som tränad modell.
- Som standard sparas modeller i din Studio-arbetsyta (klassisk). Du kan visa dem med hjälp av studiogränssnittet (klassisk).
Följande moduler kan skapa en sparad modell som använder det iLearner-gränssnitt som krävs:
- Träningsmodell
- Träna klustringsmodellen
- Träna avvikelseidentifieringsmodell
- Finjustera hyperparametrar för modell
- Rensa kluster
Anteckning
Godtyckliga modeller stöds inte. modellen måste ha sparats i det binära standardformat som används för att bevara Machine Learning modeller.
Läsa in modellen i ett nytt experiment
Lägg till modulen Load Trained Model (Läs in tränad modell) i experimentet i Studio (klassisk).
För Datakälla anger du platsen för den tränade modellen med något av följande alternativ:
Webbadress via HTTP: Ange en URL som pekar på experimentet och filen som representerar den tränade modellen. I Machine Learning sparas tränade modeller som standard i ILearner-format.
Azure Blob Storage: Välj bara det här alternativet om du har exporterat den tränade modellen till Azure Storage. Du måste sedan ange kontonamnet och kontonyckeln samt sökvägen till containern, katalogen eller bloben.
Om du planerar att skapa Request-Response en webbtjänst som baseras på det aktuella experimentet väljer du alternativet Tillåt att använda i RRS. Annars utförs bedömning med hjälp av bes-alternativet (Batch Execution Service), vilket rekommenderas. Mer information finns i avsnittet Teknisk information.
Välj alternativet Använd cachelagrade resultat om du vill läsa in den tränade modellen från cachen när cachen är tillgänglig och ifylld. Det här alternativet ignoreras när experimentet har distribuerats som ett webbtjänst-API.
Exempel
Exempel på hur du använder den här modulen finns i Cortana Intelligence Gallery.
Läs in en tränad Learning modell: Exemplet skapar ett anpassat neuralt nätverk för bildidentifiering. Med hjälp av modulen Load Trained Model (Läs in tränad modell) kan du enkelt använda den här modellen igen utan att behöva träna den, vilket kan vara tidskrävande.
Den här samlingen innehåller ett träningsexperiment för att skapa modellen och ett förutsägelseexperiment där modellen läses in som en webbtjänst och används för förutsägelser.
Teknisk information
Det här avsnittet innehåller implementeringsinformation, tips och svar på vanliga frågor.
Vanliga frågor
Varför är RRS-användning inte aktiverat som standard
Det förväntas vanligtvis att RRS-anrop returnerar resultat inom en kort tidsperiod. Men eftersom modulen måste läsa in den tränade modellen i form av en blob från ett Azure Storage-konto eller en fil som finns på en offentlig HTTP-slutpunkt kan filåtgärder leda till oförutsägbara fördröjningar.
Därför rekommenderar vi allmänt att webbtjänsten körs i batchkörningsläge (BES). Om du väljer alternativet för .execution med RRS bör du vara medveten om risken för fördröjning. Allmän information om körningstider finns i Machine Learning serviceavtal.
Läses den tränade modellen in snabbare om jag använder alternativet för cachelagrade resultat
Ja, men bara när experimentet körs i Machine Learning Studio (klassisk) och först efter att cachen har fyllts i av den första körningen. När experimentet har distribuerats som webbtjänst ignoreras den här flaggan av webbtjänstkörningen.
Finns det något sätt att automatisera processen?
Du kan använda PowerShell för att förenkla eller automatisera många uppgifter i Machine Learning. Du kan till exempel ladda ned innehållet i ett helt experiment eller en viss modul, exportera definitionen av webbtjänsten eller anropa webbtjänstens körnings-API. Mer information finns i PowerShell-modulen för Microsoft Machine Learning.
Modulparametrar
Name | Intervall | Typ | Standardvärde | Description |
---|---|---|---|---|
Tillåt användning i RRS | Sant/falskt | Boolesk | falskt | Tillåt att den här modulen körs i webbtjänsten för begäran/svar, vilket kan medföra oförutsägbara fördröjningar |
Datakälla | Webbadress via HTTP eller Azure Blob Storage | T_DataSourceOrSink | Azure Blob Storage | Datakällan kan vara HTTP eller en fil i Azure Blob Storage (krävs) |
För webb-URL via HTTP: | ||||
URL för datakälla | valfri | Sträng | URL för HTTP | |
För Azure Blob Storage: | ||||
Account Name | valfri | Sträng | Kontonamn | |
Kontonyckel | valfri | SecureString | Nyckel som är associerad med Windows Azure Storage konto | |
Sökväg till container, katalog eller blob | valfri | Sträng | Sökväg till blob eller tabellnamn |
Utdata
Namn | Typ | Description |
---|---|---|
Tränad modell | ILearner-gränssnitt | Tränad modell |
Undantag
Undantag | Description |
---|---|
Fel 0003 | Undantaget inträffar om en eller flera indata är null eller tomma. |
En lista över fel som är specifika för Studio-moduler (klassisk) finns i Machine Learning felkoder.
En lista över API-undantag finns i Machine Learning REST API felkoder.