Dela via


Komponenten Averaged Perceptron för två klasser

I den här artikeln beskrivs en komponent i Azure Machine Learning-designern.

Använd den här komponenten för att skapa en maskininlärningsmodell baserat på den genomsnittliga perceptronalgoritmen.

Den här klassificeringsalgoritmen är en övervakad inlärningsmetod och kräver en taggad datauppsättning som innehåller en etikettkolumn. Du kan träna modellen genom att ange modellen och den taggade datamängden som indata till Träna modell. Den tränade modellen kan sedan användas för att förutsäga värden för de nya indataexemplen.

Om genomsnittliga perceptronmodeller

Metoden averaged perceptron är en tidig och enkel version av ett neuralt nätverk. I den här metoden klassificeras indata i flera möjliga utdata baserat på en linjär funktion och kombineras sedan med en uppsättning vikter som härleds från funktionsvektorn , därav namnet "perceptron".

De enklare perceptronmodellerna passar för att lära sig linjärt separerbara mönster, medan neurala nätverk (särskilt djupa neurala nätverk) kan modellera mer komplexa klassgränser. Men perceptroner är snabbare, och eftersom de bearbetar ärenden seriellt kan perceptroner användas med kontinuerlig träning.

Så här konfigurerar du genomsnittlig perceptron med två klasser

  1. Lägg till komponenten Averaged Perceptron för två klasser i pipelinen.

  2. Ange hur du vill att modellen ska tränas genom att ange alternativet Skapa träningsläge .

    • Enskild parameter: Om du vet hur du vill konfigurera modellen anger du en specifik uppsättning värden som argument.

    • Parameterintervall: Välj det här alternativet om du inte är säker på de bästa parametrarna och vill köra en parametersvepning. Välj ett intervall med värden att iterera över, och Tune Model Hyperparameters itererar över alla möjliga kombinationer av de inställningar som du angav för att fastställa de hyperparametrar som ger optimala resultat.

  3. För Inlärningsfrekvens anger du ett värde för inlärningsfrekvensen. Värdena för inlärningshastigheten styr storleken på det steg som används i stochastic gradient descent varje gång modellen testas och korrigeras.

    Genom att göra hastigheten mindre testar du modellen oftare, med risk för att du fastnar i en lokal platå. Genom att göra steget större kan du konvergera snabbare, med risk för att överskrida den sanna minima.

  4. För Maximalt antal iterationer anger du hur många gånger du vill att algoritmen ska undersöka träningsdata.

    Att stoppa tidigt ger ofta bättre generalisering. Att öka antalet iterationer förbättrar anpassningen, med risk för överanpassning.

  5. För Slumptalsutsäde kan du ange ett heltalsvärde som ska användas som frö. Du rekommenderar att du använder ett frö om du vill säkerställa att pipelinen är reproducerbar mellan körningar.

  6. Anslut en träningsdatauppsättning och träna modellen:

    • Om du ställer in Läget Skapa tränareEnskild parameter ansluter du en taggad datauppsättning och komponenten Träna modell .

    • Om du anger Skapa träningsläge till Parameterintervall ansluter du en taggad datauppsättning och tränar modellen med hjälp av Tune Model Hyperparameters.

    Kommentar

    Om du skickar ett parameterintervall till Train Model används endast standardvärdet i listan med enskilda parametrar.

    Om du skickar en enskild uppsättning parametervärden till komponenten Tune Model Hyperparameters ignoreras värdena när det förväntar sig ett intervall med inställningar för varje parameter och använder standardvärdena för eleven.

    Om du väljer alternativet Parameterintervall och anger ett enda värde för valfri parameter används det enskilda värdet som du angav under hela svepet, även om andra parametrar ändras över ett värdeintervall.

Nästa steg

Se den uppsättning komponenter som är tillgängliga för Azure Machine Learning.