Sammanfattning
Nu ska vi sammanfatta vad vi har gått igenom.
I huvudsak har vi tagit itu med ett komplext klassificeringsproblem med hjälp av beslutsträd och slumpmässiga skogar som exempel. Vårt scenario var svårt att träna en modell för att gissa vilka personer som var medaljvinnare för Rhythmic Gymnastics, men vi lyckades. Intressant nog hittade vi ett sätt att göra det med bara grundläggande funktioner: ålder, vikt, längd och spelåret.
Vi har lärt oss att för att optimera komplexa modeller har vi ofta beslut att fatta om hur modellen ska struktureras, till exempel hur stor eller djup den kommer att vara. Vi diskuterade hur större och mer komplexa modeller är mycket svårare att förstå internt, när de har tränats, men har ofta imponerande prestandavinster jämfört med enklare modelltyper.
Vi har också övat på att arbeta med hyperparametrar, vilket är inställningar som påverkar hur träningen fungerar. Vi har upptäckt att hyperparametrar kan göra stora förbättringar av hur väl en modell tränas och att det krävs både resonemang och experiment för att hitta det optimala valet.