Resumo
Vamos resumir o que abordamos.
Principalmente, abordamos um problema complexo de classificação usando árvores de decisão e florestas aleatórias como um exemplo. O cenário era difícil: treinar um modelo para adivinhar quais pessoas tinham ganhado medalhas na ginástica rítmica, mas isso foi feito. O interessante foi encontrar uma forma de fazer isso usando apenas características básicas: idade, peso, altura e o ano dos jogos.
Aprendemos que, para otimizar modelos complexos, geralmente temos decisões a tomar em relação a como o modelo será estruturado, por exemplo, o tamanho ou a profundidade dele. Foi explicado que modelos maiores e complexos são muito mais difíceis de entender internamente, depois de treinados, mas geralmente têm ganhos de desempenho impressionantes em comparação com os tipos de modelo mais simples.
Você também praticou o uso de hiperparâmetros, que são configurações que afetam o funcionamento do treinamento. Descobrimos que os hiperparâmetros podem fazer grandes aprimoramentos no nível de treinamento de um modelo e que encontrar a seleção ideal exige raciocínio e experimentação.