Après avoir étudié les méthodes supervisées linéaires et non-linéaire les plus utilisés dans les cours précédent, il est temps d'aborder la famille des méthodes ensemblistes.
Êtes-vous prêt·e à décupler la puissance de vos modèles grâce aux méthodes ensemblistes ? C'est ce que nous allons voir dans ce cours, en nous intéressant à une famille d'algorithme parmi les plus performantes actuellement.
En effet, en utilisant de manière rusée notre jeu de données, nous pouvons exploiter tout son potentiel, en créant un grand nombre de petit modèles rapidement puis en développant un méta-modèle qui les rassemble.
Suivez ce cours pour apprendre les deux familles de modèles les plus utilisées par les data scientists : les méthodes parallèles avec les forêts aléatoires et les méthodes séquentielles dont le modèle phare est le gradient boosting.
Prérequis
Ce cours de Data Science se situe au croisement des mathématiques et de l'informatique. Pour en profiter pleinement, n'hésitez pas à vous rafraîchir la mémoire, avant ou pendant le cours, sur :
- Python pour le calcul numérique que nous utiliserons dans la partie TP du cours (librairie numpy et création de graphes avec pyplot)
- Quelques notions d'algèbre linéaire, telles que manipulation de vecteurs, multiplications de matrices, normes
- Quelques notions de probabilités et statistiques, telles que distribution de loi de probabilité et variance
- Le cours sur les méthodes supervisées linéaire et non linéaires