# Decision trees Grande explicabilité ## Construction (CART) - Recherche pour chaque noeud d'une feature et d'un seuil qui sépare le dataset - Minimisation d'une fonction de coût basée sur l'impureté de Gini - `max_depth` pour la profondeur max de l'arbre - Autres hyperparamètres : nb_feuilles, taille du split... Arrêt sur un résultat raisonnable car complexité Peu de différence entre **entropie** et **impureté de Gini** ## Régularisation Overfitting probable ## Régression prédiction de valeur != classe minimisation de la MSE au moment de split # Limites des arbres de décision - peu adoptés - attention normalisation - Variance élevée (sensibilité aux hyperparamètres)