# Apprentissage profond Hypothèses : - La représentation des informations et la décision constituent un problème joint - L'extraction des caractéristiques discriminantes est automatisée - Le représentation nécessaire est construite directement à partir des données d'entrée # Limitations du perceptron - Le théorème de convergence du Perceptron (Roseblatt 1962) affirme que: - Si les données d'entrainement sont linéairement séparable, alors l'algo d'apprentissage trouve une solution # Multi Layer Perceptron - Au lieu d'utiliser une fonction linéaire généralisée, on apprend également les caractérisiques des données - Fonctions d'activation : Sigmoid, (Leaky) ReLU, Maxout... - Sortie = probabilité d'être dans une classe # Conclusion 1. Prétraitement de données (réduction de dim) 2. Arbres de décision frontières entre données 3. SVM + Kernel tricks -> représentation à partir des données d'un espace à plus grande dimension