blob: 08e1d14b76accb0a61c1a54d8ae9488299f8dfc7 (
plain)
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
|
# Apprentissage profond
Hypothèses :
- La représentation des informations et la décision constituent un problème joint
- L'extraction des caractéristiques discriminantes est automatisée
- Le représentation nécessaire est construite directement à partir des données d'entrée
# Limitations du perceptron
- Le théorème de convergence du Perceptron (Roseblatt 1962) affirme que:
- Si les données d'entrainement sont linéairement séparable, alors l'algo d'apprentissage trouve une solution
# Multi Layer Perceptron
- Au lieu d'utiliser une fonction linéaire généralisée, on apprend également les caractérisiques des données
- Fonctions d'activation : Sigmoid, (Leaky) ReLU, Maxout...
- Sortie = probabilité d'être dans une classe
# Conclusion
1. Prétraitement de données (réduction de dim)
2. Arbres de décision frontières entre données
3. SVM + Kernel tricks -> représentation à partir des données d'un espace à plus grande dimension
|