summaryrefslogtreecommitdiff
path: root/IAML/Réseaux de neurones et Deep Learning.md
diff options
context:
space:
mode:
Diffstat (limited to 'IAML/Réseaux de neurones et Deep Learning.md')
-rw-r--r--IAML/Réseaux de neurones et Deep Learning.md18
1 files changed, 18 insertions, 0 deletions
diff --git a/IAML/Réseaux de neurones et Deep Learning.md b/IAML/Réseaux de neurones et Deep Learning.md
new file mode 100644
index 0000000..08e1d14
--- /dev/null
+++ b/IAML/Réseaux de neurones et Deep Learning.md
@@ -0,0 +1,18 @@
+# Apprentissage profond
+Hypothèses :
+- La représentation des informations et la décision constituent un problème joint
+- L'extraction des caractéristiques discriminantes est automatisée
+- Le représentation nécessaire est construite directement à partir des données d'entrée
+# Limitations du perceptron
+- Le théorème de convergence du Perceptron (Roseblatt 1962) affirme que:
+ - Si les données d'entrainement sont linéairement séparable, alors l'algo d'apprentissage trouve une solution
+
+# Multi Layer Perceptron
+- Au lieu d'utiliser une fonction linéaire généralisée, on apprend également les caractérisiques des données
+- Fonctions d'activation : Sigmoid, (Leaky) ReLU, Maxout...
+- Sortie = probabilité d'être dans une classe
+
+# Conclusion
+1. Prétraitement de données (réduction de dim)
+2. Arbres de décision frontières entre données
+3. SVM + Kernel tricks -> représentation à partir des données d'un espace à plus grande dimension \ No newline at end of file