summaryrefslogtreecommitdiff
diff options
context:
space:
mode:
authormarcellus <msimon_fr@hotmail.com>2025-06-26 19:02:15 +0200
committermarcellus <msimon_fr@hotmail.com>2025-06-26 19:02:15 +0200
commit4d8d80454b4fe9b64a6761bcc0accefe2b46c9db (patch)
tree562f9b9323b274493fb4a6c7abe5d265632ea4fe
parentcdc753770c338b88c413608672f102f0b403216f (diff)
notes: 2025-06-26 19:02:15 from w11
-rw-r--r--IAML/Réseaux de neurones et Deep Learning.md18
1 files changed, 18 insertions, 0 deletions
diff --git a/IAML/Réseaux de neurones et Deep Learning.md b/IAML/Réseaux de neurones et Deep Learning.md
new file mode 100644
index 0000000..08e1d14
--- /dev/null
+++ b/IAML/Réseaux de neurones et Deep Learning.md
@@ -0,0 +1,18 @@
+# Apprentissage profond
+Hypothèses :
+- La représentation des informations et la décision constituent un problème joint
+- L'extraction des caractéristiques discriminantes est automatisée
+- Le représentation nécessaire est construite directement à partir des données d'entrée
+# Limitations du perceptron
+- Le théorème de convergence du Perceptron (Roseblatt 1962) affirme que:
+ - Si les données d'entrainement sont linéairement séparable, alors l'algo d'apprentissage trouve une solution
+
+# Multi Layer Perceptron
+- Au lieu d'utiliser une fonction linéaire généralisée, on apprend également les caractérisiques des données
+- Fonctions d'activation : Sigmoid, (Leaky) ReLU, Maxout...
+- Sortie = probabilité d'être dans une classe
+
+# Conclusion
+1. Prétraitement de données (réduction de dim)
+2. Arbres de décision frontières entre données
+3. SVM + Kernel tricks -> représentation à partir des données d'un espace à plus grande dimension \ No newline at end of file