From 4d8d80454b4fe9b64a6761bcc0accefe2b46c9db Mon Sep 17 00:00:00 2001 From: marcellus Date: Thu, 26 Jun 2025 19:02:15 +0200 Subject: notes: 2025-06-26 19:02:15 from w11 --- "IAML/R\303\251seaux de neurones et Deep Learning.md" | 18 ++++++++++++++++++ 1 file changed, 18 insertions(+) create mode 100644 "IAML/R\303\251seaux de neurones et Deep Learning.md" (limited to 'IAML') diff --git "a/IAML/R\303\251seaux de neurones et Deep Learning.md" "b/IAML/R\303\251seaux de neurones et Deep Learning.md" new file mode 100644 index 0000000..08e1d14 --- /dev/null +++ "b/IAML/R\303\251seaux de neurones et Deep Learning.md" @@ -0,0 +1,18 @@ +# Apprentissage profond +Hypothèses : +- La représentation des informations et la décision constituent un problème joint +- L'extraction des caractéristiques discriminantes est automatisée +- Le représentation nécessaire est construite directement à partir des données d'entrée +# Limitations du perceptron +- Le théorème de convergence du Perceptron (Roseblatt 1962) affirme que: + - Si les données d'entrainement sont linéairement séparable, alors l'algo d'apprentissage trouve une solution + +# Multi Layer Perceptron +- Au lieu d'utiliser une fonction linéaire généralisée, on apprend également les caractérisiques des données +- Fonctions d'activation : Sigmoid, (Leaky) ReLU, Maxout... +- Sortie = probabilité d'être dans une classe + +# Conclusion +1. Prétraitement de données (réduction de dim) +2. Arbres de décision frontières entre données +3. SVM + Kernel tricks -> représentation à partir des données d'un espace à plus grande dimension \ No newline at end of file -- cgit v1.2.3