diff options
| author | marcellus <msimon_fr@hotmail.com> | 2025-06-26 19:02:15 +0200 |
|---|---|---|
| committer | marcellus <msimon_fr@hotmail.com> | 2025-06-26 19:02:15 +0200 |
| commit | 4d8d80454b4fe9b64a6761bcc0accefe2b46c9db (patch) | |
| tree | 562f9b9323b274493fb4a6c7abe5d265632ea4fe | |
| parent | cdc753770c338b88c413608672f102f0b403216f (diff) | |
notes: 2025-06-26 19:02:15 from w11
| -rw-r--r-- | IAML/Réseaux de neurones et Deep Learning.md | 18 |
1 files changed, 18 insertions, 0 deletions
diff --git a/IAML/Réseaux de neurones et Deep Learning.md b/IAML/Réseaux de neurones et Deep Learning.md new file mode 100644 index 0000000..08e1d14 --- /dev/null +++ b/IAML/Réseaux de neurones et Deep Learning.md @@ -0,0 +1,18 @@ +# Apprentissage profond +Hypothèses : +- La représentation des informations et la décision constituent un problème joint +- L'extraction des caractéristiques discriminantes est automatisée +- Le représentation nécessaire est construite directement à partir des données d'entrée +# Limitations du perceptron +- Le théorème de convergence du Perceptron (Roseblatt 1962) affirme que: + - Si les données d'entrainement sont linéairement séparable, alors l'algo d'apprentissage trouve une solution + +# Multi Layer Perceptron +- Au lieu d'utiliser une fonction linéaire généralisée, on apprend également les caractérisiques des données +- Fonctions d'activation : Sigmoid, (Leaky) ReLU, Maxout... +- Sortie = probabilité d'être dans une classe + +# Conclusion +1. Prétraitement de données (réduction de dim) +2. Arbres de décision frontières entre données +3. SVM + Kernel tricks -> représentation à partir des données d'un espace à plus grande dimension
\ No newline at end of file |
