Skip to content
Snippets Groups Projects
Verified Commit c5d37628 authored by iliya.saroukha's avatar iliya.saroukha :first_quarter_moon:
Browse files

fix: reworked paragraph about doing a descent on a "real" cost function...

fix: reworked paragraph about doing a descent on a "real" cost function because in the end, we ain't doing it
parent a489f68a
No related branches found
No related tags found
No related merge requests found
Pipeline #32487 failed
...@@ -29,7 +29,7 @@ l’apprentissage machine et l’intelligence artificielle. ...@@ -29,7 +29,7 @@ l’apprentissage machine et l’intelligence artificielle.
En effet, parmi d’autres utilités hautement majeures, la descente de gradient En effet, parmi d’autres utilités hautement majeures, la descente de gradient
(le concept en lui-même ainsi que les divers algorithmes) est utilisée dans (le concept en lui-même ainsi que les divers algorithmes) est utilisée dans
l’entraînement des réseaux neuronaux lors de la rétropropagation ("backpropagation"). l’entraînement des réseaux neuronaux lors de la "rétropropagation" (_backpropagation_).
En bref, la rétropropagation consiste à "remonter" dans le réseau depuis la couche En bref, la rétropropagation consiste à "remonter" dans le réseau depuis la couche
de sortie en direction de la couche d’entrée. Cette remontée permet d’ajuster les de sortie en direction de la couche d’entrée. Cette remontée permet d’ajuster les
poids des neurones ayant contribué à un résultat faussé de sorte à optimiser les poids des neurones ayant contribué à un résultat faussé de sorte à optimiser les
...@@ -47,10 +47,11 @@ dans notre exploration. ...@@ -47,10 +47,11 @@ dans notre exploration.
Car en effet, ayant compris l’importance de la descente de gradient, nous avons Car en effet, ayant compris l’importance de la descente de gradient, nous avons
voulu à travers ce rapport (de notre propre volonté), explorer en détail voulu à travers ce rapport (de notre propre volonté), explorer en détail
différentes facettes de cet outil, de ses paramètres à ses implications pratiques, différentes facettes de cet outil, de ses paramètres à ses implications pratiques,
sur des fonctions particulières et une fonction de coût réelle. sur quelques fonctions dites de [**test**](https://fr.wikipedia.org/wiki/Fonction_de_test_pour_l%27optimisation)
Perpendiculairement à la comparaison des fonctions, ce sont les méthodes de qui permettent de mieux évaluer les diverses caractéristiques des algorithmes
descente qui ont été confrontées, nous menant à méditer les subtilités de chacune de descente. Perpendiculairement à la comparaison des fonctions, ce sont les
d’entre elles. méthodes de descente qui ont été confrontées, nous menant à méditer les
subtilités de chacune d’entre elles.
Aussi, nous souhaitons-vous un bon voyage dans l’univers merveilleux de ce rapport Aussi, nous souhaitons-vous un bon voyage dans l’univers merveilleux de ce rapport
immersif, et vous prions de vous laisser porter au-travers des dunes par les immersif, et vous prions de vous laisser porter au-travers des dunes par les
...@@ -106,7 +107,7 @@ $$ ...@@ -106,7 +107,7 @@ $$
f(x, y) = x^2 + ky^2 \quad \forall k \in \mathbb{N} f(x, y) = x^2 + ky^2 \quad \forall k \in \mathbb{N}
$$ {#eq-func-bol} $$ {#eq-func-bol}
**n.b.** : Le gradient $\nabla$ de la fonction ci-dessus est accentué dans **n.b.** : Le gradient $\nabla$ de la fonction ci-dessous est accentué dans
la direction de l'axe $y$ à l'aide du facteur $k = 5$. Ceci aura son importance la direction de l'axe $y$ à l'aide du facteur $k = 5$. Ceci aura son importance
lors de l'explication de la problématique des ravines ainsi que de la lors de l'explication de la problématique des ravines ainsi que de la
visualisation de la méthode d'**Adam**. visualisation de la méthode d'**Adam**.
......
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Please register or to comment