diff --git a/02_optimisation.md b/02_optimisation.md index 1d2df46b285a38e0c71e6ac6d20dd086ed4301da..20c86ae07b768ede3af9e08cbd2af92d5029afdd 100644 --- a/02_optimisation.md +++ b/02_optimisation.md @@ -331,7 +331,7 @@ $$ On peut donc généraliser l'algorithme. En partant d'un point $x_0=a$, on construit la suite $$ -x_{i+1}=x_n-\frac{g(x_i)}{g'(x_i)}, \ i\geq 0. +x_{i+1}=x_i-\frac{g(x_i)}{g'(x_i)}, \ i\geq 0. $$ On s'arrête lorsque le zéro est déterminé avec une précision suffisante, ou que la variation entre deux itérations successives est assez petite. Ce qui revient à choisir un $\varepsilon>0$, tel que $$ @@ -726,10 +726,10 @@ itérative. Soient donnés un point de départ $\vec x_0$, et une fonction objectif $f(\vec x)$, on va approximer le zéro itérativement avec une suite $\vec x_1$, $\vec x_2$, ... telle que \begin{align} -\vec x_1&=x_0-\lambda\cdot \nabla f(\vec x_0),\\ -\vec x_2&=x_1-\lambda\cdot \nabla f(\vec x_1),\\ +\vec x_1&=\vec x_0-\lambda\cdot \nabla f(\vec x_0),\\ +\vec x_2&=\vec x_1-\lambda\cdot \nabla f(\vec x_1),\\ \cdots -\vec x_{n+1}&=x_n-\lambda\cdot f(\vec x_n), +\vec x_{n+1}&=\vec x_n-\lambda\cdot f(\vec x_n), \end{align} où $\lambda\in \real^+$ est un coefficient positif. On peut assez facilement se convaincre que si $\lambda$ est suffisamment petit, alors $f(\vec x_{n+1})\leq f(\vec x_n)$ (on ne fait que descendre la pente jusqu'à atteindre un minimum). Une illustration de ce processus