From e9fa663dd76ec32adb496645e22786e721b6f149 Mon Sep 17 00:00:00 2001
From: quentin <quentin.rod@edu.hesge.ch>
Date: Fri, 22 Jan 2021 10:40:56 +0100
Subject: [PATCH] modification of optimisation

---
 02_optimisation.md | 8 ++++----
 1 file changed, 4 insertions(+), 4 deletions(-)

diff --git a/02_optimisation.md b/02_optimisation.md
index 1d2df46..20c86ae 100644
--- a/02_optimisation.md
+++ b/02_optimisation.md
@@ -331,7 +331,7 @@ $$
 
 On peut donc généraliser l'algorithme. En partant d'un point $x_0=a$, on construit la suite
 $$
-x_{i+1}=x_n-\frac{g(x_i)}{g'(x_i)}, \ i\geq 0.
+x_{i+1}=x_i-\frac{g(x_i)}{g'(x_i)}, \ i\geq 0.
 $$
 On s'arrête lorsque le zéro est déterminé avec une précision suffisante, ou que la variation entre deux itérations successives est assez petite. Ce qui revient à choisir un $\varepsilon>0$, tel que
 $$
@@ -726,10 +726,10 @@ itérative. Soient donnés un point de départ $\vec x_0$,
 et une fonction objectif $f(\vec x)$, on va approximer
 le zéro itérativement avec une suite $\vec x_1$, $\vec x_2$, ... telle que
 \begin{align}
-\vec x_1&=x_0-\lambda\cdot \nabla f(\vec x_0),\\
-\vec x_2&=x_1-\lambda\cdot \nabla f(\vec x_1),\\
+\vec x_1&=\vec x_0-\lambda\cdot \nabla f(\vec x_0),\\
+\vec x_2&=\vec x_1-\lambda\cdot \nabla f(\vec x_1),\\
 \cdots
-\vec x_{n+1}&=x_n-\lambda\cdot f(\vec x_n),
+\vec x_{n+1}&=\vec x_n-\lambda\cdot f(\vec x_n),
 \end{align}
 où $\lambda\in \real^+$ est un coefficient positif.
 On peut assez facilement se convaincre que si $\lambda$ est suffisamment petit, alors $f(\vec x_{n+1})\leq f(\vec x_n)$ (on ne fait que descendre la pente jusqu'à atteindre un minimum). Une illustration de ce processus
-- 
GitLab