Skip to content
Snippets Groups Projects
Commit fbda3d90 authored by orestis.malaspin's avatar orestis.malaspin
Browse files

Merge branch 'master' into 'master'

modification of optimisation

See merge request !68
parents dd1603f5 e9fa663d
No related branches found
No related tags found
No related merge requests found
......@@ -331,7 +331,7 @@ $$
On peut donc généraliser l'algorithme. En partant d'un point $x_0=a$, on construit la suite
$$
x_{i+1}=x_n-\frac{g(x_i)}{g'(x_i)}, \ i\geq 0.
x_{i+1}=x_i-\frac{g(x_i)}{g'(x_i)}, \ i\geq 0.
$$
On s'arrête lorsque le zéro est déterminé avec une précision suffisante, ou que la variation entre deux itérations successives est assez petite. Ce qui revient à choisir un $\varepsilon>0$, tel que
$$
......@@ -726,10 +726,10 @@ itérative. Soient donnés un point de départ $\vec x_0$,
et une fonction objectif $f(\vec x)$, on va approximer
le zéro itérativement avec une suite $\vec x_1$, $\vec x_2$, ... telle que
\begin{align}
\vec x_1&=x_0-\lambda\cdot \nabla f(\vec x_0),\\
\vec x_2&=x_1-\lambda\cdot \nabla f(\vec x_1),\\
\vec x_1&=\vec x_0-\lambda\cdot \nabla f(\vec x_0),\\
\vec x_2&=\vec x_1-\lambda\cdot \nabla f(\vec x_1),\\
\cdots
\vec x_{n+1}&=x_n-\lambda\cdot f(\vec x_n),
\vec x_{n+1}&=\vec x_n-\lambda\cdot f(\vec x_n),
\end{align}
où $\lambda\in \real^+$ est un coefficient positif.
On peut assez facilement se convaincre que si $\lambda$ est suffisamment petit, alors $f(\vec x_{n+1})\leq f(\vec x_n)$ (on ne fait que descendre la pente jusqu'à atteindre un minimum). Une illustration de ce processus
......
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment