@@ -1421,7 +1422,7 @@ L'idée de ce type de méthodes est, contrairement aux méthodes de la section p
connaissances *locales* que nous pouvons avoir sur la fonction. Cette connsaissance loale
a en général comme effet une *convergence* plus rapide de l'algorithme de recherche de zéros.
### Méthode de Newton (ou *Newton-Raphson")
### Méthode de Newton (ou *Newton-Raphson*)
La méthode de Newton est également une méthode itérative, qui nécessite que la fonction $g(x)$ soit non seulement continue mais également dérivable.
Revenons sur la méthode de la sécante. Il s'agissait de choisir deux points, $a < b$, et de déterminer la droite, $y(x)$, passant par $g(a)$ et $g(b)$,
...
...
@@ -1457,7 +1458,7 @@ En revanche les contraintes pour sa convergence sont plus strictes que pour les
---
Remarques (non-convergence ou convergence lente) +.#
Remarque (non-convergence ou convergence lente) +.#
Il y a un certain nombre de cas où la méthode de Newton ne converge pas.
...
...
@@ -1498,6 +1499,9 @@ Exercice +.#
## En plusieurs dimensions
Quand notre fonction de coût dépend de plusieurs arguments, on dit que c'est une fonction *multivariée*, $f(\vec x)$, avec $\vec x\in\real^n$.
{#fig:selle width="50%"}
On peut également l'écrire de façon plus explicite (et aussi plus longue) comme
Cette grandeur représente la variation de $f(a,b)$ dans une direction particulière, $\vec v$. Comme pour les fonctions à une variable on peut écrire
que
$$
f(a + v_1, b + v_2)=f(a,b)+\vec v\cdot (\vec \nabla f(a,b)).
$$
Cette dérivée directionnelle va nous permettre d'interpréter ce que représente le gradient d'une fonction.
En fait, le gradient a une interprétation très intéressante. Ce n'est rien d'autre que la direction de la pente la plus élevée
sur chaque point de la fonction. C'est la direction, si vous faites de la randonnée en montagne,
qui vous permettra de monter le long de la pente la plus raide en chaque point.
A l'inverse, imaginez que vous êtes un skieur et que votre montagne est décrite par la fonction $f(\vec x)$. Le vecteur $-\vec \nabla f$
est la direction dans laquelle vous descendez si vous suivez tout droit la pente la plus raide.
Pour s'en convaincre essayons de prendre le problème à l'envers. On cherche la dérivée directionnelle $\vec \nabla_{\vec v} f$, telle que celle ci-soit maximale,
pour tous les vecteur $\vec v$ de longueur $1$. En d'autres termes
$$
\max_{||\vec v||=1} \vec v\cdot \vec \nabla f.
$$
Il faut à présent se rappeler que le produit scalaire de deux vecteurs peut s'écrire