From 38a51a5a3288e430b75c3a8ba24c80d5003e265c Mon Sep 17 00:00:00 2001 From: Orestis <orestis.malaspinas@pm.me> Date: Mon, 22 Feb 2021 23:36:24 +0100 Subject: [PATCH] updated 02 --- 02_optimisation.md | 34 +++++++++++++++++----------------- 1 file changed, 17 insertions(+), 17 deletions(-) diff --git a/02_optimisation.md b/02_optimisation.md index 72c2851..3dda226 100644 --- a/02_optimisation.md +++ b/02_optimisation.md @@ -45,7 +45,7 @@ a &= \frac{C}{B}=\frac{\sum_{i=1}^Nx_iy_i}{\sum_{i=1}^Nx_i^2}. --- -#### Exemple {-} +Exemple # Soient les 4 points $(0, 0.1)$, $(1, 0.3)$, $(2, 0.3)$ et $(3, 0.4)$. La fonction d'erreur $E(a)$ s'écrit $$ @@ -196,7 +196,7 @@ distance maximale du zéro de $(b_1+a_1)/2^n$. On dit que cette méthode est d'o --- -#### Exercice (Racine de polynôme) {-} +Exercice (Racine de polynôme) # Déterminer la racine du polynôme $x^4+x^3+x^2-1$ avec $a_1=0.5$ et $b_1=1$ (faire au maximum 6 itérations). @@ -232,7 +232,7 @@ La méthode de la fausse position est plus efficace que la méthode de la bissec --- -#### Exercice {-} +Exercice # Déterminer le zéro positif de la fonction $$ @@ -261,7 +261,7 @@ En revanche elle est plus efficace, lorsque qu'elle converge, que ces deux méth --- -#### Exercice {-} +Exercice # Déterminer le zéro positif de la fonction $$ @@ -282,7 +282,7 @@ Mais, nous n'avons pas encore vu de méthode pour déterminer les valeur de la f --- -#### Remarque {-} +Remarque # On peut procéder de façon très similaire pour $[a,b]$ tel que @@ -343,7 +343,7 @@ En revanche les contraintes pour sa convergence sont plus strictes que pour les --- -#### Remarque (non-convergence ou convergence lente) {-} +Remarque (non-convergence ou convergence lente) # Il y a un certain nombre de cas où la méthode de Newton ne converge pas. @@ -357,7 +357,7 @@ Il y a un certain nombre de cas où la méthode de Newton ne converge pas. --- -#### Exercice {-} +Exercice # Déterminer le zéro de la fonction $$ @@ -375,7 +375,7 @@ Il suffit de remplacer $g(x)$ par $f'(x)$ et le tour est joué. --- -#### Exercice {-} +Exercice # Écrire l'algorithme de Newton pour le cas de la minimisation d'une fonction $f(x)$ quelconque, mais continûment dérivable 2 fois. @@ -398,7 +398,7 @@ f:\real^n\rightarrow \real. --- -#### Exemple (Régression linéaire) {-} +Exemple (Régression linéaire) # Dans le cas de la régression linéaire, si la droite ne passe pas par l'origine, nous avons que la fonction de coût qui dépend de deux variables, $a$, et $b$ (et plus uniquement de $a$) @@ -445,7 +445,7 @@ Comme on le voit ici, pour chaque dérivée partielle, on ne fait varier qu'une --- -#### Exemple (Dérivée partielle) {-} +Exemple (Dérivée partielle) # Les dérivée partielles de la fonction $$ @@ -468,7 +468,7 @@ $$ --- -#### Remarque {-} +Remarque # Pour une fonction à une seule variable, $f(x)$, on a que $$ @@ -488,7 +488,7 @@ pour les façon à une seule variable. Pour une fonction à deux variables, on a --- -#### Remarque {-} +Remarque # Si $f$ est dérivable en $x$ et $y$, on a que $$ @@ -499,7 +499,7 @@ $$ --- -#### Exemple (Dérivées partielles deuxièmes) {-} +Exemple (Dérivées partielles deuxièmes) # Pour la fonction $f(x,y)=x^2-y^2$, on a \begin{align} @@ -549,7 +549,7 @@ $$ --- -#### Exemple (Gradient d'une fonction à deux variables) {-} +Exemple (Gradient d'une fonction à deux variables) # Pour la fonction $f(x,y)=x^2-y^2$, le gradient est donné par $$ @@ -610,7 +610,7 @@ Le taux de variation maximal est donc la longueur du vecteur $\vec \nabla f$. --- -#### Remarque (Généralisation) {-} +Remarque (Généralisation) # Tout ce que nous venons d'écrire ici se généralise à un nombre arbitraire de dimensions. @@ -711,7 +711,7 @@ Même si cela ne suffit pas à prouver mathématique que $\vec 0$ est le minimum --- -#### Question {-} +Question # Avec ce qui précède, voyez-vous une façon de trouver le minimum de la fonction $f(x,y)$? @@ -740,7 +740,7 @@ peut se voir dans la @fig:gradient. --- -#### Exemple (quelques itérations) {-} +Exemple (quelques itérations) # Prenons la fonction objectif $f(x,y)$ suivante $$ -- GitLab