diff --git a/02_optimisation.md b/02_optimisation.md
index 72c2851acfedd75ad5010a19650bf4bef98d9ecb..3dda2269ffaf4ad749d12662c96acf4eb098a34f 100644
--- a/02_optimisation.md
+++ b/02_optimisation.md
@@ -45,7 +45,7 @@ a &= \frac{C}{B}=\frac{\sum_{i=1}^Nx_iy_i}{\sum_{i=1}^Nx_i^2}.
 
 ---
 
-#### Exemple {-}
+Exemple #
 
 Soient les 4 points $(0, 0.1)$, $(1, 0.3)$, $(2, 0.3)$ et $(3, 0.4)$. La fonction d'erreur $E(a)$ s'écrit
 $$
@@ -196,7 +196,7 @@ distance maximale du zéro de $(b_1+a_1)/2^n$. On dit que cette méthode est d'o
 
 ---
 
-#### Exercice (Racine de polynôme) {-}
+Exercice (Racine de polynôme) #
 
 Déterminer la racine du polynôme $x^4+x^3+x^2-1$ avec $a_1=0.5$ et $b_1=1$ (faire au maximum 6 itérations).
 
@@ -232,7 +232,7 @@ La méthode de la fausse position est plus efficace que la méthode de la bissec
 
 ---
 
-#### Exercice {-}
+Exercice #
 
 Déterminer le zéro positif de la fonction
 $$
@@ -261,7 +261,7 @@ En revanche elle est plus efficace, lorsque qu'elle converge, que ces deux méth
 
 ---
 
-#### Exercice {-}
+Exercice #
 
 Déterminer le zéro positif de la fonction
 $$
@@ -282,7 +282,7 @@ Mais, nous n'avons pas encore vu de méthode pour déterminer les valeur de la f
 
 ---
 
-#### Remarque {-}
+Remarque #
 
 On peut procéder de façon très similaire pour $[a,b]$ tel que
 
@@ -343,7 +343,7 @@ En revanche les contraintes pour sa convergence sont plus strictes que pour les
 
 ---
 
-#### Remarque (non-convergence ou convergence lente) {-}
+Remarque (non-convergence ou convergence lente) #
 
 Il y a un certain nombre de cas où la méthode de Newton ne converge pas.
 
@@ -357,7 +357,7 @@ Il y a un certain nombre de cas où la méthode de Newton ne converge pas.
 
 ---
 
-#### Exercice {-}
+Exercice #
 
 Déterminer le zéro de la fonction
 $$
@@ -375,7 +375,7 @@ Il suffit de remplacer $g(x)$ par $f'(x)$ et le tour est joué.
 
 ---
 
-#### Exercice {-}
+Exercice #
 
 Écrire l'algorithme de Newton pour le cas de la minimisation d'une fonction $f(x)$ quelconque, mais continûment dérivable 2 fois.
 
@@ -398,7 +398,7 @@ f:\real^n\rightarrow \real.
 
 ---
 
-#### Exemple (Régression linéaire) {-}
+Exemple (Régression linéaire) #
 
 Dans le cas de la régression linéaire, si la droite ne passe pas par l'origine, nous avons que
 la fonction de coût qui dépend de deux variables, $a$, et $b$ (et plus uniquement de $a$)
@@ -445,7 +445,7 @@ Comme on le voit ici, pour chaque dérivée partielle, on ne fait varier qu'une
 
 ---
 
-#### Exemple (Dérivée partielle) {-}
+Exemple (Dérivée partielle) #
 
 Les dérivée partielles de la fonction
 $$
@@ -468,7 +468,7 @@ $$
 
 ---
 
-#### Remarque {-}
+Remarque #
 
 Pour une fonction à une seule variable, $f(x)$, on a que
 $$
@@ -488,7 +488,7 @@ pour les façon à une seule variable. Pour une fonction à deux variables, on a
 
 ---
 
-#### Remarque {-}
+Remarque #
 
 Si $f$ est dérivable en $x$ et $y$, on a que 
 $$
@@ -499,7 +499,7 @@ $$
 
 ---
 
-#### Exemple (Dérivées partielles deuxièmes) {-}
+Exemple (Dérivées partielles deuxièmes) #
 
 Pour la fonction $f(x,y)=x^2-y^2$, on a
 \begin{align}
@@ -549,7 +549,7 @@ $$
 
 ---
 
-#### Exemple (Gradient d'une fonction à deux variables) {-}
+Exemple (Gradient d'une fonction à deux variables) #
 
 Pour la fonction $f(x,y)=x^2-y^2$, le gradient est donné par
 $$
@@ -610,7 +610,7 @@ Le taux de variation maximal est donc la longueur du vecteur $\vec \nabla f$.
 
 ---
 
-#### Remarque (Généralisation) {-}
+Remarque (Généralisation) #
 
 Tout ce que nous venons d'écrire ici se généralise à un nombre arbitraire de dimensions.
 
@@ -711,7 +711,7 @@ Même si cela ne suffit pas à prouver mathématique que $\vec 0$ est le minimum
 
 ---
 
-#### Question {-}
+Question #
 
 Avec ce qui précède, voyez-vous une façon de trouver le minimum de la fonction $f(x,y)$?
 
@@ -740,7 +740,7 @@ peut se voir dans la @fig:gradient.
 
 ---
 
-#### Exemple (quelques itérations) {-}
+Exemple (quelques itérations) #
 
 Prenons la fonction objectif $f(x,y)$ suivante
 $$