Skip to content
GitLab
Explore
Sign in
Primary navigation
Search or go to…
Project
math_tech_info
Manage
Activity
Members
Labels
Plan
Issues
Issue boards
Milestones
Wiki
Code
Merge requests
Repository
Branches
Commits
Tags
Repository graph
Compare revisions
Snippets
Build
Pipelines
Jobs
Pipeline schedules
Artifacts
Deploy
Releases
Model registry
Operate
Environments
Monitor
Incidents
Analyze
Value stream analytics
Contributor analytics
CI/CD analytics
Repository analytics
Model experiments
Help
Help
Support
GitLab documentation
Compare GitLab plans
Community forum
Contribute to GitLab
Provide feedback
Keyboard shortcuts
?
Snippets
Groups
Projects
Show more breadcrumbs
Michaël El Kharroubi
math_tech_info
Commits
3019a29e
Verified
Commit
3019a29e
authored
3 years ago
by
orestis.malaspin
Browse files
Options
Downloads
Patches
Plain Diff
updated a bit the enonce
parent
e337d9f2
Branches
Branches containing commit
No related tags found
No related merge requests found
Changes
1
Hide whitespace changes
Inline
Side-by-side
Showing
1 changed file
travaux_pratiques/tpOptimisation/tpOptimisation.md
+9
-5
9 additions, 5 deletions
travaux_pratiques/tpOptimisation/tpOptimisation.md
with
9 additions
and
5 deletions
travaux_pratiques/tpOptimisation/tpOptimisation.md
+
9
−
5
View file @
3019a29e
...
...
@@ -29,9 +29,9 @@ include-before: <script src="css/prism.js"></script>
# Objectif
Réaliser un programme permettant de réaliser une régression linéaire
à une dimension
à l'aide de la méthode de la descente de gradient.
Tester ce programme sur des données synthétiques afin de valider
*
Réaliser un programme permettant de réaliser une régression linéaire
à l'aide de la méthode de la descente de gradient.
*
Tester ce programme sur des données synthétiques afin de valider
votre implémentation.
# Travail à réaliser
...
...
@@ -46,7 +46,7 @@ est aisé.
On va chercher "la meilleure droite"
passant par un ensemble de points $
\{
(x_j, y_j)
\}
_{j=1}^N$.
Comme on l'a vu en cours, on cherche à minimiser la fonction
Comme on l'a vu en cours, on cherche à minimiser la fonction
de coût
$$
E(a,b)=
\s
um_{j=1}^N(a
\c
dot x_j + b - y_j)^2.
$$
...
...
@@ -58,13 +58,16 @@ on peut trouver la valeur de $a$ et $b$ pour n'importe quel
ensemble de points $
\{
(x_j, y_j)
\}
_{j=1}^N$.
Votre premier exercice sera de trouver l'expression de $a$
et $b$ en fonction de $
\{
(x_j, y_j)
\}
_{j=1}^N$.
et $b$ en fonction de $
\{
(x_j, y_j)
\}
_{j=1}^N$ analytiquement (avec un papier
et un crayon). En d'autres termes, on cherche une formule pour $a$ et une
pour $b$ ne dépendant que des valeurs des points $(x_j, y_j)$.
### Solution numérique
En prenant comme référence la solution ci-dessus,
il faut à présent implémenter la méthode de la descente de gradient
pour minimiser $E(a,b)$.
En partant d'une pente $a_0$ et d'une ordonnée à l'origine $b_0$,
il faut itérativement construire de meilleures approximations
$$
...
...
@@ -173,3 +176,4 @@ pendant les séance pour poser des questions et n'attendez pas le dernier moment
La rédaction du rapport est également une tâche complexe et il s'agit de ne pas bâcler
sa réalisation. C'est un exercice qui vous sera utile lorsque vous devrez écrire votre
mémoire pour votre travail de bachelor.
This diff is collapsed.
Click to expand it.
Preview
0%
Loading
Try again
or
attach a new file
.
Cancel
You are about to add
0
people
to the discussion. Proceed with caution.
Finish editing this message first!
Save comment
Cancel
Please
register
or
sign in
to comment