"2. Modifiez la tolérance de l'optimiseur ainsi que le nombre de points de discrétisation. Commentaires.\n",
"2. Modifiez la tolérance de l'optimiseur ainsi que le nombre de points de discrétisation. Commentaires.\n",
"3. Décrivez la structure du contrôle optimal en fonction du temps."
"3. Décrivez la structure du contrôle optimal en fonction du temps."
]
]
},
{
"attachments": {},
"cell_type": "markdown",
"metadata": {},
"source": [
"## Méthode indirecte\n",
"\n",
"D'après la condition de maximisation du hamiltonien et la structure optimale de la solution, nous avons besoin de définir 3 fonctions permettant de calculer les flots des systèmes hamiltoniens associés aux contrôles +1, -1 et au contrôle dit singulier qui apparaît lorsque la fonction de commutation reste nulle sur un intervalle de temps non réduit à 0.\n",
"\n",
"✏️ ️️**Exercice 6.** \n",
"\n",
"1. Donner la fonction de commutation.\n",
"2. En dérivant deux fois par rapport au temps la fonction de commutations, trouver une condition vérifiée par l'état et une condition vérifiée par le contrôle le long d'un arc singulier, c-a-d le long d'un arc où la fonction de commutation est constante égale à 0.\n",
"3. Remplir le code ci-dessous: il faut fournir les 3 contrôles pour définir les flots, puis écrire la fonction de tir.\n",
"\n",
"**Remarque.** La fonction de tir à 3 variables inconnues. Il faut donc trouver 3 équations. La condition terminale en est une. L'annulation de la fonction de commutation au premier temps de commutation en est une autre. La question 2 aide à trouver la dernière condition.\n"
]
},
{
"cell_type": "code",
"execution_count": null,
"metadata": {},
"outputs": [],
"source": [
"# système pseudo-hamiltonien\n",
"function hv(x, p, u)\n",
" return [u, 2x]\n",
"end\n",
"\n",
"# systèmes hamiltoniens\n",
"hv_min(x, p) = hv(x, p, NaN)\n",
"hv_max(x, p) = hv(x, p, NaN)\n",
"hv_sin(x, p) = hv(x, p, NaN)\n",
"\n",
"# flots\n",
"fmin = Flow(hv_min)\n",
"fmax = Flow(hv_max)\n",
"fsin = Flow(hv_sin)\n",
"\n",
"# fonction de tir\n",
"function shoot(p0, t1, t2)\n",
" \n",
" # integration\n",
" x1, p1 = fmin(t0, x0, p0, t1) # x1, p1 sont des scalaires\n",
" x2, p2 = fsin(t1, x1, p1, t2)\n",
" x3, p3 = fmax(t2, x2, p2, tf)\n",
" \n",
" # conditions\n",
" s = zeros(eltype(p0), 3)\n",
" s[1] = NaN\n",
" s[2] = NaN\n",
" s[3] = NaN\n",
" \n",
" return s\n",
"\n",
"end;"
]
},
{
"attachments": {},
"cell_type": "markdown",
"metadata": {},
"source": [
"4. Trouver (remplir le code ci-dessous) à partir de la solution de la méthode directe, une bonne initialisation pour la fonction de tir."
]
},
{
"cell_type": "code",
"execution_count": 1,
"metadata": {},
"outputs": [
{
"name": "stdout",
"output_type": "stream",
"text": [
"Itéré initial:\n"
]
},
{
"name": "stdout",
"output_type": "stream",
"text": [
"[NaN, NaN, NaN]\n"
]
}
],
"source": [
"# itéré initiale pour la méthode indirecte de tir\n",
Le but est de résoudre par du tir simple indirect, un problème de contrôle optimal dont le contrôle est discontinu. On se propose de résoudre dans un premier temps, le problème par une méthode directe, afin de déterminer la structure optimale et une bonne approximation de la solution pour faire converger la méthode de tir.
Le but est de résoudre par du tir simple indirect, un problème de contrôle optimal dont le contrôle est discontinu. On se propose de résoudre dans un premier temps, le problème par une méthode directe, afin de déterminer la structure optimale et une bonne approximation de la solution pour faire converger la méthode de tir.
%% Cell type:code id: tags:
%% Cell type:code id: tags:
``` julia
``` julia
usingJuMP,Ipopt# pour la méthode directe
usingJuMP,Ipopt# pour la méthode directe
usingDifferentialEquations,NLsolve,ForwardDiff# pour la méthode indirecte
usingDifferentialEquations,NLsolve,ForwardDiff# pour la méthode indirecte
usingPlots# pour les graphiques
usingPlots# pour les graphiques
include("utils.jl");# fonctions utilitaires
include("utils.jl");# fonctions utilitaires
```
```
%% Cell type:markdown id: tags:
%% Cell type:markdown id: tags:
## Introduction
## Introduction
On considère le problème de contrôle optimal suivant :
On considère le problème de contrôle optimal suivant :
1. Appliquez le PMP. Que pouvez-vous dire du contrôle maximisant ?
1. Appliquez le PMP. Que pouvez-vous dire du contrôle maximisant ?
2. Peut-on appliquer simplement la méthode de tir simple vu au TP précédent ?
2. Peut-on appliquer simplement la méthode de tir simple vu au TP précédent ?
%% Cell type:markdown id: tags:
%% Cell type:markdown id: tags:
## Méthode directe
## Méthode directe
Avant de définir la méthode directe, on propose une réécriture du problème. Notez que ce n'est pas une obligation en soi de la méthode mais cela simplifie les choses.
Avant de définir la méthode directe, on propose une réécriture du problème. Notez que ce n'est pas une obligation en soi de la méthode mais cela simplifie les choses.
✏️ **Exercice 2.**
✏️ **Exercice 2.**
- Mettez le problème sous forme de Mayer (c.f. cours). Vous nommerez la nouvelle variable d'état associée au coût $c(\cdot)$.
- Mettez le problème sous forme de Mayer (c.f. cours). Vous nommerez la nouvelle variable d'état associée au coût $c(\cdot)$.
%% Cell type:markdown id: tags:
%% Cell type:markdown id: tags:
**Description de la méthode directe.**
**Description de la méthode directe.**
L'idée principale est de transformer le problème de contrôle optimal (de dimension infinie) en un problème d'optimisation de dimension finie.
L'idée principale est de transformer le problème de contrôle optimal (de dimension infinie) en un problème d'optimisation de dimension finie.
Pour cela :
Pour cela :
1. On définit une grille uniforme en temps $(t_1, \dots, t_{N+1})$ où $t_1 = 0$ et $t_{N+1} = t_f$ avec $\Delta t = (t_f - t_0)/N$ le pas de discrétisation.
1. On définit une grille uniforme en temps $(t_1, \dots, t_{N+1})$ où $t_1 = 0$ et $t_{N+1} = t_f$ avec $\Delta t = (t_f - t_0)/N$ le pas de discrétisation.
2. On discrétise l'état, le contrôle et le coût sur cette grille et on note
2. On discrétise l'état, le contrôle et le coût sur cette grille et on note
$$
$$
X = \{ (x_i, u_i, c_i) ~|~ i \in \{1, \dots, N+1\}\}
X = \{ (x_i, u_i, c_i) ~|~ i \in \{1, \dots, N+1\}\}
$$
$$
l'ensemble des variables d'optimisation du problème discrétisé.
l'ensemble des variables d'optimisation du problème discrétisé.
Si l'on note $(x^*(\cdot), u^*(\cdot), c^*(\cdot))$ la solution du problème de contrôle optimal et $\{ (x^*_i, u^*_i, c^*_i) ~|~ i \in \{1, \dots, N+1\}\}$ la solution du problème discrétisé, on s'attend à avoir
Si l'on note $(x^*(\cdot), u^*(\cdot), c^*(\cdot))$ la solution du problème de contrôle optimal et $\{ (x^*_i, u^*_i, c^*_i) ~|~ i \in \{1, \dots, N+1\}\}$ la solution du problème discrétisé, on s'attend à avoir
✏️ ️**Exercice 3.** Définissez pour le problème discrétisé :
✏️ ️**Exercice 3.** Définissez pour le problème discrétisé :
1. l'objectif à minimiser en fonction d'une ou plusieurs composantes de $X$ bien choisies.
1. l'objectif à minimiser en fonction d'une ou plusieurs composantes de $X$ bien choisies.
2. les contraintes d'inégalités associées au contrôle.
2. les contraintes d'inégalités associées au contrôle.
3. les contraintes initiales et finales associées à la variable d'état.
3. les contraintes initiales et finales associées à la variable d'état.
4. les contraintes de dynamique sur l'état et le coût, en utilisant le schéma d'intégration de Crank-Nicolson (ou [règle des Trapèzes](https://fr.wikipedia.org/wiki/M%C3%A9thode_des_trap%C3%A8zes)).
4. les contraintes de dynamique sur l'état et le coût, en utilisant le schéma d'intégration de Crank-Nicolson (ou [règle des Trapèzes](https://fr.wikipedia.org/wiki/M%C3%A9thode_des_trap%C3%A8zes)).
%% Cell type:markdown id: tags:
%% Cell type:markdown id: tags:
✏️ ️**Exercice 4.**
✏️ ️**Exercice 4.**
- Modifiez le code suivant afin de résoudre le problème par la méthode directe que vous venez de décrire.
- Modifiez le code suivant afin de résoudre le problème par la méthode directe que vous venez de décrire.
**Remarque.** Vous pouvez vous inspirer de cet [exemple](https://ct.gitlabpages.inria.fr/gallery/goddard-j/goddard.html) pour le code. Notez que dans cet exemple, la fonction `@NLexpressions` est utilisée mais n'est pas nécessaire ici donc vous pouvez ou non l'utiliser.
**Remarque.** Vous pouvez vous inspirer de cet [exemple](https://ct.gitlabpages.inria.fr/gallery/goddard-j/goddard.html) pour le code. Notez que dans cet exemple, la fonction `@NLexpressions` est utilisée mais n'est pas nécessaire ici donc vous pouvez ou non l'utiliser.
%% Cell type:code id: tags:
%% Cell type:code id: tags:
``` julia
``` julia
# Création du modèle JuMP, Utilisation de Ipopt comme solver
# Création du modèle JuMP, Utilisation de Ipopt comme solver
2. Modifiez la tolérance de l'optimiseur ainsi que le nombre de points de discrétisation. Commentaires.
2. Modifiez la tolérance de l'optimiseur ainsi que le nombre de points de discrétisation. Commentaires.
3. Décrivez la structure du contrôle optimal en fonction du temps.
3. Décrivez la structure du contrôle optimal en fonction du temps.
%% Cell type:markdown id: tags:
## Méthode indirecte
D'après la condition de maximisation du hamiltonien et la structure optimale de la solution, nous avons besoin de définir 3 fonctions permettant de calculer les flots des systèmes hamiltoniens associés aux contrôles +1, -1 et au contrôle dit singulier qui apparaît lorsque la fonction de commutation reste nulle sur un intervalle de temps non réduit à 0.
✏️ ️️**Exercice 6.**
1. Donner la fonction de commutation.
2. En dérivant deux fois par rapport au temps la fonction de commutations, trouver une condition vérifiée par l'état et une condition vérifiée par le contrôle le long d'un arc singulier, c-a-d le long d'un arc où la fonction de commutation est constante égale à 0.
3. Remplir le code ci-dessous: il faut fournir les 3 contrôles pour définir les flots, puis écrire la fonction de tir.
**Remarque.** La fonction de tir à 3 variables inconnues. Il faut donc trouver 3 équations. La condition terminale en est une. L'annulation de la fonction de commutation au premier temps de commutation en est une autre. La question 2 aide à trouver la dernière condition.
%% Cell type:code id: tags:
``` julia
# système pseudo-hamiltonien
function hv(x,p,u)
return[u,2x]
end
# systèmes hamiltoniens
hv_min(x,p)=hv(x,p,NaN)
hv_max(x,p)=hv(x,p,NaN)
hv_sin(x,p)=hv(x,p,NaN)
# flots
fmin=Flow(hv_min)
fmax=Flow(hv_max)
fsin=Flow(hv_sin)
# fonction de tir
function shoot(p0,t1,t2)
# integration
x1,p1=fmin(t0,x0,p0,t1)# x1, p1 sont des scalaires
x2,p2=fsin(t1,x1,p1,t2)
x3,p3=fmax(t2,x2,p2,tf)
# conditions
s=zeros(eltype(p0),3)
s[1]=NaN
s[2]=NaN
s[3]=NaN
returns
end;
```
%% Cell type:markdown id: tags:
4. Trouver (remplir le code ci-dessous) à partir de la solution de la méthode directe, une bonne initialisation pour la fonction de tir.