diff --git a/README.md b/README.md
index 7ef0c340f81e1baffbf5a2c307e39fff235f0681..dbf2dda22f0ff2d59063ae1867ef1c6be1be3160 100644
--- a/README.md
+++ b/README.md
@@ -19,10 +19,9 @@ Méthodes indirectes et directes en contrôle optimal
 * [Sujet 2 : tp/simple-shooting.ipynb](tp/simple-shooting.ipynb) - Tir simple indirect
 * [Sujet 3 : tp/direct-indirect.ipynb](tp/direct-indirect.ipynb) - Méthode directe et tir avec structure sur le contrôle
 
-Calcul différentiel et équation différentielle ordinaire
+Equation différentielle ordinaire
 
-* [Sujet 4 : tp/derivative.ipynb](tp/derivative.ipynb) - Calcul numérique de dérivées
-* [Sujet 5 : tp/runge-kutta.ipynb](tp/runge-kutta.ipynb) - Méthodes de Runge-Kutta
+* [Sujet 4 : tp/runge-kutta.ipynb](tp/runge-kutta.ipynb) - Méthodes de Runge-Kutta
 
 **Notes de cours supplémentaires - ressources**
 
diff --git a/tp/derivative.ipynb b/tp/derivative.ipynb
deleted file mode 100644
index c03c237a6c51ebd38d388e582fb8c73022548d2f..0000000000000000000000000000000000000000
--- a/tp/derivative.ipynb
+++ /dev/null
@@ -1,495 +0,0 @@
-{
- "cells": [
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "[<img src=\"https://gitlab.irit.fr/toc/etu-n7/controle-optimal/-/raw/master/ressources/Logo-toulouse-inp-N7.png\" alt=\"N7\" height=\"100\"/>](https://gitlab.irit.fr/toc/etu-n7/controle-optimal)\n",
-    "\n",
-    "# Calcul de dérivées\n",
-    "\n",
-    "- Date : 2025\n",
-    "- Durée approximative : 1h15\n",
-    "\n",
-    "## Introduction\n",
-    "\n",
-    "Il existe plusieurs façon de calculer une dérivée sur un calculateur : \n",
-    "\n",
-    "- par différences finies;\n",
-    "- par différentiation complexe;\n",
-    "- en utilisant la différentiation automatique;\n",
-    "- en utilisant le calcul formel et un générateur de code.\n",
-    "\n",
-    "Nous allons étudier ici quelques cas.\n",
-    "\n",
-    "On notera $\\Vert{\\cdot}\\Vert$ la norme euclidienne usuelle et $\\mathcal{N}(0,1)$ une variable aléatoire Gaussienne centrée réduite."
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "# load packages\n",
-    "using DualNumbers\n",
-    "using DifferentialEquations\n",
-    "using ForwardDiff\n",
-    "using LinearAlgebra\n",
-    "using Plots\n",
-    "using Plots.Measures\n",
-    "using Printf"
-   ]
-  },
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "## Dérivées par différences finies avant\n",
-    "\n",
-    "Soit $f$ une fonction lisse de $\\mathbb{R}^{n}$ dans $\\mathbb{R}^{m}$, $x$ un point de $\\mathbb{R}^{n}$ et $v$ un vecteur de $\\mathbb{R}^{n}$. Si on note $g \\colon h \\mapsto f(x+hv)$, alors on a d'après la formule de Taylor-Young :\n",
-    "$$\n",
-    "    g(h) = \\sum_{i=0}^{n} \\frac{h^i}{i!} g^{(i)}(0) + R_n(h), \\quad R_n(h) = o(h^n),\n",
-    "$$\n",
-    "ou d'après Taylor-Lagrange, \n",
-    "$$\n",
-    "    \\| R_n(h) \\| \\leq \\frac{M_n h^{n+1}}{(n+1)!},\n",
-    "$$\n",
-    "de même, \n",
-    "$$\n",
-    "    g(-h) = \\sum_{i=0}^{n} \\frac{(-h)^i}{i!} g^{(i)}(0) + R_n(h).\n",
-    "$$\n",
-    "\n",
-    "La méthode des différences finies avants consiste à approcher la différentielle de $f$ en $x$ dans la direction $v$ par la formule suivante : \n",
-    "$$\n",
-    "    \\frac{f(x+hv) - f(x)}{h} = \n",
-    "    \\frac{g(h)-g(0)}{h} = g'(0) + \\frac{h}{2} g^{2}(0) + \\frac{h^2}{6} g^{(3)}(0) + o(h^2).\n",
-    "$$\n",
-    "L'approximation ainsi obtenue de $ g'(0) =  f'(x) \\cdot v \\in \\mathbb{R}^m$ est d'ordre 1 si $g^{(2)}(0) \\neq 0$ ou au moins d'ordre 2 sinon. \n",
-    "\n",
-    "**Remarque.** Sur machine, Les calculs se font en virgule flottante. On note epsilon machine, le plus petit nombre $\\mathrm{eps}_\\mathrm{mach}$ tel que $1+\\mathrm{eps}_\\mathrm{mach}\\ne 1$. Cette quantité dépend des machines et de l'encodage des données. Pour l'optenir en `Julia` il suffit de taper `eps()`. On peut indiquer la précision numérique : `eps(Float64)` ou `eps(Float64(1))` pour les flottants codés sur 64 bits et `eps(Float32(1))` sur 32 bits.\n",
-    "\n",
-    "Notons $\\mathrm{num}(g,\\, h)$ la valeur de $g(h)$ calculée numériquement et supposons que l'on puisse majorer l'erreur relative numérique par : \n",
-    "$$\n",
-    "  \\left\\| \\mathrm{num}(g,h) - g(h) \\right\\| := \\| e_h\\| \\leq \\mathrm{eps}_\\mathrm{mach} L_f,\n",
-    "$$\n",
-    "ou $L_f$ est une constante qui dépend de la valeur de $f$ sur le domaine d'intérêt. Ainsi on a : \n",
-    "\\begin{align*}\n",
-    "    \\left\\| \\frac{\\mathrm{num}(g,h) - \\mathrm{num}(g,0)}{h} - g'(0) \\right\\|\n",
-    "    &= \\left\\| \\frac{g(h) + e_h - g(0) - e_0}{h} - g'(0) \\right\\|, \\\\[1em]\n",
-    "    &= \\left\\| \\frac{R_1(h)}{h} + \\frac{e_h - e_0}{h} \\right\\|, \\\\[1em]\n",
-    "    &\\leq \\left\\| \\frac{R_1(h)}{ h} \\right\\| + \\left\\| \\frac{e_h - e_0}{h} \\right\\|, \\\\[1em]\n",
-    "    & \\leq \n",
-    "    \\underbrace{ \\frac{M_1 h}{2}}_{{\\text{Erreur  d'approximation}}} +  \n",
-    "    \\underbrace{2 \\frac{\\mathrm{eps}_\\mathrm{mach}L_f}{h}}_{{\\text{Erreur numérique}}}.\n",
-    "\\end{align*} \n",
-    "Le majorant trouvé atteint son minimum en \n",
-    "$$\n",
-    "    h_{*} = 2 \\sqrt{\\frac{\\mathrm{eps}_\\mathrm{mach} L_f }{M_1}}.\n",
-    "$$\n",
-    "\n",
-    "En considérant que $L_f \\simeq M_1$, alors le choix se révélant le plus optimal est \n",
-    "$$\n",
-    "    h_{*} \\approx \\sqrt{\\mathrm{eps}_\\mathrm{mach}}.\n",
-    "$$"
-   ]
-  },
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "## Dérivées par différences finies centrées\n",
-    "\n",
-    "On peut utiliser un schéma de différences finies centrée pour calculer la dérviée de $g$. \n",
-    "$$\n",
-    "    \\frac{f(x+hv) - f(x-hv)}{2h} = \\frac{g(h) - g(-h)}{2h} = \n",
-    "    g'(0) + g^{(3)}(0) \\frac{h^2}{6}  + \\mathcal{O}(h^4),\n",
-    "$$\n",
-    "l'approximation ainsi obtenue de $f'(x) \\cdot v \\in \\mathbb{R}^{m}$ est d'ordre 2 si $g^{(3)}(0) \\neq 0$ ou au moins d'ordre 4 sinon. À noter que ce schéma nécessite plus d'évaluations de la fonction $f$. On peut montrer comme précédemment que le meilleur $h$  est de l'ordre \n",
-    "$$\n",
-    "    h_* \\approx \\sqrt[3]{\\mathrm{eps}_\\mathrm{mach}}.\n",
-    "$$"
-   ]
-  },
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "## Dérivées par différentiation complexe\n",
-    "\n",
-    "Les formules des schémas avant et centrée sont sensibles aux calculs de la différence $\\Delta f = f(x+h) - f(x)$ ou $\\Delta f = f(x+h) - f(x-h)$. Pour remédier à ce problème, les [différences finies à pas complexe](https://dl.acm.org/doi/10.1145/838250.838251) ont été introduites.\n",
-    "Si on suppose que la fonction $g$ est holomorphe,  c'est-à-dire dérivable au sens complexe,\n",
-    "on peut considérer un pas complexe $ih$. Un développement limité de $g$ en $0$ s'écrit\n",
-    "\n",
-    "$$\n",
-    "    f(x+ih v) = g(ih) = g(0) + ih g'(0) - \\frac{h^2}{2} g^{(2)}(0) - i\\frac{h^3}{6} g^{(3)}(0) + o(h^3),\n",
-    "$$\n",
-    "\n",
-    "On considère alors l'approximation : \n",
-    "\n",
-    "$$\n",
-    "    f'(x) \\cdot v = g'(0)  \\approx \\frac{\\mathrm{Im}(f(x+ihv))}{h}.\n",
-    "$$\n",
-    "\n",
-    "On peut prouver que l'approximation ci-dessus est au moins d'ordre 2 et aussi démontrer que tout pas inférieur à $h_*$ est optimal, avec \n",
-    "$$\n",
-    "    h_{*} \\approx \\sqrt{\\mathrm{eps}_{\\mathrm{mach}}}.\n",
-    "$$\n",
-    "\n",
-    "**Remarque.** Utiliser en `Julia` la commande `imag` pour calculer la partie imaginaire d'un nombre complexe et la variable `im` pour représenter l'unité imaginaire."
-   ]
-  },
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "## Dérivées par différentiation automatique via les nombres duaux\n",
-    "\n",
-    "Les nombres duaux s'écrivent sous la forme $a + b\\, \\varepsilon$ avec $(a,b)\\in \\mathbb{R}^2$ et $\\varepsilon^2 = 0$. Nous allons voir comment nous pouvons les utiliser pour calculer des dérivées.\n",
-    "\n",
-    "Soit deux fonctions $f, g \\colon \\mathbb{R} \\to \\mathbb{R}$ dérivables, de dérivées respectives $f'$ et $g'$. On pose\n",
-    "\n",
-    "$$\n",
-    "f(a + b\\, \\varepsilon) := f(a) + f'(a)\\, b\\, \\varepsilon\n",
-    "$$\n",
-    "\n",
-    "et\n",
-    "\n",
-    "$$\n",
-    "g(a + b\\, \\varepsilon) := g(a) + g'(a)\\, b\\, \\varepsilon.\n",
-    "$$\n",
-    "\n",
-    "On a alors automatiquement les propriétés suivantes. Posons $d = x + \\varepsilon$, alors :\n",
-    "\n",
-    "- $(f + g)(d) = (f+g)(x) + (f+g)'(x) \\, \\varepsilon$\n",
-    "- $(fg)(d) = (fg)(x) + (fg)'(x) \\, \\varepsilon$\n",
-    "- $(g \\circ f)(d) = (g \\circ f)(x) + (g \\circ f)'(x) \\, \\varepsilon$\n",
-    "\n",
-    "Voici comment créer un nombre dual en `Julia` et récupérer les parties réelles et duales (avec ce que j'ai défini ci-dessous) :\n",
-    "\n",
-    "```julia\n",
-    "using DualNumbers\n",
-    "\n",
-    "# scalar case\n",
-    "d = 1 + 2ε # ou 1 + 2 * ε ou 1 + ε * 2\n",
-    "real(d) # 1\n",
-    "dual(d) # 2\n",
-    "\n",
-    "# vector case\n",
-    "d = [1, 3] + [2, 4]ε # ou [1, 3] + [2, 4] * ε ou [1, 3] + ε * [2, 4] ou [1+2ε, 3+4ε]\n",
-    "real(d) # [1, 3]\n",
-    "dual(d) # [2, 4]\n",
-    "```\n",
-    "\n",
-    "**Remarque.** On peut aussi utiliser le package `ForwardDiff` pour calculer des dérivées automatiquement. Il est plus performant que `DualNumbers`."
-   ]
-  },
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "## Fonctions auxiliaires"
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "# available methods\n",
-    "methods = (:forward, :central, :complex, :dual, :forward_ad)\n",
-    "\n",
-    "# type of x or its coordinates\n",
-    "function mytypeof(x::Union{T, Vector{<:T}}) where T<:AbstractFloat\n",
-    "    return T\n",
-    "end\n",
-    "\n",
-    "# default step value\n",
-    "function _step(x, v, method)\n",
-    "    T = mytypeof(x)\n",
-    "    eps_value = T isa AbstractFloat ? eps(T) : eps(1.)\n",
-    "    if method == :forward\n",
-    "        step = √(eps_value)\n",
-    "    elseif method == :central\n",
-    "        step = (eps_value)^(1/3)\n",
-    "    elseif method == :complex\n",
-    "        step = √(eps_value)\n",
-    "    else\n",
-    "        step = 0.0\n",
-    "    end\n",
-    "    step *= √(max(1., norm(x))) / √(max(1.0, norm(v)))\n",
-    "    return step\n",
-    "end\n",
-    "\n",
-    "# default method value\n",
-    "function _method()\n",
-    "    return :forward \n",
-    "end;\n",
-    "\n",
-    "# creation of dual number ε\n",
-    "import Base.*\n",
-    "*(e::Function, x::Union{Number, Vector{<:Number}}) = e(x)\n",
-    "*(x::Union{Number, Vector{<:Number}}, e::Function) = e(x)\n",
-    "ε(x=1) = begin \n",
-    "    if x isa Number\n",
-    "        return Dual.(0.0, x)\n",
-    "    else\n",
-    "        return Dual.(zeros(length(x)), x)\n",
-    "    end\n",
-    "end\n",
-    "em = ε\n",
-    "dual(x::Union{Dual, Vector{<:Dual}}) = dualpart.(x)\n",
-    "real(x::Union{Dual, Vector{<:Dual}}) = realpart.(x);"
-   ]
-  },
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "## La méthode principale pour le calcul de dérivées\n",
-    "\n",
-    "La fonction `derivative` ci-dessous calcule la dérivée directionnelle\n",
-    "\n",
-    "$$\n",
-    "    f'(x) \\cdot v.\n",
-    "$$"
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "## TO COMPLETE\n",
-    "\n",
-    "# compute directional derivative\n",
-    "function derivative(f, x, v; method=_method(), h=_step(x, v, method))\n",
-    "    if method ∉ methods \n",
-    "        error(\"Choose a valid method in \", methods)\n",
-    "    end\n",
-    "    if method == :forward\n",
-    "        return f(x) # TO UPDATE\n",
-    "    elseif method == :central\n",
-    "        return f(x) # TO UPDATE\n",
-    "    elseif method == :complex\n",
-    "        return f(x) # TO UPDATE\n",
-    "    elseif method == :dual \n",
-    "        return f(x) # TO UPDATE\n",
-    "    elseif method == :forward_ad\n",
-    "        if x isa Number\n",
-    "            return ForwardDiff.derivative(f, x)*v\n",
-    "        else\n",
-    "            return ForwardDiff.jacobian(f, x)*v\n",
-    "        end\n",
-    "    end\n",
-    "end;"
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "# function to print derivative values and errors\n",
-    "function print_derivatives(f, x, v, sol)\n",
-    "\n",
-    "    println(\"Hand derivative: \", sol, \"\\n\")\n",
-    "\n",
-    "    for method ∈ methods\n",
-    "        dfv = derivative(f, x, v, method=method)\n",
-    "        println(\"Method: \", method)\n",
-    "        println(\"   derivative: \", dfv)\n",
-    "        @printf(\"   error: %e\\n\", norm(dfv - sol))\n",
-    "        if method ∈ (:forward, :central, :complex)\n",
-    "            step = _step(x, v, method)\n",
-    "            println(\"   step: \", step)\n",
-    "            @printf(\"   error/step: %e\\n\", norm(dfv - sol) / step)\n",
-    "        end\n",
-    "        println()\n",
-    "    end\n",
-    "\n",
-    "end;"
-   ]
-  },
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "## Exercice 1\n",
-    "\n",
-    "1. Compléter la fonction `derivative` ci-dessus avec les méthodes de différences finies avant, centrée, par différentiation complexe et par différentiation automatique via les nombres duaux.\n",
-    "2. Exécuter le code ci-dessous et vérifier les résultats obtenus."
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "# Scalar case\n",
-    "\n",
-    "# check if the derivatives are correct\n",
-    "f(x) = cos(x)\n",
-    "x    = π/4\n",
-    "v    = 1.0\n",
-    "\n",
-    "# solution\n",
-    "sol  = -sin(x)*v\n",
-    "\n",
-    "# print derivatives and errors for each method\n",
-    "print_derivatives(f, x, v, sol)"
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "# Vectorial case\n",
-    "\n",
-    "# check if the derivatives are correct\n",
-    "f(x) = [0.5*(x[1]^2 + x[2]^2); x[1]*x[2]]\n",
-    "x    = [1.0, 2.0]\n",
-    "v    = [1.0, -1.0]\n",
-    "\n",
-    "# solution\n",
-    "sol  = [x[1]*v[1]+x[2]*v[2], x[1]*v[2]+x[2]*v[1]]\n",
-    "\n",
-    "# print derivatives and errors for each method\n",
-    "print_derivatives(f, x, v, sol)"
-   ]
-  },
-  {
-   "cell_type": "markdown",
-   "metadata": {},
-   "source": [
-    "## Pas optimal\n",
-    "\n",
-    "On se propose de tester pour la fonction $\\cos$ aux points $x_0=\\pi/3$, $x_1 = 10^6\\times\\pi/3$ et la fonction $\\cos+10^{-8} \\mathcal{N}(0, \\, 1)$ au point $x_0=\\pi/3$ l'erreur entre les différences finies et la dérivée au point considéré en fonction de $h$. On prendra $h=10^{-i}$ pour $i= \\{1,\\ldots,16\\}$ et on tracera ces erreurs dans une échelle logarithmique (en `Julia`, avec le package `Plots` on  utilise l'option `scale=:log10`).\n",
-    "\n",
-    "## Exercice 2\n",
-    "\n",
-    "- Visualiser les différentes erreurs en fonction de $h$ pour les différentes méthodes de calcul de dérivées. Commentaires.\n",
-    "- Modifier la précision de $x_0$ et $x_1$ en `Float32`. Commentaires."
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "# affichage des erreurs en fonction de h\n",
-    "function plot_errors(steps, errors, h_star, title)\n",
-    "\n",
-    "    steps_save = steps\n",
-    "    ymax = 10^10\n",
-    "\n",
-    "    # supprimer les erreurs nulles\n",
-    "    non_nul_element = findall(!iszero, errors) \n",
-    "    errors = errors[non_nul_element]\n",
-    "    steps  = steps[non_nul_element]\n",
-    "\n",
-    "    # Courbe des erreurs pour les differents steps en bleu\n",
-    "    plt = plot((10.).^(-steps), errors, xscale=:log10, yscale=:log10, linecolor=:blue, lw=2, legend=false)\n",
-    "\n",
-    "    # régler xlims pour toujours avoir tous les steps de départ\n",
-    "    plot!(plt, xlims=(10^(-maximum(steps_save)), 10^(-minimum(steps_save))))\n",
-    "\n",
-    "    # ylims toujours entre 10^-16 et ymax\n",
-    "    plot!(plt, ylims=(10^(-16), ymax))\n",
-    "\n",
-    "    # Ligne verticale pour situer l'erreur optimale h* en rouge\n",
-    "    plot!(plt,[h_star, h_star], [10^(-16), ymax], linecolor=:red, lw=1, linestyle=:dash)\n",
-    "\n",
-    "    # titre de la figure et xlabel\n",
-    "    plot!(plt, xlabel = \"h\", title = title, legend=false, titlefontsize=10)\n",
-    "\n",
-    "    # ajouter des marges en bas de la figure pour mieux voir le xlabel \n",
-    "    plot!(plt, bottom_margin = 5mm)\n",
-    "\n",
-    "    #\n",
-    "    return plt\n",
-    "\n",
-    "end;"
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "# Les differentes fonctions et la dérivée theorique\n",
-    "fun1(x) = cos(x)\n",
-    "fun2(x) = cos(x) + 1.e-8*randn()\n",
-    "dfun(x) = -sin(x);"
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": [
-    "# method \n",
-    "method = :forward     # TO PLAY WITH\n",
-    "h_star = √(eps(1.0))  # TO UPDATE ACCORDING TO THE METHOD\n",
-    "\n",
-    "# Points pour lesquels on souhaite effectuer les tests\n",
-    "x0 = π/3\n",
-    "x1 = 1.e6*π/3\n",
-    "\n",
-    "# steps pour faire les tests\n",
-    "steps = range(1, 16, 16)\n",
-    "\n",
-    "# Initialisation des vecteurs d'erreur\n",
-    "err_x0  = zeros(length(steps))\n",
-    "err_x0p = zeros(length(steps))\n",
-    "err_x1  = zeros(length(steps))\n",
-    "\n",
-    "# Calcul des erreurs\n",
-    "for i in 1:length(steps)\n",
-    "    h = 10^(-steps[i])\n",
-    "    err_x0[i]  = abs(derivative(fun1, x0, 1.0, h=h, method=method) - (dfun(x0)))\n",
-    "    err_x1[i]  = abs(derivative(fun1, x1, 1.0, h=h, method=method) - (dfun(x1)))\n",
-    "    err_x0p[i] = abs(derivative(fun2, x0, 1.0, h=h, method=method) - (dfun(x0)))\n",
-    "end\n",
-    "\n",
-    "# Affichage des erreurs\n",
-    "p1 = plot_errors(steps, err_x0,  h_star, \"cos(x0)\")\n",
-    "p2 = plot_errors(steps, err_x0p, h_star, \"cos(x0) + perturbation\")\n",
-    "p3 = plot_errors(steps, err_x1,  h_star, \"cos(x1)\")\n",
-    "\n",
-    "plot(p1, p2, p3, layout=(1,3), size=(850, 350))"
-   ]
-  },
-  {
-   "cell_type": "code",
-   "execution_count": null,
-   "metadata": {},
-   "outputs": [],
-   "source": []
-  }
- ],
- "metadata": {
-  "kernelspec": {
-   "display_name": "Julia 1.9.0",
-   "language": "julia",
-   "name": "julia-1.9"
-  },
-  "language_info": {
-   "file_extension": ".jl",
-   "mimetype": "application/julia",
-   "name": "julia",
-   "version": "1.9.0"
-  }
- },
- "nbformat": 4,
- "nbformat_minor": 2
-}