Calcul de l’erreur

Dans ce chapitre, nous allons faire des calculs pour déterminer l’erreur commise (en fait, nous allons seulement la majorer). Cela signifie que nous allons majorer la différence entre la vraie valeur et la valeur que la méthode nous donnerait avec un pas nn. Notons que nous sommes censés trouver que cette erreur tend vers 0 quand le pas tend vers l’infini.

Pour majorer l’erreur εn\varepsilon_n, nous allons majorer toutes les petites erreurs sur chaque petit intervalle (notons εn,k\varepsilon_{n, k} l’erreur sur l’intervalle [xk,xk+1][x_k, x_{k + 1}]). Par exemple, pour la méthode des rectangles, εn,k\varepsilon_{n, k} correspond à la différence entre l’intégrale de ff sur [xk,xk+1][x_k, x_{k+1}] et l’aire du petit rectangle. En additionnant toutes les petites erreurs, on obtient l’erreur sur l’intervalle [a,b][a, b] où l’on intègre (donc sur tout l’intervalle).

εn=k=0n1εn,k. \varepsilon_n = \sum_{k = 0}^{n - 1} \varepsilon_{n, k}.

La méthode des rectangles

Avant de faire le moindre calcul, nous allons établir une propriété qui nous sera très utile pour la suite.

Propriété

Soit nn un entier naturel et ff une fonction de classe CnC^n sur un intervalle [a,b][a, b]. Alors, il existe une constante MM telle que pour tout (x,y)(x, y) appartenant à [a,b][a, b],

f(n1)(y)f(n1)(x)Myx.|f^{(n -1)}(y) - f^{(n -1)}(x)| \leq M|y - x|.

En effet, on a que f(n)f^{(n)} est continue et donc bornée sur [a,b][a, b] d’après le théorème des bornes. Donc, il existe une constante MM telle que pour tout xx appartenant à [a,b][a, b], f(n)(x)M|f^{(n)}(x)| \leq M. En intégrant f(n)f^{(n)} sur [a,b][a, b] (possible car f(n)f^{(n)} est continue sur cet intervalle), on obtient alors

f(n1)(y)f(n1)(x)=xyf(n)(t)dtxyf(t)dt. f^{(n - 1)}(y) - f^{(n -1)}(x) = \int_x^y f^{(n)}(t) \mathrm{d}t \leq \left|\int_x^y \left|f(t)\right|\mathrm{d}t \right|.

D’où, puisque f(n)f^{(n)} est bornée,

f(n1)(y)f(n1)(x)xyMdt=Myx. |f^{(n - 1)}(y) - f^{(n -1)}(x)| \leq \left|\int_x^y M \mathrm{d}t\right| = M|y - x|.

Passons maintenant au calcul de l’erreur dans le cas de la méthode des rectangles. On va supposer ff de classe C1C^1 (cela nous permettre d’appliquer notre propriété). Avec la méthode des rectangles, l’aire du rectangle kk est Rk(f)=(xkxk+1)f(xk)R_k(f) = (x_k - x_{k + 1}) f(x_k) d’où l’erreur sur l’intervalle [xk,xk+1][x_k, x_{k + 1}] est

εn,k=(xkxk+1f(t)dt)(xkxk+1)f(xk). \varepsilon_{n, k} = \left(\int_{x_k}^{x_{k + 1}} f(t) \mathrm{d}t \right) - (x_k - x_{k + 1}) f(x_k).

Pour xx appartenant à [a,b][a, b], on pose

E(x)=(xkxf(t)dt)(xkx)f(xk).E(x) = \left(\int_{x_k}^{x} f(t) \mathrm{d}t\right) - (x_k - x) f(x_k).

Pour majorer εn,k\varepsilon_{n, k}, il nous suffit de majorer EE (car εn,k=E(xk+1\varepsilon_{n, k} = E(x_{k + 1})).

En dérivant EE, on obtient E(x)=f(x)f(xk)E’(x) = f(x) - f(x_k) d’où, en appliquant notre propriété, il existe une constante MM telle que E(x)MxxkE’(x) \leq M|x - x_k|. En intégrant sur [xk,x][x_k, x] (avec E(xk)E(x_k) nul), on obtient

E(x)Mxxk22. E(x) \leq \frac{M|x - x_k|^2}{2}.

Ceci nous permet d’obtenir en évaluant EE en xk+1x_{k + 1},

εn,kM(xk+1xk)22. \varepsilon_{n, k} \leq \frac{M(x_{k + 1} - x_k)^2}{2}.

Or on sait que xk+1xk=δ=banx_{k + 1} - x_k = \delta = \frac{b - a}{n}. Donc :

εn,kM(ba)22n2. \varepsilon_{n, k} \leq \frac{M(b - a)^2}{2n^2}.

Grâce à cela, on peut majorer l’erreur εn\varepsilon_n :

εnk=0n1εn,kk=0n1M(ba)22n2. |\varepsilon_n| \leqslant \sum_{k = 0}^{n - 1} |\varepsilon_{n, k}| \leqslant \sum_{k = 0}^{n - 1} \frac{M(b - a)^2}{2n^2}.

Et finalement :

εnM(ba)22n. |\varepsilon_n| \leqslant \frac{M(b - a)^2}{2n}.

La méthode des rectangles converge bien vers I(f)I(f) puisque εnn+0|\varepsilon_n| \underset{n \to+ \infty}{\longrightarrow} 0 et on sait qu’elle a une convergence en O(1n)O\left(\frac{1}{n}\right).

La convergence est trouvée en négligeant certains termes tels que les constantes, cela nous donne juste une idée de la vitesse de convergence de la méthode.

La méthode des trapèzes

Pour majorer l’erreur de la méthode des trapèzes, nous allons faire comme pour la méthode des rectangles. Supposons ff de classe C2C^2 (donc ff’’ est bornée sur [a,b][a, b] par une constante MM. L’aire du trapèze kk est

Tk(f)=(xk+1xk)f(xk+1)f(xk)2 T_k(f) = (x_{k + 1} - x_k) \frac{f(x_{k + 1}) - f(x_k)}{2}

de sorte que

εn,k=xkxk+1f(x)dt(xk+1xk)f(xk+1)f(xk)2. \varepsilon_{n, k} = \int_{x_k}^{x_{k + 1}} f(x) \mathrm{d}t - (x_{k + 1} - x_k) \frac{f(x_{k + 1}) - f(x_k)}{2}.

Cette fois, on considère

E(x)=xkxf(t)dt(xxk)f(x)f(xk)2.E(x) = \int_{x_k}^x f(t) \mathrm{d}t - (x - x_k) \frac{f(x) - f(x_k)}{2}.

Là, encore, majorer EE sur [a,b][a, b] nous permet de majorer εn,k\varepsilon_{n, k}. Essayons comme tout-à-l’heure de dériver EE.

E(x)=12(f(x)f(xk)(xxk)f(x)).E’(x) = \frac{1}{2} \left(f(x) − f(x_k) − (x − x_k)f’(x)\right).

Cela ne suffit pas, dérivons une nouvelle fois.

E(x)=12(f(x)f(x)(xxk)f(x))=(xxk)f(x)2.E’’(x) = \frac{1}{2} \left(f’(x) − f’(x) - (x − x_k)f’’(x)\right) = -\frac{(x - x_k)f’’(x)}{2}.

On a alors puisque ff’’ est bornée

E(x)M(xxk)2.|E’’(x)| \leq \frac{M(x - x_k)}{2}.

Il ne nous reste plus qu’à intégrer deux fois sur [xk,x][x_k, x] (sachant que E(xk)E’(x_k) et E(xk)E(x_k) sont nuls) pour obtenir une majoration. On obtient E(x)M(xxk)24|E’(x)| \leq \frac{M(x - x_k)^2}{4} et

E(x)M(xxk)312.|E(x)| \leq \frac{M(x - x_k)^3}{12}.

Et donc en évaluant en xk+1x_{k + 1}, on obtient

εn,kM(xk+1xk)312=M(ba)312n3.|\varepsilon_{n, k}| \leq \frac{M(x_{k + 1} - x_k)^3}{12} = \frac{M(b - a)^3}{12n^3}.

Ce résultat nous permet de majorer l’erreur εn\varepsilon_n :

εnk=0n1εn,kk=0n1M(ba)312n3. |\varepsilon_n| \leqslant \sum_{k = 0}^{n - 1} |\varepsilon_{n, k}| \leqslant \sum_{k = 0}^{n - 1} \frac{M(b - a)^3}{12n^3}.

Et donc :

εnM(ba)312n2. |\varepsilon_n| \leqslant \frac{M(b - a)^3}{12n^2}.

εnn+0|\varepsilon_n| \underset{n \to+ \infty}{\longrightarrow} 0 donc la méthode des trapèzes converge bien vers I(f)I(f) et elle a une convergence en O(1n2)O\left(\frac{1}{n^2}\right). Elle a donc une meilleure vitesse de convergence que la méthode des rectangles.

Cela ne veut pas dire qu’à pas égal la méthode des trapèzes donne un résultat plus précis que celle des rectangles. On a juste qu’elle converge plus vite lorsqu’on augmente le pas.

La méthode de Simpson

Pour la méthode de Simpson, le calcul de l’erreur est un peu plus long à faire. Cette fois, nous considérons ff de classe C4C^4. L’intégrale du kkème polynôme considéré est

xkxk+1Lk(t)dt=xk+1xk3(f(xk)+f(xk+1)2+2f(c))\int_{x_k}^{x_{k + 1}} L_k(t) \mathrm{d}t = \frac{x_{k + 1} - {x_k}}{3} \left(\frac{f(x_k) + f(x_{k + 1})}{2} + 2f(c) \right)

et donc l’erreur à considérer est

εn,k=xkxk+1f(t)dtxk+1xk3(f(xk)+f(xk+1)2+2f(xk,5)).\varepsilon_{n, k} = \int_{x_k}^{x_{k + 1}} f(t) \mathrm{d}t - \frac{x_{k + 1} - {x_k}}{3} \left(\frac{f(x_k) + f(x_{k + 1})}{2} + 2f(x_{k{,}5}) \right).

En considérant c=xk+xk+12=δ2c = \frac{x_k + x_{k + 1}}{2} = \frac{\delta}{2} et le point milieu xk,5x_{k{,}5}, nous pouvons transformer l’expression précédente de la manière suivante.

εn,k=xk,5cxk,5+cf(t)dtc3(f(xk,5c)+f(xk,5+c)+4f(xk,5)).\varepsilon_{n, k} = \int_{x_{k{,}5} - c}^{x_{k{,}5} + c} f(t) \mathrm{d}t - \frac{c}{3} \Bigl( f(x_{k{,}5} - c) + f(x_{k{,}5} + c) + 4f(x_{k{,}5}) \Bigr).

On va maintenant considérer (toujours sur [a,b][a, b])

E(x)=xk,5xxk,5+xf(t)dtx3(f(xk,5x)+f(xk,5+x)+4f(xk,5)).E(x) = \int_{x_{k{,}5} - x}^{x_{k{,}5} + x} f(t) \mathrm{d}t - \frac{x}{3} \Bigl( f(x_{k{,}5} - x) + f(x_{k{,}5} + x) + 4f(x_{k{,}5}) \Bigr).

Et on dérive (cette fois, il sera nécessaire de dériver trois fois).

E(x)=23(f(xk,5+x)+f(xk,5x))x3(f(xk,5+x)f(xk,5x))43f(xk,5).E(x)=13(f(xk,5+x)f(xk,5x))x3(f(xk,5+x)+f(xk,5x)).E(3)(x)=x3(f(3)(xk,5x)f(3)(xk,5+x)).\begin{aligned} E’(x) &= \frac{2}{3} \Bigl( f(x_{k{,}5} + x) + f(x_{k{,}5} - x) \Bigr) - \frac{x}{3} \Bigl(f’(x_{k{,}5} + x) - f’(x_{k{,}5} - x)\Bigr) - \frac{4}{3} f(x_{k{,}5}).\\ E’’(x) &= \frac{1}{3}\Bigl( f’(x_{k{,}5} + x) - f’(x_{k{,}5} - x) \Bigr) - \frac{x}{3} \Bigl(f’’(x_{k{,}5} + x) + f’’(x_{k{,}5} - x)\Bigr).\\ E^{(3)}(x) &= \frac{x}{3} \left(f^{(3)}(x_{k{,}5} - x) - f^{(3)}(x_{k{,}5} + x)\right). \end{aligned}

On peut maintenant utiliser notre propriété (car on a supposé ff de classe C4C^4). Donc, il existe une constante MM telle que f(3)(xk,5x)f(3)(xk,5+x)M(xk,5x)(xk,5+x)=2Mx|f^{(3)}(x_{k{,}5} - x) - f^{(3)}(x_{k{,}5} + x)| \leq M|(x_{k{,}5} - x) - (x_{k{,}5} + x)| = 2M|x|. On a alors

E(3)(x)2Mx23.\left| E^{(3)}(x) \right| \leq \frac{2M|x|^2}{3}.

Il nous reste à intégrer trois fois pour obtenir la majoration de EE. En faisant ces trois intégrations sur [0,x][0, x] (on a E(0)E(0), E(0)E’(0) et E(0)E’’(0) nuls), on obtient successivement E(x)2Mx39\left| E’’(x) \right| \leq \frac{2Mx^3}{9}, E(x)Mx418\left| E’(x) \right| \leq \frac{Mx^4}{18} et finalement

E(x)Mx590.\left| E(x) \right| \leq \frac{M|x|^5}{90}.

En évaluant EE en cc, on obtient

εn,kM(xk+1xk)52580=M(ba)52880n5.\varepsilon_{n, k}\leq \frac{M(x_{k + 1} - x_k)^5}{2^5 * 80} = \frac{M(b - a)^5}{2880n^5}.

On peut maintenant majorer l’erreur,

εnk=0n1εn,kk=0n1M(ba)52880n5.|\varepsilon_n| \leq \sum_{k = 0}^{n - 1} |\varepsilon_{n,k}| \leq \sum_{k = 0}^{n - 1} \frac{M(b - a)^5}{2880n^5}.

On obtient finalement

εnM(ba)52880n4.|\varepsilon_n| \leq \frac{M(b - a)^5}{2880n^4}.

On a εnn+0|\varepsilon_n| \underset{n \to+ \infty}{\longrightarrow} 0, donc la méthode de Simpson converge bien. De plus, elle a une convergence en O(1n4)O \left( \frac{1}{n^4} \right) (donc elle converge plus vite que les autres lorsqu’on diminue le pas).


Avec les résultats que nous avons obtenu, il semble logique de penser que la méthode de Simpson est plus efficace que les autres. Il nous faut cependant garder un œil critique sur ces résultats et sur les hypothèses que nous avons formulé pour les trouver. On peut alors pointer ces différents points.

  • Nous avons supposé que la fonction était d’une certaine régularité.
  • La méthode de Simpson demande la connaissance de deux fois plus de points que la méthode des rectangles.
  • La méthode de Simpson demande légèrement plus de calculs.

Au vu de ces différents points, nous pouvons juste conclure que la méthode de Simpson converge plus vite lorsqu’on diminue le pas.

Nous avons testé les trois méthodes pour calculer

01et2dt \int_0^1 \mathrm{e}^{-t^2} \mathrm{d}t

avec un pas de 1100\frac{1}{100} à chaque fois. Nous avons obtenu dans l’ordre environ 0,749979, environ 0,746818 et environ 0,746824. Un logiciel de calcul comme Wolfram Alpha nous donne comme résultat 0,746824. On voit donc que la méthode de Simpson donne un résultat assez satisfaisant sur cet exemple.