Subsections

La méthode de Frobenius

Une approche classique, due à Frobenius, pour résoudre des équations différentielles, consiste à rechercher des solutions sous forme de séries. Pour cela, il est nécessaire d'introduire tout d'abord un peu de terminologie.

On se focalise ici sur le cas des équations linéaires du second ordre, homogènes, que l'on met sous la forme générique

$\displaystyle f''(x) + p(x) f'(x) + q(x)f(x) = 0 \ .$ (2.8)

Les équations inhomogènes se traitent de la façon usuelle, en résolvant tout d'abord l'équation homogène associée, et en ajoutant à la solution générale de celle-ci une solution particulière de l'équation inhomogène.

Notion de point singulier, théorème de Fuchs

La méthode de Frobenius consiste à rechercher des solutions sous forme de série, soit une série entière, soit une série de Laurent, soit encore une série faisant intervenir des exposants non-entiers. La différence entre ces deux situations tient aux propriétés de régularité des coefficients (variables) de l'équation.


\begin{definition}
\begin{enumerate}
\item
Un point $x_0$\ est un point {\bf ord...
...ire, le point singulier est dit
{\bf essentiel}.
\end{enumerate}\end{definition}
Rechercher un possible point régulier ou singulier en $ x_0$ revient donc à étudier le comportement de $ p$ et $ q$ au voisinage de $ x_0$ . Un point $ x_0$ est régulier si $ p(x_0)$ et $ q(x_0)$ sont finis. Il est singulier inessentiel si $ (x-x_0)p(x)$ et $ (x-x_0)^2q(x)$ admettent une limite finie lorsque $ x\to x_0$ .

REMARQUE 2.1   La définition ci-dessus n'a de sens que pour l'étude des points sur l'axe réel. Pour étudier le comportement des points à l'infini, il est nécessaire de faire le changement de variable $ x'=1/x$ , et d'étudier le comportement en $ x'\to 0$ .

Les théorèmes de Fuchs donnent des conditions simples et explicites pour l'existence de solutions d'équations de type ([*]). Considérons tout d'abord les cas où les coefficients sont réguliers. Il est alors possible de les développer en série entière au voisinage d'un point régulier $ x_0$ , et d'en déduire une solution elle même sous forme de série entière. Plus précisément, on a le résultat suivant.
\begin{theorem}
% latex2html id marker 3683On consid\\lq ere l'\'equation diff\'e...
...nti\\lq ere autour de $x_0$\ et ob\'eissant
aux conditions donn\'ees.
\end{theorem}
Dans ces conditions, étant donné un point régulier $ x_0$ , on peut rechercher des solutions de l'équation différentielle sous la forme

$\displaystyle y(x) = \sum_{k=0}^\infty a_k (x-x_0)^k\ .
$


Dans le cas plus complexe où les conditions de régularité sur $ p$ et $ q$ ne sont pas remplies, les solutions peuvent prendre une forme un peu plus compliquée.

Supposons que $ x_0$ soit un point singulier régulier. L'équation différentielle conduit à

$\displaystyle (x-x_0)^2 y''(x) + (x-x_0) a(x) y'(x) + b(x) y(x) = 0\ ,
$

$ a(x) = (x-x_0)p(x)$ et $ b(x)=(x-x_0)^2q(x)$ sont deux fonctions régulières.

Au voisinage de $ x_0$ , on approxime cette équation par

$\displaystyle (x-x_0)^2 y''(x) + (x-x_0) a(x_0) y'(x) + b(x_0) y(x) = 0\ ,
$

dont les solutions sont de la forme

$\displaystyle (x-x_0)^{\nu_1}\ ,\qquad (x-x_0)^{\nu_2}\ ,
$

$ \nu_1$ et $ \nu_2$ sont les racines de l'équation indicielle

$\displaystyle \nu(\nu-1) + \nu a(x_0) + b(x_0)=0\ .
$

Ceci conduit à des solutions de la forme

$\displaystyle y_1(x) = (x-x_0)^{\nu_1}f_1(x)\ ,\quad
y_2(x) = (x-x_0)^{\nu_2}f_2(x)\ ,
$

$ f_1$ et $ f_2$ sont deux fonctions régulières (c'est à dire développables en série entière en $ x_0$ )... à l'exception du cas où $ \nu_1-\nu_2$ est entier, voir ci dessous.

Dans le cas où $ x_0$ est un point singulier essentiel, les choses sont encore plus complexes, mais on montre qu'il est encore possible de trouver des solutions sous forme de série infinie.

Plus précisément, le résultat est le suivant:
\begin{theorem}[Th\'eor\\lq eme de Fuchs]
Si $x_0$\ est un p\^ole ou un point singu...
...)^k
+ \alpha f_1(x) \ln(x-x_0)\ .
\end{array}\right.
\end{equation}\end{theorem}

REMARQUE 2.2   Dans le résultat ci-dessus, si le point singulier au voisinage duquel on effectue le développement est inessentiel, on peut toujours se ramener à une somme sur $ k\in\mathbb{N}$ , par exemple dans le cas non dégénéré

\begin{displaymath}
\left\{
\begin{array}{lll}
f_1(x) &=& (x-x_0)^{\nu_1}\sum_{k...
...)^{\nu_2}\sum_{k=0}^\infty d_k (x-x_0)^k\ ,
\end{array}\right.
\end{displaymath}


Ainsi, étant donnée une équation différentielle linéaire d'ordre deux, homogène, la procédure à suivre est la suivante:

Nous allons voir ci-dessous un certain nombre d'exemples.

Un exemple: les fonctions de Bessel

Les fonctions de Bessel apparaissent naturellement dans le cadre de l'étude de l'équation de Helmholtz bidimensionnelle exprimée en coordonnées polaires, c'est à dire l'équation aux dérivées partielles

$\displaystyle (\Delta + k^2)\psi (r,\theta) = 0\ ,$ (2.9)

et donnent un premier exemple d'utilisation de la méthode de séparation des variables pour les équations aux dérivées partielles. En exprimant le Laplacien en coordonnées polaires

$\displaystyle \Delta = \frac{\partial^2}{\partial r^2} +
\frac1{r}\frac{\partial}{\partial r} +
\frac1{r^2}\frac{\partial^2}{\partial \theta^2}\ ,
$

et en recherchant des solutions à variables séparées

$\displaystyle \psi(r,\theta) = R(r) \Theta(\theta)\ ,\quad r\in{\mathbb{R}}^+,\ \theta\in [0,2\pi]
$

on obtient la forme particulière

$\displaystyle \frac{r^2}{R(r)} \frac{d^2 R(r)}{dr^2} +
\frac{r}{R(r)}\frac{d R(...
...{R(r)}
=
-\frac1{\Theta(\theta)} \frac{d^2 \Theta(\theta)}{d\theta^2} =
p^2\ ,
$

$ p$ étant une constante, dont on verra qu'elle doit être réelle. En effet, les deux membres de cette équation dépendant de deux variables indépendantes, ils sont nécessairement constants. De plus, si on veut que les solutions de l'équation angulaire ci-dessous soient périodiques, il faut nécessairement que cette constante soit négative.


L'équation angulaire se résout facilement, et a pour solution

$\displaystyle \Theta(\theta) = A \cos(p\theta) + B\sin(p\theta)\ ,
$

avec la restriction $ p\in\mathbb{Z}$ (notons que si la constante $ p$ avait eu une partie imaginaire non nulle, les solutions auraient été non bornés).


Passons à l'équation radiale. Elle s'écrit sous la forme simple

$\displaystyle \frac{d}{dr}\left(r\frac{dR}{dr}(r)\right) +
\left(k^2 r -\frac{p^2}r\right) R(r)
=0\ ,
$

ou en posant $ x=kr$ , et $ y(x)=R(x/k)$

$\displaystyle x\frac{d}{dx}\left(x\frac{dy}{dx}(x)\right) + \left(x^2 -p^2\right) y(x)=0$ (2.10)

Cette équation est appelée équation de Bessel d'ordre $ p$ . On se propose de la résoudre maintenant en utilisant les séries de Frobenius.

On voit facilement que $ x=0$ est un point singulier régulier. On peut également montrer l'existence d'un point singulier essentiel à l'infini. Supposons donc une solution de la forme

$\displaystyle y(x) = \sum_{k=0}^\infty a_k x^{k+\nu}\ .
$

En insérant cette forme particulière dans l'équation, on obtient

$\displaystyle \sum_{k=0}^\infty a_k (k+\nu)^2 x^{k+\nu} +
(x^2-p^2)\sum_{k=0}^\infty a_k x^{k+\nu}=0\ .
$

Le terme de plus bas degré (c'est à dire $ x^\nu$ ) nous donne

$\displaystyle a_0 (\nu^2 -p^2) = 0\ ,
$

soit $ a_0=0$ ou $ \nu = \pm p$ . Le terme en $ x^{\nu+1}$ donne

$\displaystyle a_1 ((\nu+1)^2 -p^2) = 0\ ,
$

donc soit $ a_0=0$ ou $ \nu +1= \pm p$ .

Choisissons $ \nu=p$ , et donc $ a_1=0$ . Le terme générique donne quant à lui

$\displaystyle a_k = \frac{-a_{k-2}}{(k+p)^2 -p^2}= \frac{-a_{k-2}}{k(k+2p)}\ ,
$

et donc tous les coefficients $ a_k$ d'indice impair sont nuls. On a donc

$\displaystyle a_{2k} = -\frac{a_{2k-2}}{4k(k+p)} =
\frac{(-1)^k a_0\Gamma(p+1)}{2^{2k} \Gamma(k+1)\Gamma(k+p+1)}\ ,
$

$ \Gamma$ est la fonction Gamma d'Euler, définie par l'inégrale

$\displaystyle \Gamma(x) = \int_0^\infty t^{x-1} e^{-t}\ , \quad t\not\in\mathbb{Z}^-\ ,$ (2.11)

et qui vérifie (comme le montre une simple intégration par parties)

$\displaystyle \Gamma(x+1) = x\Gamma(x)\ ,\quad\forall x\not\in \mathbb{Z}^-\ .
$

On a donc obtenu une solution particulière, qui dépend d'une constante $ a_0$ . Si on impose une normalisation de la forme

$\displaystyle a_0 = \frac1{2^p\Gamma(p+1)}\ ,
$

on aboutit à l'expression suivante pour la solution, appelée fonction de Bessel d'ordre $ p$ et notée $ J_p$

$\displaystyle J_p(x) = \sum_{k=0}^\infty \frac{(-1)^k}{\Gamma(k+1)\Gamma(k+p+1)} \left(\frac{x}2\right)^{2k+p}\ .$ (2.12)

REMARQUE 2.3   On a choisi ici le cas $ p=\nu$ . On peut se convaincre facilement que $ p=-\nu$ ne donne pas de nouvelle solution. En effet, on a pour tout $ x$

$\displaystyle J_{-p}(x) = (-1)^p J_p(x)\ .
$

Nous avons aussi fait un autre choix, lorsque nous avons posé $ a_1=0$ , choix qui nous a conduit à une seule solution (pour $ p$ fixé). Or l'espace des solutions est bidimensionnel. Il est facile d'obtenir une seconde solution en utilisant le Wronskien. Les fonctions correspondantes sont appelées fonctions de Neumann, et notées $ N_p$ .

Le Wronskien, défini par

$\displaystyle W(x) = J_p(x)N_p'(x) - N_p(x) J_p'(x)\ ,
$

est donné par

$\displaystyle W(x) = W(x_1) e^{-\int_{x_1}^x P(z)\,dz}\ ,
$

$\displaystyle P(x) = \frac{1}x\ .
$

On a alors une autre solution, linéairement indépendante, de la forme

$\displaystyle y_2(x) = \frac{y_2(x_0)}{J_p(x_0)} J_p(x) + W(x_1)J_p(x_1) \int_{x_0}^x \frac{\exp\left\{-\int_{x_1}^z P(s)\,ds\right\}}{J_p(z)^2}\,dz\ .$ (2.13)

Pour un certain choix (conventionnel) des constantes, on obtient ainsi une seconde solution appelée fonction de Neumann, notée $ N_p(x)$ . On montre que $ N_p$ diverge logarithmiquement à l'origine.


On introduit parfois aussi les fonctions de Hankel de première et deuxième espèce, définies par

$\displaystyle \left\{ \begin{array}{lll} H_p^{(1)}(x)= &=& J_p(x) + i N_p(x)\\ H_p^{(2)}(x)= &=& J_p(x) - i N_p(x) \end{array} \right.$ (2.14)

Orthogonalité et complétude des fonctions de Bessel

Les fonctions de Bessel de $ J_0$ à $ J_4$ sont tracées en FIG. [*]. Comme on peut le voir, ce sont des fonctions extrêmement oscillantes. Il s'avère que leurs zéros jouent un rôle prépondérant, comme on va le voir.
Figure: Les fonctions de Bessel de $ J_0$ à $ J_4$ .
Image bessel
Notons $ \alpha_{kn}$ le $ n$ -ième zéro de la fonction de Bessel $ J_k$ :

$\displaystyle J_{k}(\alpha_{kn})=0\ ,\quad n=0,1,\dots\ .
$

On a alors la propriété d'orthogonalité suivante:
\begin{proposition}
Soit $a$\ un r\'eel positif, et posons
\begin{displaymath}
k...
...,dx
= \delta_{mn}
\int_0^a x J_p(k_{pn}x)^2\,dx
\end{equation}\end{proposition}
Preuve: Posons $ R_n(r) = J_{p}(k_{pn}r)$ . Alors on a

$\displaystyle \frac{d}{dr}\left(r\frac{dR_n}{dr}\right) =
-\left(k_{pn}^2 r -\frac{p}r\right)R_n(r)\ .
$

Par conséquent, on peut écrire
$\displaystyle \int_0^a \left[\frac{d}{dr}\left(r\frac{dR_n(r)}{dr}\right)\right]
R_m(r)\,dr$ $\displaystyle =$ $\displaystyle -\int_0^a \left(k_{pn}^2 r-\frac{p}r\right) R_n(r)R_m(r)\,dr$  
$\displaystyle \int_0^a \left[\frac{d}{dr}\left(r\frac{dR_m(r)}{dr}\right)\right]
R_n(r)\,dr$ $\displaystyle =$ $\displaystyle -\int_0^a \left(k_{pm}^2 r-\frac{p}r\right) R_m(r)R_n(r)\,dr$  

de sorte que l'on peut écrire, par soustraction

$\displaystyle (k_{pn}^2 - k_{pm}^2) \int_0^a r R_m(r)R_n(r)\,dr = 0\ ,
$

d'où on déduit le résultat. $ \spadesuit$

Pour ce qui est de la normalisation, elle peut être obtenue explicitement (calculs non reproduits ici). On pose

$\displaystyle {\mathcal J}_{pn}(x) = \frac{J_p(k_{pn}x)}{\int_0^a x J_p(k_{pn}x)^2\,dx}\ ,
$

et on obtient ainsi une famille orthonormale dans l'espace de Hilbert

$\displaystyle L^2([0,a],r\,dr) =
\left\{f: [0,a]\to\mathbb{C}\, \int_0^a r \vert f(r)\vert^2\,dr <\infty\right\}\ .
$

En outre, il est possible de montrer que cette famille est complète dans $ L^2([0,a],r\,dr)$ , de sorte que pour toute fonction $ f\in L^2([0,a],r\,dr)$ , on peut écrire, quel que soit $ p$ ,

$\displaystyle f = \sum_{n=0}^\infty \langle f,{\mathcal J}_{pn}\rangle {\mathcal J}_{pn}\ .$ (2.15)

Autres propriétés des fonctions de Bessel

  1. Fonction génératrice: En posant

    $\displaystyle g(x,t) = e^{x(t-1/t)/2}\ ,
$

    il est possible de montrer que les fonctions de Bessel d'ordre entier s'obtiennent via

    $\displaystyle g(x,t) = \sum_{n=0}^\infty J_n(x) t^n\ .$ (2.16)

    En effet, en développant les exponentielles en série entière, on obtient

    $\displaystyle g(x,t) = \sum_{r=0}^\infty \left(\frac{x}2\right)^r \frac{t^r}{r!}
\sum_{s=0}^\infty \left(\frac{x}2\right)^s \frac{t^{-s}}{s!}\ ,
$

    de sorte qu'en posant $ n=r-s$ , on obtient

    $\displaystyle g(x,t) = \sum_{n=-\infty}^\infty \left(\sum_{s=0}^\infty
\frac{(-1)^{n+s}}{s! (n+s)!} \left(\frac{x}2\right)^{n+2s}\right) t^n\ ,
$

    d'où le résultat (on a utilisé ici le fait que $ 1/n!=0$ pour tout $ n$ entier négatif.
  2. Relations de récurrence: en différenciant la fonction génératrice par rapport à $ t$ , on obtient la relation

    $\displaystyle J_{n-1}(x) + J_{n+1}(x) = \frac{2n}x J_n(x)\ .$ (2.17)

    De même, en dérivant par rapport à $ x$ et en identifiant les termes, on aboutit à

    $\displaystyle J_{n-1}(x) - J_{n+1}(x) = 2 J_n'(x)\ .$ (2.18)

    On en déduit en particulier
    $\displaystyle J_{n-1}(x)$ $\displaystyle =$ $\displaystyle \frac{n}x J_n(x) + J_n'(x)$ (2.19)
    $\displaystyle J_{n+1}(x)$ $\displaystyle =$ $\displaystyle \frac{n}x J_n(x) - J_n'(x)\ .$ (2.20)

Autre exemple: les polynômes de Legendre

On considère le Laplacien en coordonnées sphériques $ (r,\theta,\varphi)$ , et l'équation de Laplace

$\displaystyle \frac1{r^2}\frac{\partial}{\partial r}\left( r^2 F\right) + \frac...
...}\right) + \frac1{r^2\sin^2\theta}\frac{\partial^2 F}{\partial\varphi^2} = 0\ .$ (2.21)

En recherchant des solutions sous forme de fonctions à variables séparées

$\displaystyle F(r,\theta,\varphi) = R(r)\Theta(\theta)\Phi(\varphi)\ ,
$

et en supposant que la fonction $ \Phi$ soit constante, il est possible de montrer qu'en introduisant la variable $ x\in [-1,1]$ et la fonction $ y$ telles que

$\displaystyle x=\cos\theta\ ,\quad y(x) = \Theta((\theta)\ ,
$

l'équation en $ \theta$ se ramène à une équation différentielle de la forme

$\displaystyle (1-x^2)y''(x) -2xy'(x) + Cy(x)=0\ ,\quad x\in[-1,1]\ .$ (2.22)

Cette équation est appelée équation de Legendre, et se résout par la méthode de Frobenius. On peut montrer que l'équation possède deux points singuliers réguliers en $ x=\pm 1$ , et un point singulier régulier à l'infini. Ses solutions dépendent de la constante $ C$ . On peut montrer
\begin{theorem}
Supposons qu'il existe $\ell\in\mathbb{N}$\ tel que
\begin{displ...
...1 f(x) P_\ell(x)\,dx\ P_\ell(u)\ .
\end{displaymath}\end{enumerate}\end{theorem}
Dans le cas général, c'est à dire si $ C$ n'est pas de la forme $ C=\ell(\ell+1)$ , les solutions de l'équation de Legendre ne sont plus des polynômes, mais sont des séries infinies.


Tout comme les fonctions de Bessel, et bien d'autres systèmes de polynômes ou fonctions spéciales, les polynômes de Legendre peuvent être obtenus à partir d'une fonction génératrice, ici la fonction

$\displaystyle g(x,t) = \frac1{\sqrt{1-2tx+t^2}}\ .
$

Il suffit pour s'en convaincre d'utiliser le développement en série entière de $ (1+\epsilon)^{-1/2}$ , qui converge pour $ \vert\epsilon\vert<1$ (pour nous ici, $ \vert t\vert<1$ ).

On peut en déduire une relation de récurrence

$\displaystyle (n+1)P_{n+1}(x) -2nx P_n(x) + (n-1)P_{n-1}(x)=0\ .
$

On montre également la formule de Rodrigues:

$\displaystyle P_n(x) = \frac1{2^n n!} \frac{d^n}{dx^n} (x^2-1)^n
$

Autres exemples de polynômes orthogonaux

La même approche peut se transposer à d'autres situations, c'est à dire à d'autres équations différentielles, que l'on résout de façon similaire. Par exemple, on peut obtenir les polynômes de Laguerre à partir de l'équation différentielle

$\displaystyle x y''(x) + (1-x)y'(x) = \lambda y(x)\ .
$

Les polynômes d'Hermite sont quant à eux obtenus comme solutions de l'équation

$\displaystyle y''(x) -2xy'(x) = 2\lambda y(x)\ .
$

On peut trouver de multiples autres exemples d'intérêt physique. Ils sont toutefois souvent des cas particuliers d'une théorie plus générale, que nous allons brièvement évoquer plus loin.

Bruno Torresani 2007-06-26