Méthodes

Comment établir une convergence en loi ?

Une méthode en 4 questions réflexes pour déterminer la bonne méthode.

Thème : Probabilités
Chapitre : Probabilités
Année : ECG2
Option : Maths approfondies

Les questions de convergence en loi sont en général très guidées : une fois la bonne méthode identifiée, la preuve est souvent courte.

L’essentiel est de choisir le bon outil : reconnaître un schéma de théorème central limite, exploiter une structure discrète (valeurs dans \(\mathbb{N}\)), utiliser une stabilité par fonction continue, ou calculer directement une fonction de répartition.

Le but de cette page est de te donner une démarche systématique, dans le bon ordre.

Les questions réflexes

Pour établir une convergence en loi, on se pose systématiquement les questions suivantes.


Peut-on reconnaître une situation relevant du théorème central limite ?

Démarche

Le premier réflexe en convergence en loi est de vérifier si l’on est dans le cadre du théorème central limite.

On cherche une variable de la forme :

\[ X_n=\frac{\sum_{k=1}^{n} Y_k - n m}{\sqrt{n}\,\sigma} \]

où \((Y_k)_{k\in\mathbb{N}^*}\) est une suite de variables aléatoires indépendantes, de même loi, admettant une espérance \(m\) et une variance strictement positive \(\sigma^2\).

Dans ce cas, le théorème central limite donne :

\[ X_n \overset{\mathcal{L}}{\longrightarrow} \mathcal{N}(0,1) \]

Autrement dit, si on reconnait une somme centrée-réduite de variables i.i.d., il suffit de :

  • vérifier l’indépendance,
  • calculer l’espérance \(m\),
  • calculer la variance \(\sigma^2\),
  • écrire proprement la normalisation.

Exemple

Soit \((Y_k)_{k\in\mathbb{N}^*}\) une suite de variables aléatoires indépendantes, de loi de Bernoulli de paramètre \(p\in \left]0,1 \right[\).

On pose :

\[ S_n=\sum_{k=1}^{n} Y_k \]

On a :

\[ \mathbb{E}(Y_1)=p \qquad \text{et} \qquad \mathbb{V}(Y_1)=p(1-p) \]

Donc, d'après le théorème central limite :

\[ \frac{S_n - np}{\sqrt{n\,p(1-p)}} \overset{\mathcal{L}}{\longrightarrow} \mathcal{N}(0,1) \]


Les variables aléatoires prennent-elles leurs valeurs dans \(\mathbb{N}\) ?

Démarche

Si les variables aléatoires \(X_n\) prennent leurs valeurs dans \(\mathbb{N}\), on est dans un cadre discret.

Dans ce cas, pour montrer que

\[ X_n \overset{\mathcal{L}}{\longrightarrow} X \]

il suffit de montrer que, pour tout \(k\in\mathbb{N}\),

\[ \lim_{n \to +\infty} \mathbb{P}(X_n=k) = \mathbb{P}(X=k) \]

Autrement dit, dans le cas discret, la convergence en loi se ramène très fréquemment à une convergence des probabilités ponctuelles.

Il faut alors :

  • écrire explicitement la loi de \(X_n\),
  • fixer \(k\in\mathbb{N}\),
  • calculer la limite de \(\mathbb{P}(X_n=k)\).

Cette méthode est particulièrement efficace pour faire apparaître une loi limite de type Poisson.

Remarque importante. En pratique, il arrive souvent que la variable limite \(X\) ne soit pas donnée (ni sa loi). Dans ce cas, pour prouver la convergence en loi, on procède ainsi :

  • pour tout \(k\in\mathbb{N}\), on calcule \[ p_k=\lim_{n \to +\infty}\mathbb{P}(X_n=k) \]
  • on vérifie que la suite \((p_k)_{k\in\mathbb{N}}\) définit une loi de probabilité sur \(\mathbb{N}\), c’est-à-dire :

\[ \forall k\in\mathbb{N},\quad p_k\ge 0 \qquad \text{et} \qquad \sum_{k=0}^{+\infty} p_k = 1 \]

Si ces deux conditions sont vérifiées, alors la suite \((p_k)\) définit une loi sur \(\mathbb{N}\), et on a bien :

\[ X_n \overset{\mathcal{L}}{\longrightarrow} X \]

Exemple

Soit \(\lambda>0\) et \((X_n)_{n\in\mathbb{N}^*}\) telle que :

\[ X_n \sim \mathcal{B}\!\left(n,\frac{\lambda}{n}\right) \]

Montrer que :

\[ X_n \overset{\mathcal{L}}{\longrightarrow} \mathcal{P}(\lambda) \]

Comme \(X\sim\mathcal{P}(\lambda)\), on a :

\[ \forall k\in\mathbb{Z},\quad \mathbb{P}(X=k)= \begin{cases} 0 & \text{si } k<0 \\ \e^{-\lambda}\dfrac{\lambda^k}{k!} & \text{si } k\geqslant 0 \end{cases} \]

De plus, pour tout \(n\in\mathbb{N}^*\), comme \(X_n\sim\mathcal{B}(n,\lambda/n)\), on a :

\[ \forall k\in\mathbb{Z},\quad \mathbb{P}(X_n=k)= \begin{cases} 0 & \text{si } k<0 \\ \displaystyle \binom{n}{k} \left(\frac{\lambda}{n}\right)^k \left(1-\frac{\lambda}{n}\right)^{n-k} & \text{si } 0\leqslant k\leqslant n \\ 0 & \text{si } k>n \end{cases} \]

On fixe \(k\in\mathbb{N}\). Pour \(n>k\), on écrit :

\[ \mathbb{P}(X_n=k) = \frac{n(n-1)\dots(n-k+1)}{k!} \left(\frac{\lambda}{n}\right)^k \left(1-\frac{\lambda}{n}\right)^{n-k} \]

On regroupe les termes :

\[ \mathbb{P}(X_n=k) = \frac{1}{k!} \left( \frac{n(n-1)\dots(n-k+1)}{n^k} \right) \lambda^k \left(1-\frac{\lambda}{n}\right)^{n-k} \]

Or :

\[ \frac{n(n-1)\dots(n-k+1)}{n^k} = \prod_{j=0}^{k-1}\left(1-\frac{j}{n}\right) \longrightarrow 1 \]

Par ailleurs :

\[ \left(1-\frac{\lambda}{n}\right)^{n-k} = \left(1-\frac{\lambda}{n}\right)^n \left(1-\frac{\lambda}{n}\right)^{-k} \]

Or :

\[ \lim_{n\to+\infty} \left(1-\frac{\lambda}{n}\right)^n = \e^{-\lambda} \]

et :

\[ \left(1-\frac{\lambda}{n}\right)^{-k} \longrightarrow 1 \]

Donc :

\[ \lim_{n\to+\infty} \left(1-\frac{\lambda}{n}\right)^{n-k} = \e^{-\lambda} \]

On obtient ainsi :

\[ \lim_{n\to+\infty} \mathbb{P}(X_n=k) = \frac{\lambda^k}{k!}\e^{-\lambda} = \mathbb{P}(X=k) \]

On a donc :

\[ \forall k\in\mathbb{N},\quad \lim_{n\to+\infty}\mathbb{P}(X_n=k) = \mathbb{P}(X=k) \]

On en déduit :

\[ X_n \overset{\mathcal{L}}{\longrightarrow} \mathcal{P}(\lambda) \]


La suite est-elle obtenue par composition avec une fonction continue ?

Démarche

Un réflexe très efficace est de vérifier si la suite \((X_n)\) s’obtient à partir d’une autre suite \((Y_n)\) dont on connaît déjà la convergence en loi, par composition avec une fonction continue.

Concrètement, si l’on sait que :

\[ Y_n \overset{\mathcal{L}}{\longrightarrow} Y \]

et si \(g\) est continue, alors on peut conclure immédiatement que :

\[ g(Y_n) \overset{\mathcal{L}}{\longrightarrow} g(Y) \]

La stratégie est donc :

  • identifier une suite \(Y_n\) dont la limite en loi est connue (souvent par TCL),
  • écrire \(X_n=g(Y_n)\) avec \(g\) continue,
  • conclure par stabilité.

Exemple

Soit \((X_k)_{k\in\mathbb{N}^*}\) une suite de variables aléatoires indépendantes, de même loi, admettant une espérance \(m\) et une variance strictement positive \(\sigma^2\).

On note :

\[ \overline{X}_n=\frac{1}{n}\sum_{k=1}^{n} X_k \]

On pose :

\[ Y_n=\sqrt{n}\,\frac{\overline{X}_n-m}{\sigma} \]

D’après le théorème central limite :

\[ Y_n \overset{\mathcal{L}}{\longrightarrow} \mathcal{N}(0,1) \]

On considère alors :

\[ Z_n=\exp(Y_n) \]

La fonction \(t\mapsto \exp(t)\) est continue sur \(\mathbb{R}\). Par stabilité en loi par fonction continue :

\[ Z_n=\exp(Y_n)\ \overset{\mathcal{L}}{\longrightarrow}\ \exp(Z) \]

où \(Z\sim\mathcal{N}(0,1)\). Ainsi, \(Z_n\) converge en loi vers la variable \(\exp(Z)\).


Ai-je la fonction de répartition de \(X_n\) ?

Démarche

Si l’on connaît explicitement la fonction de répartition \(F_n\) de \(X_n\), la convergence en loi peut le plus souvent se traiter directement par calcul de limite.

La stratégie est alors :

  • écrire explicitement \(F_n(x)\),
  • calculer sa limite lorsque \(n\to +\infty\),
  • identifier la fonction limite comme une fonction de répartition.

Il faut toujours préciser que la convergence est étudiée aux points de continuité de la limite.

Exemple

Soit \((X_k)_{k\in\mathbb{N}^*}\) une suite de variables aléatoires indépendantes et de même loi uniforme sur \([0,1]\).

Pour tout \(n\in\mathbb{N}^*\), on pose :

\[ U_n=\max(X_1,\dots,X_n) \]

Montrer que la suite \( (U_n) \) converge en loi et déterminer sa loi limite.

  • On commence par chercher la fonction de répartition de \(U_n\).

    On a :

    \[ \forall x\in\mathbb{R},\ \left[U_n\leqslant x\right] = \bigcap_{k=1}^{n}\left[X_k\leqslant x\right] \]

    Donc, comme \(X_1,\dots,X_n\) sont indépendantes :

    \[ \forall x\in\mathbb{R},\ \mathbb{P}(U_n\leqslant x) = \prod_{k=1}^{n}\mathbb{P}(X_k\leqslant x) \]

    Or, comme \(X_k\sim\mathcal{U}[0,1]\), on a :

    \[ \forall x\in\mathbb{R},\quad \mathbb{P}(X_k\leqslant x)= \begin{cases} 0 & \text{si } x<0\\ x & \text{si } 0\leqslant x\leqslant 1\\ 1 & \text{si } x>1 \end{cases} \]

    Donc :

    \[ \forall x\in\mathbb{R},\quad \mathbb{P}(U_n\leqslant x)= \begin{cases} 0 & \text{si } x<0\\ x^n & \text{si } 0\leqslant x\leqslant 1\\ 1 & \text{si } x>1 \end{cases} \]

  • On étudie la limite de cette fonction lorsque \(n \to +\infty\).

    Soit \(x\in\mathbb{R}\).

    Si \(x<0\), alors :

    \[ \forall n\in\mathbb{N}^*,\quad \mathbb{P}(U_n\leqslant x)=0 \]

    Donc :

    \[ \lim_{n \to +\infty}\mathbb{P}(U_n\leqslant x)=0 \]

    Si \(0\leqslant x<1\), alors \(0\leqslant x<1\) implique :

    \[ \lim_{n \to +\infty} x^n = 0 \]

    Donc :

    \[ \lim_{n \to +\infty}\mathbb{P}(U_n\leqslant x)=0 \]

    Si \(x=1\), on a :

    \[ \forall n\in\mathbb{N}^*,\quad \mathbb{P}(U_n\leqslant 1)=1 \]

    Si \(x>1\), alors :

    \[ \forall n\in\mathbb{N}^*,\quad \mathbb{P}(U_n\leqslant x)=1 \]

    On en déduit que la fonction limite \(F\) est donnée par :

    \[ F(x)= \begin{cases} 0 & \text{si } x<1\\ 1 & \text{si } x\geqslant 1 \end{cases} \]

    Cette fonction est la fonction de répartition d’une variable constante égale à \(1\).

    Ainsi :

    \[ U_n \overset{\mathcal{L}}{\longrightarrow} 1 \]


error: Ce contenu est protégé !